LePartisan.info À propos Podcasts Fil web Écologie Blogs REVUES Médias
Souscrire à ce flux
L’expertise universitaire, l’exigence journalistique

ACCÈS LIBRE UNE Politique International Environnement Technologies Culture

▸ les 50 dernières parutions

24.08.2025 à 19:21

La longue histoire des tests de grossesse : de l’Égypte antique à Margaret Crane, l’inventrice du test à domicile

Valérie Lannoy, Post-doctorante en microbiologie, Sorbonne Université

Depuis la pandémie de Covid-19, nous connaissons tous très bien les tests antigéniques, mais saviez-vous que les premiers tests de ce type ont été développés, pour la grossesse, grâce à Margaret Crane ?
Texte intégral (1954 mots)

Depuis la pandémie de Covid-19, nous connaissons tous très bien les tests antigéniques, mais saviez-vous que le principe de l’autotest a été imaginé, dans les années 1960, par une jeune designer pour rendre le test accessible à toutes les femmes en le pratiquant à domicile ? Découvrez l’histoire de Margaret Crane, et les obstacles qu’elle a dû surmonter.


Les tests de diagnostic rapide ont sauvé de nombreuses vies à travers le monde grâce à leurs simplicité et rapidité, et à leur prix abordable. Les plus répandus sont les tests antigéniques, dont nous avons tous pu bénéficier pendant la pandémie de Covid-19. D’autres tests antigéniques existent, comme ceux détectant la dengue ou le chikungunya, deux infections virales tropicales, ou encore le paludisme, la maladie la plus mortelle au monde chez les enfants de moins de 5 ans.

Ces types de tests sont reconnus d’utilité publique par l’Organisation mondiale de la santé (OMS). Le test antigénique de la grippe est par exemple utilisé en routine. Bien que l’intérêt pour ces tests ait émergé durant la Covid-19, nous étions déjà familiarisés avec les tests antigéniques sans nous en rendre compte ! Les tests de grossesse, ô combien impliqués dans nos histoires personnelles, sont les premiers tests de diagnostic rapide créés. On doit cette découverte à Margaret Crane, dont l’invention a contribué à l’amélioration considérable du domaine diagnostique général.

Les tests de grossesse à travers les âges

Détecter une grossesse a toujours revêtu une importance pour la santé féminine, la gestion familiale et les questions sociales. Un papyrus médical égyptien datant d’environ 1350 avant notre ère, appelé le papyrus Carlsberg, détaille une méthode simple. Des grains d’orge et de blé, enfermés chacun dans un petit sac ou un récipient, étaient humidifiés quotidiennement avec l’urine de la femme à tester. L’absence de germination diagnostiquait l’absence de grossesse. La germination de l’orge, elle, prévoyait la naissance d’un garçon, quand celle du blé présageait celle d’une fille. En 1963, une équipe de recherche a décidé d’essayer cette technique de l’Égypte antique, à première vue rudimentaire. De manière étonnante, même si la prédiction du sexe était décevante, la méthode égyptienne avait une sensibilité très élevée : 70 % des grossesses ont été confirmées ! Cela est probablement dû au fait que les hormones dans les urines de la femme enceinte miment l’action des phytohormones, les hormones végétales.

En 1927, le zoologue anglais Lancelot Hogben obtient une chaire de recherche pour étudier les hormones animales à l’Université du Cap en Afrique du Sud. Il y découvre le « crapaud à griffe » du Cap (Xenopus laevis) dont les femelles ont la capacité de pondre toute l’année. Le professeur Hogben contribue à la création d’un test de grossesse qui porte son nom. Son principe ? Injecter de l’urine de femme enceinte dans un crapaud femelle. En raison des hormones contenues dans l’urine, cette injection déclenchait spontanément la ponte. Le test présentait une sensibilité supérieure à 95 % !

Bien que ce protocole soit devenu un test de routine dans les années 1940, la majorité des femmes n’avait toujours pas d’accès facile aux tests de grossesse. D’autres tests similaires existaient, utilisant des souris femelles ou des lapines, consistant à en examiner les ovaires pendant 48 à 72 heures après l’injection d’urine, pour voir si celle-ci avait induit une ovulation. Ces tests présentaient des contraintes de temps, de coûts et l’utilisation d’animaux, ce qui a motivé la recherche de méthodes plus rapides et moins invasives.

La découverte de l’hormone hCG

Au début des années 1930, la docteure américaine Georgeanna Jones découvrit que le placenta produisait une hormone, appelée la gonadotrophine chorionique humaine, dont l’abréviation est l’hCG. Cette découverte en a fait un marqueur précoce de grossesse, et pour la tester, il ne restait plus qu’à la détecter !

En 1960, le biochimiste suédois Leif Wide immunisa des animaux contre l’hCG humaine et en purifia les anticorps. On avait donc à disposition des molécules, les anticorps, capables de détecter l’hCG, encore fallait-il que la réaction antigène-anticorps (dans ce cas, l’hCG est l’antigène reconnu par les anticorps) puisse être visible pour confirmer une grossesse à partir d’urines.

Le professeur Leif Wide développa un test de grossesse, selon une technologie appelée l’inhibition de l’hémagglutination. Elle se base sur l’utilisation de globules rouges, dont la couleur permet une analyse à l’œil nu. Si les anticorps se lient aux globules rouges, ils ont tendance à s’agglutiner, et cela forme une « tache rouge » au fond du test. En cas de grossesse, l’échantillon d’urine contient de l’hCG : les anticorps réagissent avec l’hCG et ne peuvent pas lier les globules rouges. L’absence de tâche rouge indique une grossesse ! Ce test était révolutionnaire, car, contrairement aux autres, et en plus d’être beaucoup moins coûteux, le résultat n’était obtenu qu’en deux heures.

L’invention de Margaret Crane

En 1962, l’entreprise américaine Organon Pharmaceuticals a commercialisé ce test de grossesse, à destination des laboratoires d’analyses médicales. En 1967, Margaret Crane est une jeune designer de 26 ans sans aucun bagage scientifique, employée par cette compagnie dans le New Jersey, pour créer les emballages de leur branche cosmétique. Un jour qu’elle visite le laboratoire de l’entreprise, elle assiste à l’exécution d’un des tests. Un laborantin lui explique la longue procédure, consistant au prélèvement d’urine par le médecin et à l’envoi à un laboratoire d’analyses. Il fallait attendre environ deux semaines pour une femme avant d’avoir un résultat.

Le test de grossesse inventé par Margaret Crane
Le test de grossesse inventé par Margaret Crane. National Museum of American History, CC BY

Malgré la complexité théorique de la technique, Margaret Crane réalise alors à la fois la simplicité de lecture du test et du protocole : il suffisait d’avoir des tubes, un flacon d’anticorps et un indicateur de couleur (les globules rouges) ! De retour chez elle à New York, elle lance des expériences en s’inspirant d’une boîte de trombones sur son bureau, et conçoit un boîtier ergonomique – avec tout le matériel et un mode d’emploi simplifié –, destiné à l’usage direct à la maison par les utilisatrices. Margaret Crane montre son prototype à Organon Pharmaceuticals, qui refuse l’idée, jugeant qu’une femme ne serait pas capable de lire seule le résultat, aussi simple soit-il…

La persévérance de Margaret Crane

Peu de temps après la proposition de Margaret Crane, un homme employé par Organon Pharmaceuticals s’en inspire et lance la même idée, et lui est écouté. Elle décide alors de tirer parti de la situation, en assistant aux réunions où elle était la seule femme. Plusieurs tests, prototypés par des designers masculins, y sont présentés : en forme d’œuf de poule, soit roses, soit décorés de strass… Sans aucune hésitation, c’est celui de Margaret Crane qui est choisi pour sa praticité, car elle l’avait pensé pour que son utilisation soit la plus facile possible. Margaret Crane dépose son brevet en 1969, mais Organon Pharmaceuticals hésite à le commercialiser tout de suite, de peur que les consommatrices soient dissuadées par des médecins conservateurs ou par leur communauté religieuse.

Il est mis pour la première fois sur le marché en 1971 au Canada, où l’avortement venait d’être légalisé. Bien que créditée sur le brevet américain, Margaret Crane ne perçut aucune rémunération, car Organon Pharmaceuticals céda les droits à d’autres entreprises.

L’histoire de Margaret Crane illustre un parcours fascinant, où l’observation empirique rencontre le design industriel. Sa contribution fut finalement reconnue en 2014 par le Musée national d’histoire américaine.

Son concept fondateur, celui d’un test simple, intuitif et autonome pour l’utilisateur, ouvrit la voie révolutionnaire aux tests de grossesse sous la forme que nous connaissons aujourd’hui et aux tests antigéniques, essentiels notamment lors de crises sanitaires.

The Conversation

Valérie Lannoy ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

24.08.2025 à 17:49

Réduire l’empreinte carbone des transports : quand les progrès techniques ne suffisent pas

Alix Le Goff, Docteur en économie des transports, Université Lumière Lyon 2

Damien Verry, Directeur projet Modélisation-évaluation des mobilités, Cerema

Jean-Pierre Nicolas, Directeur de recherche CNRS, Laboratoire Aménagement Economie Transports, ENTPE

Les voyages longue distance en avion et les déplacements en voiture des actifs, de plus en plus longs du fait de l’étalement urbain, sont les deux principaux postes de croissance des émissions.
Texte intégral (2834 mots)

Entre 1994 et 2019, les émissions de gaz à effet de serre liées aux mobilités en France ont continué à augmenter, malgré les progrès techniques. Pour inverser la tendance, il faudrait tempérer à la fois l’augmentation des voyages à longue distance en avion et celle des déplacements en voiture des actifs, de plus en plus longs du fait de l’étalement urbain. Les solutions politiques à mettre en place devront composer avec de forts enjeux d’équité sociale.


Les transports représentent 15 % des émissions globales de gaz à effet de serre (GES) dans le monde, mais la France constitue un cas particulier. Les transports occupent un poids relatif plus important en France du fait de son système énergétique peu carboné (notamment du fait de son énergie nucléaire). Ainsi, en 2023, ce secteur représentait 34 % des émissions de gaz à effet de serre.

Réduire ces émissions est donc un enjeu crucial au niveau national, mais les dynamiques en jeu sont complexes. Pour mieux les comprendre, nous nous sommes concentrés sur les mobilités individuelles pour analyser vingt-cinq ans de données issues des trois dernières enquêtes nationales sur la mobilité des Français, menées respectivement en 1994, en 2008 et en 2019.

Il ressort de nos résultats que les progrès techniques enregistrés sur cette période ne suffisent pas à compenser les hausses de distances parcourues. En outre, les politiques de régulation à mettre en place doivent composer avec de forts enjeux d’équité sociale.

C’est, par exemple, le cas pour le transport aérien, qui a connu une hausse des émissions de plus d’un tiers entre 1994 et 2019, avec des disparités marquées. En 2019, les 25 % les plus riches de la population étaient ainsi responsables de plus de la moitié des distances parcourues en avion.

Des émissions encore et toujours en hausse

Principale leçon de l’enquête : pour le climat, le compte n’y est pas. En 2019, le Français moyen a effectué 1 044 déplacements et parcouru 16 550 kilomètres. Ceci correspond à 2,3 tonnes équivalent CO2 pour se déplacer. Or, si la France souhaite respecter l’accord de Paris (c’est-à-dire, faire sa part pour limiter le réchauffement en dessous de 2 °C en 2100), c’est peu ou prou la quantité totale de GES que ce Français devra émettre en 2050… tous usages confondus.

Émissions de gaz à effet de serre liées à la mobilité des Français en 2019. Fourni par l'auteur

L’automobile pèse lourd dans le bilan : elle représente à elle seule près des trois quarts du total des émissions. L’avion constitue l’essentiel du quart restant, tandis que tous les autres modes pris ensemble ne comptent que pour 4 %.

Par ailleurs, les émissions de notre Français moyen ont augmenté de 7 % entre 1994 et 2019. Il ne réalise pas davantage de déplacements qu’auparavant, mais ceux-ci sont par contre plus longs (+18 %). Les progrès techniques réalisés entre 1994 et 2019 ont permis de baisser les émissions par kilomètre parcouru de 10 %, ce qui n’a compensé que partiellement cet allongement. Enfin, comme la population française a augmenté de 12 % sur la période, la hausse de 7 % des émissions par personne conduit à une croissance totale des émissions de 20 %.

Pour aller plus loin dans l’analyse, nous avons distingué deux types de mobilité : les mobilités locales et les mobilités à longues distances, qui répondent à des besoins différents et ne font pas face aux mêmes contraintes. De ce fait, elles ne recourent pas aux mêmes modes de transports et n’ont pas évolué de la même manière au cours des vingt-cinq années observées.

L’automobile, poids lourd des émissions locales

La voiture est incontestablement le mode de transport dominant pour les trajets quotidiens des Français, tant en termes de distances parcourues que d’impacts environnementaux. Pour ce type de déplacements, elle représente ainsi 85 % des distances totales et 95 % des émissions de gaz à effet de serre. Ces proportions se vérifient dans les trois enquêtes de 1994, de 2008 et de 2019.

Évolution des émissions de GES pour les déplacements locaux entre 1994 et 2019. Fourni par l'auteur

Entre 1994 et 2019, les émissions totales de GES issues des déplacements locaux ont progressé de 20 %, notamment du fait d’un allongement des distances parcourues par personne, en plus de l’augmentation de la population. Les gains d’efficacité énergétique des moteurs n’ont pas suffi à compenser la croissance du poids des véhicules ni la progression de la proportion d’automobiles occupées par leur seul conducteur. Le taux de remplissage moyen est ainsi passé de 2,1 personnes à 1,8 personne par voiture.

Sur le plan individuel, le facteur déterminant du niveau de gaz à effet de serre émis reste le fait de travailler ou non. En 2019, les actifs en emploi constituaient 43 % de la population et représentaient 65 % des émissions. Les disparités territoriales entrent également fortement en compte : les actifs qui vivent dans les zones rurales ou périurbaines ont vu leurs distances et leurs émissions augmenter de manière significative avec l’élargissement des bassins d’emplois et la disparition des services locaux.

A contrario, ceux des centres urbains ont baissé leurs émissions à la faveur d’une réduction des distances parcourues et d’un basculement progressif vers les modes alternatifs à la voiture, plus facilement accessibles sur leurs territoires.


À lire aussi : Peut-on faire une ville du quart d’heure dans le périurbain ?


À longue distance, les émissions des Français décollent

Les émissions liées aux déplacements à longue distance ont également augmenté de 20 % entre 1994 et 2019, avec une accélération marquée entre 2008 et 2019. L’avion est le principal responsable de cette hausse, avec des distances totales parcourues multipliées par 2,5.

Bien que les émissions par passager au kilomètre en avion aient très fortement baissé sur la période (-45 %) grâce aux progrès techniques et à de meilleurs taux de remplissage, ces dernières restent élevées (170 g équivalent CO2 par passager au kilomètre, contre 99 pour la voiture sur les longues distances). Par ailleurs, cette baisse ne suffit pas à compenser la croissance de l’usage de l’avion. Les émissions dues à ce mode de transport augmentent de 35 % entre 1994 et 2019.

Évolution des émissions de GES pour les déplacements à longue distance entre 1994 et 2019. Fourni par l'auteur

Sur le plan individuel enfin, les disparités sociales restent extrêmement marquées : les plus diplômés et les plus aisés sont les plus susceptibles de réaliser des voyages longue distance.

Cette hétérogénéité pose la question de l’équité des politiques de régulation. Par exemple, les personnes sans diplôme appartenant au quartile de revenu le plus faible ont émis en moyenne 0,5 tonne équivalent CO2 par an pour leur mobilité à longue distance, contre 2,5 tonnes équivalent CO2 par an pour les titulaires d’un master ou plus, appartenant au quartile de revenu le plus élevé.

Même si on observe une diffusion progressive de l’usage de l’avion dans toutes les catégories de la population, cette démocratisation apparente reste à relativiser. En 2019, les 25 % les plus riches étaient toujours à l’origine de plus de la moitié des distances parcourues en avion. Et ce sont surtout les 25 % suivant qui les rattrapent : la moitié la moins aisée de la population reste encore loin derrière.

Comment réduire l’empreinte carbone de nos mobilités ?

Pour les mobilités locales, nos résultats soulignent l’importance d’adapter les politiques publiques aux spécificités territoriales pour réduire efficacement les émissions des mobilités individuelles.

C’est dans les zones périurbaines et peu denses que les enjeux sont les plus lourds en termes d’émissions. Des initiatives dans ces zones peuvent viser à améliorer et promouvoir l’offre de mobilités alternatives à la voiture individuelle, comme le vélo, les transports en commun ou le covoiturage. La voiture électrique, davantage consommatrice d’énergie et de matériaux rares que sa concurrente thermique lors de la phase de construction, nécessite un usage régulier pour avoir une empreinte carbone plus faible. Elle peut ainsi apparaître particulièrement pertinente dans ces territoires où la dépendance automobile est forte et les distances parcourues sont importantes.

Mais cette solution par l’organisation du système de transport ne fait pas tout. La maîtrise de l’étalement urbain dans les zones rurales et périurbaines est essentielle pour limiter l’augmentation des distances parcourues et, par conséquent, des émissions de GES. Des politiques favorisant la densification des activités et des résidences autour des pôles locaux et inversant la tendance de la disparition progressive des services de proximité pourraient jouer un rôle clé dans cette stratégie, sans se faire au détriment des populations concernées.

Pour les déplacements à longue distance, les évolutions démographiques et socio-économiques globales vont probablement favoriser un renforcement de l’usage de l’avion. Les progrès techniques envisagés à court et moyen terme risquent de ne pas suffire pour compenser cette augmentation prévisible de la demande.

La concentration des émissions de GES sur une fraction aisée et diplômée de la population impose de réfléchir à des politiques de réduction des émissions qui ciblent prioritairement les grands émetteurs. Par exemple, plusieurs travaux économiques montrent l’intérêt d’une taxe progressive sur les vols afin de réduire le nombre des « frequent flyers » de l’avion, sans pénaliser les voyageurs occasionnels.

Parallèlement, le développement des alternatives à l’avion pour certains déplacements, tels que les trains à grande vitesse pour les trajets intraeuropéens, pourrait contribuer à réduire la dépendance vis-à-vis de l’aérien.


À lire aussi : Le train survivra-t-il au réchauffement climatique ?


En définitive, les progrès techniques enregistrés au cours des vingt-cinq dernières années, tant dans l’aérien que pour l’automobile, n’ont pas permis d’inverser la tendance à la hausse des émissions de GES des Français, pas plus au niveau individuel qu’au niveau global. Si l’on veut tenir les objectifs de l’accord de Paris, les actions à mener doivent aussi toucher les pratiques de mobilités elles-mêmes et l’organisation spatiale du territoire, ce qui ne peut se faire sans prendre également en compte les forts enjeux d’équité sociale du secteur.


Les résultats présentés dans cet article sont issus d’une recherche subventionnée par l’Agence de la transition écologique (Ademe). Leur détail et les hypothèses des calculs sont disponibles dans le rapport publié par les auteurs de l’article sur le site de l’Ademe.

The Conversation

Alix Le Goff a reçu des financements de l'Agence nationale de la recherche (ANR), notamment concernant des travaux traitant de la modélisation des déplacements et de la dépendance automobile.

Damien Verry a reçu des financements de l'ANR, de l'ADEME.

Jean-Pierre Nicolas a reçu des financements de l'ADEME

PDF

24.08.2025 à 17:45

Les frontières des États-Unis vont rester ouvertes pour les immigrés hautement qualifiés en sciences et en technologies

Dominique Redor, professeur émérite université Gustave Eiffel, chercheur affilié au Centre d'Etudes de l'emploi, CNAM, Conservatoire national des arts et métiers (CNAM)

Donald Trump affiche une politique volontaire pour limiter l’immigration et renvoyer les clandestins. Cela ne concerne pas les personnes les plus diplômées.
Texte intégral (1771 mots)

L’administration Trump 2 a fait de la lutte contre l’immigration une priorité de politique interne. Au-delà des images chocs d’arrestations, la réalité est plus complexe, notamment pour les immigrés ayant des compétences scientifiques très pointues. La suprématie scientifique et technologique des États-Unis continue et continuera de dépendre de leur capacité à attirer les cerveaux du monde entier.


Le président Trump expulse en masse les immigrés sans papiers, tente de remettre en cause le droit du sol pour les enfants nés aux États-Unis de parents qui n’y résident pas officiellement. Il s’en prend aussi aux étudiants étrangers des universités les plus prestigieuses. C’est un moyen que le président utilise pour les forcer à accepter les ingérences de son administration dans la sphère universitaire et de la recherche scientifique. Cette administration tente ainsi d’obtenir le licenciement ou l’arrêt du recrutement de certains scientifiques de haut niveau états-uniens et surtout étrangers.

Largement médiatisées, ces attaques ne doivent pas faire oublier qu’une part importante des immigrés présents aujourd’hui aux États-Unis est hautement diplômée, selon l’enquête American Community Survey (disponible sur le USA IPUMS dont sont extraites la plupart des données du présent article. Le président Trump va-t-il aussi leur fermer les frontières des États-Unis ? Ou, au contraire, va-t-il se borner à effectuer une sélection, entre ceux et celles qui, jugés indispensables au bon fonctionnement de l’économie, bénéficieront de toutes les protections et de tous les avantages matériels, tandis que les autres seront de plus en plus rejetés ?


À lire aussi : Pourquoi les politiques anti-immigration pourraient être abandonnées


Le grand tournant des années 1960

L’histoire du brain drain (l’attraction des cerveaux), notamment européens, vers les États-Unis est ancienne. Le grand tournant de la politique migratoire eut lieu en 1965. Le président démocrate Lyndon Johnson voulait que les États-Unis redeviennent une « terre d’accueil ». Pour cela, une nouvelle législation fut adoptée pour favoriser l’immigration familiale et, surtout, celle des personnes ayant des qualifications ou des compétences exceptionnelles. On leur offrait la possibilité d’obtenir un droit de séjour permanent, encore dénommé Green Card (carte verte).

Par ailleurs, les personnes ayant au minimum un diplôme de niveau bachelor (license) – dans la pratique un master était requis –, pouvaient obtenir un visa de travail temporaire de trois à six ans, suivi, le cas échéant, par la carte verte.

Depuis lors, cette législation a connu de nombreuses adaptations, mais n’a pas fondamentalement changé. Ses effets, jusqu’en 2024, ont été progressifs et massifs. Précisons que l’enquête American Community Survey considère comme immigrée toute personne née à l’étranger. En 1980, ces immigrés d’âge pleinement actif (de 25 ans à 64 ans) représentaient 7,2 % de la population résidant aux États-Unis. En 2020, ils constituaient 19 % de cette population. Une partie de celle-ci, surtout d’origine latino-américaine, avait un très faible niveau de diplôme. En effet, 84 % de ces derniers avaient un niveau d’éducation inférieur ou égal au diplôme de fin d’études secondaires.

Des immigrants diplômés

Cependant, beaucoup d’immigrants, admis dans les années 1980 et 1990, étaient de plus en plus diplômés. Depuis, leur montée en qualification a été régulière. En 2020, parmi l’ensemble de la population immigrée, on trouvait davantage de titulaires d’un diplôme de 3e cycle (master ou doctorat), qu’au sein de la population d’origine états-unienne. Si bien que les immigrés représentaient un tiers des personnes résidant aux États-Unis qui étaient titulaires d’un doctorat.

Ce constat mérite d’être relativisé. Si les diplômés dans les disciplines scientifiques et technologiques et du management représentaient la grande majorité des immigrés admis à résider et travailler aux États-Unis, les diplômés de sciences sociales, de disciplines littéraires et artistiques, étaient beaucoup moins nombreux à obtenir cette admission.

Européens, Chinois et Indiens

Trois groupes d’immigrants se distinguaient par leur niveau d’éducation particulièrement élevé. Tout d’abord, par ordre croissant, on dénombrait 1,5 million d’Européens des 27 pays de l’Union européenne, appartenant à cette classe d’âge pleinement active ; 30 % d’entre eux étaient titulaires d’un diplôme de 3e cycle. La palme revenait aux Français au nombre de 120 000 ; 52 % d’entre eux possédaient un diplôme de 3e cycle.

Ensuite, un deuxième groupe de personnes hautement diplômées était constitué par les Chinois, au nombre de 1,9 million pour cette classe d’âge ; 37 % d’entre eux avaient un diplôme de 3e cycle. Enfin, le groupe des immigrés indiens était le plus nombreux avec 2,8 millions de personnes, dont 43 % possédaient un tel diplôme.


À lire aussi : Los Angeles : le recours à la Garde nationale au cœur du conflit entre Trump et les autorités locales


En témoignent quelques figures bien connues comme, par exemple, les Français Yann Le Cun ou Jérôme Pesenti qui ont exercé de hautes fonctions chez Meta, tandis que Joëlle Barral était directrice de la recherche fondamentale en intelligence artificielle (IA) chez Google Deep Mind. Quant à Fidji Simo, elle est devenue, en 2024, directrice générale des application d’Open AI. Sundar Pichaï chez Google ou Shantanu Narayen chez Adobe System illustrent, quant à eux, la présence des Indiens.

Les données de l’administration états-unienne de l’immigration montrent que ce sont les entreprises de la tech qui obtiennent le plus grand nombre de visas pour employer des immigrés les plus qualifiés. Les « seven magnificients » : Google, Amazon, Facebook, Apple, Microsoft, Nvidia et Tesla arrivent en tête. Chacune d’elles obtient chaque année plusieurs milliers de visas pour embaucher des étrangers hautement diplômés.

Des immigrés aux postes les plus élevés

D’une manière générale, les immigrés sont nombreux dans les échelons supérieurs de ces organisations. Ceci est attesté par leur position dans la hiérarchie des salaires. Par exemple, dans le secteur de la construction électronique (incluant Apple), les 5 % de salariés les mieux payés perçoivent un salaire annuel égal ou supérieur à 220 000 dollars. Parmi ceux-ci, on compte 38 % d’immigrés. De même, dans le secteur de la communication et des réseaux sociaux (incluant Facebook), 5 % des salariés perçoivent une rémunération annuelle égale ou supérieure à 310 000 dollars. On dénombre 33 % d’immigrés parmi eux. Dans l’enseignement supérieur, on trouve 26 % d’immigrés dans la classe des 5 % de salariés les mieux payés.

France 24 – 2025.

La longue histoire du brain drain vers les États-Unis est loin d’être terminée, malgré de possibles soubresauts, comme l’ont montré, en décembre dernier, les dissensions au sein du camp MAGA.

Le Made in USA et son économie ne peuvent pas se passer de l’emploi des étrangers. Quelles que soient les évolutions politiques dans les années à venir, les gouvernants continueront à donner la priorité absolue à la suprématie de leur pays dans ces domaines. La politique migratoire de Trump et de ses successeurs laissera les frontières largement ouvertes aux scientifiques et managers étrangers, comme au cours de ces soixante dernières années.

Des attaques ciblées de D. Trump

Les attaques de Donald Trump contre la science ne doivent pas tromper. Son combat concerne les disciplines et les scientifiques dont les travaux et les démonstrations s’opposent à son idéologie, qu’il s’agisse de la climatologie, d’une partie des sciences médicales et de la quasi-totalité des sciences sociales (études sur le genre, les inégalités, les discriminations de toutes origines).

Sa politique relève d’une conception instrumentale de la science et des scientifiques, rejetant ceux qui ne servent pas ses intérêts économiques et ses options idéologiques. S’ils sont étrangers, ils risquent l’expulsion. Les autres, indispensables aux entreprises de la tech, sont les bienvenus aux États-Unis et le resteront, car il existe désormais une concurrence intense sur ces marchés mondialisés de l’emploi des « talents », selon l’expression popularisée par les publications de l’OCDE. Cette compétition va se poursuivre et s’exacerber.

Cette situation devrait davantage préoccuper les gouvernements européens et français. L’exode des cerveaux de l’UE risque de se prolonger, voire de s’accroître. Les données de l’OCDE font ressortir l’insuffisance des investissements en recherche et développement (R&D) de la France au même niveau que la moyenne de l’UE (2,15 % du PIB), et très en deçà des États-Unis (3,45 %). Cette faiblesse des investissements concerne aussi bien la recherche publique que privée. Sur la période 2013-2024, les entreprises états-uniennes ont investi dans l’IA 470 milliards de dollars, les entreprises allemandes 13 milliards et les entreprises françaises 11 milliards. C’est dire, sur ce domaine d’avenir, combien le pouvoir d’attraction de l’économie des États-Unis est déterminant.

The Conversation

Dominique Redor est membre des Economistes Atterrés

PDF

24.08.2025 à 17:11

Kabylie-État algérien : une confrontation politique persistante (2/2)

Salem Chaker, Professeur émérite à l’Université d’Aix-Marseille, Aix-Marseille Université (AMU)

La défiance de la Kabylie à l’égard du pouvoir central se manifeste notamment dans une participation quasi-nulle aux scrutins nationaux.
Texte intégral (2303 mots)

Deuxième partie d’un texte rassemblant une série de constats et de réflexions nourris par plus d’un demi-siècle d’observation et d’engagement – une observation que l’on pourrait qualifier de participante – au sein de la principale région berbérophone d’Algérie : la Kabylie.


Dans un précédent article, nous avons vu qu’une palette assez complète de moyens répressifs, politiques et juridiques a été utilisée par l’État algérien pour contrôler une région qui s’est régulièrement opposée à lui, opposition qui n’a d’ailleurs pas eu que des formes paroxystiques.

Il suffit de se pencher sur la sociologie électorale de la Kabylie depuis 1963 pour constater, sur la base même de chiffres officiels – dont la fiabilité est pourtant très douteuse –, qu’il existe dans cette région une défiance tenace vis-à-vis du pouvoir politique. Lors de toutes les consultations électorales, de niveau local ou national, on a pu constater en Kabylie des taux d’abstention très élevés avoisinant souvent les 80 % et un rejet quasi systématique des candidats officiels.

À l’élection présidentielle de 2019, la participation était quasi nulle en Kabylie (0,001 % à Tizi-Ouzou et 0,29 % à Béjaia, par exemple). Dans le reste du pays, la participation, sans être massive, a été significative (39,88 %). En 2024, selon les chiffres officiels, évidemment sujets à caution, le taux de participation en Kabylie (Tizi-Ouzou et Béjaia) a été inférieur à 19 %, bien en-deçà de la moitié de la moyenne de la participation au niveau national (46,10 %).

Certes, les diverses confrontations entre la Kabylie et le pouvoir central ont favorisé certaines avancées et fait évoluer la position de l’État. En particulier, le tabou pesant sur la langue et la culture berbères a été levé, avec leur reconnaissance comme « langue nationale » en 2002, l’arabe restant langue officielle, et la promotion du berbère au rang de seconde « langue officielle » en 2016.

C’est d’ailleurs la pratique permanente du pouvoir face à toutes formes de contestation : quand on ne peut pas la réprimer directement et immédiatement, on la neutralise par des concessions tactiques. C’est ce qu’a illustré le grand mouvement de contestation national de 2019-2020 (Hirak) qui a certes obtenu la mise à l’écart définitive de Bouteflika, mais qui a vu en même temps se renforcer les actions de répression de toute nature contre les « meneurs » et contre la presse.

Dans tous les cas, et quelle que soit la forme de l’opposition, on a le sentiment que celle-ci bute sur le socle inébranlable d’un pouvoir autoritaire. Toujours et partout, les méthodes du pouvoir et de ses exécutants ont été les mêmes : infiltration, division, répression et récupération.

Même les mouvements de protestation les plus massifs (Kabylie 2001-2002, aussi appelé printemps noir, où la protestation populaire sévèrement réprimée s’est soldée par près de 130 morts et des milliers de blessés ; Hirak 2019-2020) n’ont pas réussi à remettre en cause le socle du système et à imposer une évolution démocratique, même très progressive.

En fait, en dehors de ces appareils répressifs redoutables et remarquablement efficaces, le régime algérien depuis 1962 dispose d’atouts extrêmement puissants :

  • Bien sûr, en premier lieu, la rente des hydrocarbures qui lui permet souvent de calmer les ardeurs contestataires et surtout d’intégrer une grande partie des élites culturelles et politiques ;

  • En second lieu, la rente idéologique constituée à la fois de ce qui a été appelé « la rente mémorielle » fondée sur la guerre de libération, mais aussi sur ce que le régime lui-même appelle « les constantes de la nation », c’est-à-dire l’unité et l’indivisibilité de la nation, l’identité arabe et l’islam. Ces « opiums », systématiquement diffusés par l’École, les médias officiels et les mosquées, permettant d’anesthésier la société et, en cas de contestation, de légitimer la répression sont donc nombreux et durables.

La Kabylie ou « l’adversaire de l’intérieur »

Le régime algérien, comme tous les régimes autoritaires, a structurellement besoin d’ennemis, extérieurs et/ou intérieurs, pour se maintenir et légitimer son autoritarisme et ses pratiques répressives. Depuis la tentative d’invasion marocaine de 1963, qui marqua le premier conflit frontalier connu sous le nom de « Guerre des Sables », puis surtout depuis la crise du Sahara occidental à partir de 1974, l’ennemi extérieur désigné reste le voisin et « frère » marocain, ainsi que ses alliés.

Sur le temps long, l’ennemi extérieur sert surtout de prétexte pour renforcer le sentiment national face à une menace perçue. Dans la réalité, cette rhétorique n’a guère de traduction concrète : il est difficile d’imaginer les généraux algériens s’engager dans une guerre contre le Maroc, tant un tel pari militaire et politique serait incertain et pourrait compromettre la survie même du régime.

En revanche, la Kabylie reste perçue par le pouvoir central comme un adversaire intérieur, et ce depuis 1963 et l’insurrection armée de Hocine Aït Ahmed. Elle est une proie facile que l’on peut aisément désigner à la vindicte populaire, en tant qu’ennemi de la nation et de son unité. C’est pour cela que ce ressort est systématiquement utilisé depuis 1963.

On se reportera aux discours des présidents de la République algériens (Ben Bella, Boumédienne, Chadli et à ceux des gouvernements successifs à l’occasion des crises « kabyles » en 1963, en 1980, en 2001-2002 et en 2021-2022, cette dernière ciblant spécifiquement le MAK qui n’est donc qu’un cas parmi une longue série rappelée plus haut.

En fait, cette pratique antikabyle a des racines bien plus anciennes, au sein même du mouvement nationaliste algérien radical. On rappellera que le mouvement national algérien né à la fin des années 1920 était très divers, allant de courants partisans de la lutte armée (indépendantistes comme le Parti du Peuple algérien de Messali Hadj) à des mouvements réclamant une autonomie au sein de la France, comme ce fut initialement le cas de Fehrat Abbas.

Mais devant le blocage du système colonial, ce sont les partisans du passage à la lutte armée qui se sont imposés et ont constitué le FLN de 1954.

Cette tension culminera avec l’assassinat, en 1957, d’Abane Ramdane, l’un des leaders du FLN, qui prônait la primauté du politique sur le militaire.

Au départ, il s’agissait moins d’un clivage ethnique que d’une opposition idéologique sur les moyens d’action, certains militants nationalistes kabyles s’opposant à la définition arabo-islamique de la nation et manifestant un tropisme marqué en faveur d’une conception laïque de l’État.

D’où les condamnations et stigmatisations récurrentes de « berbérisme et berbéro-matérialisme ». Cette divergence idéologique évoluera rapidement vers une suspicion antikabyle largement répandue, qui s’est manifestée après l’indépendance par l’élimination ou l’éviction de tous les chefs historiques kabyles du FLN (Krim Belkacem, Hocine Aït Ahmed…).

Un contexte répressif aux racines idéologiques anciennes

Ces invariants (islam, arabité, unité et indivisibilité de la nation) sont pour l’essentiel induits par l’histoire politique contemporaine au cours de laquelle s’est constitué le nationalisme algérien. Cette donnée historique a déterminé des options idéologiques et des pratiques politiques pérennes :

  • La référence quasi obsessionnelle à l’identité arabe et musulmane de la nation ;

  • Un nationalisme exacerbé posant l’existence éternelle de la nation incarnée par l’État ;

  • Une tendance lourde à l’unanimisme et au refus de toute diversité interne, ethnique, religieuse ou linguistique.

Au plan politique, ces fondamentaux se sont traduits par :

  • Un autoritarisme marqué n’hésitant pas à recourir à toutes les formes de répression, y compris sanglantes ;

  • Une justice non indépendante ;

  • Une presse en liberté surveillée, avec des fluctuations selon les périodes ;

  • Une omniprésence, voire une omnipotence, des services de sécurité qui participent directement à l’exercice du pouvoir ;

  • Des partis politiques, depuis qu’ils ont été autorisés (1989), sous contrôle étroit de l’exécutif.

Bien qu’il ait connu des fluctuations, avec des alternances de périodes d’ouverture et de périodes de fermeture, ce contexte d’autoritarisme et de répression est structurel : il est la concrétisation au niveau de la gestion politique des orientations idéologiques fondamentales du mouvement nationaliste.

C’est donc une erreur d’analyse, ou une illusion naïve de croire qu’il y ait eu à l’indépendance un « détournement » d’un mouvement populaire progressiste et démocratique. Un détournement de la « Révolution », comme on dit souvent en Algérie, n’a eu lieu ni en 1962, ni en 1965, ni plus tard. Le régime politique qui s’est mis en place à l’indépendance, avec le tandem Ben Bella – Boumédiène, n’est que la concrétisation directe des orientations fondamentales du mouvement nationaliste.

Rares ont été les analystes qui, comme Mohamed Harbi, sans aucun doute l’historien algérien du nationalisme le mieux informé et le plus lucide, ont perçu que les prémisses du régime politique algérien post-indépendance étaient déjà en germe dans le mouvement nationaliste.

Il ne s’agit donc pas d’une confiscation par une oligarchie, mais bien de la réalisation d’une programmation qui remonte aux origines même du nationalisme.

C’est pour cela que le combat berbère, comme tous les combats démocratiques, est difficile en Algérie. Ces combats sont difficiles, voire désespérés, pour répondre au titre de l’ouvrage de Pierre Vermeren (2004).

Si l’on veut remettre en cause réellement un pouvoir « corrompu et corrupteur », comme le disait la plateforme d’El-Kseur (2001), élaborée à la suite du « printemps noir » de 2001, il faut nécessairement s’attaquer aux bases historiques et idéologiques qui fondent ce régime.

D’autant qu’à ces blocages internes s’ajoute un contexte géopolitique peu favorable à toute évolution démocratique. L’Algérie (de même que le Maroc) apparait de plus en plus comme l’un des gardiens de la frontière sud de l’Europe, avec pour fonction essentielle le contrôle de l’immigration africaine et la lutte contre l’islamisme radical. Autrement dit, le régime en place à Alger mais plus généralement les pouvoirs installés au Maghreb, rendent de grands services à l’Europe.

Dans une telle configuration, il peut compter sinon sur le soutien, du moins sur une bienveillante tolérance des pays occidentaux qui s’accommodent fort bien des violations les plus flagrantes des droits humains chez leurs auxiliaires du Sud.

The Conversation

Salem Chaker ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

24.08.2025 à 17:11

Israël-Palestine : comment les religions juive et islamique sont mobilisées pour justifier la violence

Haoues Seniguer, Maître de conférences HDR en science politique. Spécialiste de l’islamisme et des rapports entre islam et politique, Sciences Po Lyon, laboratoire Triangle, ENS de Lyon

Extraits d’un récent ouvrage qui s’efforce d’analyser comment les religions juive et islamique sont mobilisées par des acteurs du Moyen-Orient et de France.
Texte intégral (2184 mots)

Le conflit israélo-palestinien ne se résume en aucun cas à une guerre de religion. Pour autant, l’aspect religieux, mobilisé par bon nombre des représentants des deux parties et, souvent, par leurs soutiens extérieurs, y joue un rôle certain. Haoues Seniguer, directeur pédagogique du Diplôme d’établissement sur le monde arabe contemporain (DEMAC) de Sciences Po Lyon et chercheur au laboratoire Triangle, UMR 5206, CNRS/ENS Lyon, examine ces questions cruciales dans « Dieu est avec nous : Le 7 octobre et ses conséquences. Comment les religions islamique et juive justifient la violence », qui vient de paraître aux éditions Le Bord de l’Eau. Extraits de l’introduction.


L’enjeu d’une prise de parole sur le 7 octobre

Aborder le 7 octobre et ses répercussions relève d’un exercice périlleux, tant les enjeux sont complexes et les sensibilités à incandescence. Plusieurs raisons, plus ou moins légitimes, expliquent cette difficulté. Tout d’abord, le sujet a déjà fait l’objet de nombreuses analyses et prises de position ; dès lors, quel intérêt y aurait-il à ajouter sa voix à ce flot d’interventions, qu’elles émanent de chercheurs avertis ou de commentateurs plus ou moins éclairés ?

Ensuite, dans un contexte où le conflit israélo-palestinien suscite des débats souvent passionnels, ne risque-t-on pas, en s’y engageant, d’exacerber les tensions sans réellement parvenir à faire entendre une voix qui, à tort ou à raison, se voudrait singulière ? Chercher à analyser et à expliquer cet événement d’ampleur mondiale, dans ses développements successifs, ne revient-il pas à s’exposer au risque d’être accusé, comme l’avait autrefois suggéré le premier ministre Manuel Valls, de tenter de justifier l’injustifiable, en l’occurrence les attaques du 7 octobre et l’émotion qu’elles ont suscitée dans le monde ?

Prendre la parole comporte un risque, mais garder le silence ne revient-il pas à abdiquer sur le plan de la pensée et à renoncer à la mission du sociologue du politique ou de l’intellectuel public ? Ces derniers ont en effet le devoir d’éclairer la société, sans quoi les événements et les tragédies demeurent non seulement incompréhensibles et énigmatiques, mais risquent, par cette absence d’analyse, de se répéter et de perpétuer les incompréhensions.

Une approche non exclusiviste centrée sur le religieux dans le conflit israélo-palestinien

Le cœur de cet ouvrage est de reconsidérer la place du religieux dans l’analyse du conflit israélo-palestinien à travers trois axes principaux qui n’ont pas la prétention d’en embrasser toutes les facettes.

Primo, nous nous interrogerons sur la manière dont le référentiel islamique a été investi et mobilisé discursivement par les principaux instigateurs des attaques du 7 octobre et leurs soutiens. Cela impliquera un retour sur l’idéologie fondatrice du Hamas ainsi que sur les discours des oulémas palestiniens et arabes les plus influents qui ont pour habitude de défendre la cause palestinienne.

Secundo, nous examinerons en parallèle les discours israéliens, juifs ou judéo-israéliens, qui justifient, explicitement ou implicitement, l’intervention militaire post-7 octobre en s’appuyant sur une grammaire religieuse et des références tirées des traditions juives.

Tertio, nous analyserons les réactions discursives d’acteurs individuels et collectifs juifs et musulmans en contexte français, afin de mieux comprendre comment le religieux façonne, éventuellement, la perception et la prise de position face à ce conflit dans le choix des mots.

L’analyse se concentrera toutefois principalement sur la façon dont la religion, loin de se cantonner à des injonctions morales, spirituelles ou pacifistes, est au contraire mobilisée pour légitimer diverses formes d’actions belliqueuses, y compris les plus extrêmes. C’est un angle analytique certes sujet à débat, voire à polémique, néanmoins indispensable pour saisir comment la sacralisation d’un conflit peut favoriser des dynamiques de déshumanisation progressive de l’autre, justifiant ainsi, à des degrés divers, sa mise à l’écart, voire son élimination sans autre forme de procès.

La violence n’a guère besoin du secours de la religion pour se déployer et sévir parmi les hommes, il suffit pour en prendre la mesure de regarder du côté de la philosophie morale et politique de Thomas Hobbes (1588-1679) qui explique « qu’on trouve dans la nature humaine trois causes principales de conflit : premièrement, la compétition ; deuxièmement, la défiance ; troisièmement, la gloire ». Mais la religion, elle, peut en devenir un redoutable carburant et adjuvant.

Clarifier les enjeux : éviter les lectures simplistes du religieux

Toutefois, nous souhaitons dès à présent dissiper certains malentendus sous – jacents : il ne s’agit ni de présenter la religion en général, ni le judaïsme et l’islam en particulier, comme des monothéismes intrinsèquement violents, voués à s’épanouir uniquement dans la violence la plus débridée. Une telle vision serait à la fois réductrice, erronée, injuste et dangereuse.

Par ailleurs, le référentiel religieux et ses ressources ne suffisent pas, à eux seuls, à expliquer le déclenchement et la perpétuation du conflit israélo-palestinien. Les conditions de naissance de l’État d’Israël, les structures sociales et politiques passées et présentes, ainsi que les dynamiques idéologiques dans les deux espaces jouent un rôle tout aussi déterminant dans cette confrontation sanglante vieille à ce jour, en 2025, de 77 ans. Autrement dit, il importe de ne ni minimiser ni absolutiser le rôle de la religion dans ce conflit, tant il est pris dans un enchevêtrement de facteurs historiques, politiques et territoriaux qu’il importe de démêler.

[…]

Cadre théorique et inspirations méthodologiques

Et, précisément, pour parvenir à une lecture plus juste du statut de la religion dans le conflit […], il est essentiel d’adopter un cadre théorique minimal. Certains penseurs ont déjà tracé la voie, et bien que plus nombreux, trois d’entre eux nous ont été particulièrement précieux : le philosophe américain Michael Walzer, le sociologue Mark Juergensmeyer, également américain, et le journaliste franco-israélien Charles Enderlin.

Le premier, dans la préface d’un ouvrage consacré à la politique selon la Bible, entend « examiner les idées sur la politique, les approches du gouvernement et de la loi qui s’expriment dans la Bible hébraïque ». Si la perspective adoptée par le philosophe est intéressante, notre approche s’en distingue et dépasse le seul cadre du judaïsme. En effet, notre démarche consiste à partir des discours des acteurs sociaux contemporains impliqués, à divers titres, dans le conflit avant et après le 7 octobre, qu’ils soient figures politiques ou autorités religieuses.

Nous nous attachons ainsi à analyser la manière dont ils interprètent et mobilisent les textes du corpus juif ou islamique pour légitimer leurs positions et actions. En ce sens, notre approche se situe en quelque sorte à l’opposé de la sienne. Bien que, tout comme lui, nous accordions une importance majeure aux contenus théologiques. Walzer précise d’ailleurs sa position en définissant ce qu’il ne souhaite pas entreprendre dans son étude, tandis que nous faisons précisément le choix d’explorer cette dimension dans le présent travail. Ce contraste nous donne ainsi l’opportunité de clarifier et d’affiner davantage notre propre approche :

« […] Je ne traiterai pas de l’influence des idées bibliques sur la pensée politique occidentale : ni au Moyen Âge, ni au début des Temps modernes (où les textes bibliques étaient très souvent étudiés et cités), ni chez les fondamentalistes religieux de nos jours. »

Nous admettons cependant, à l’instar de Walzer, que la Bible est peut-être avant tout un livre religieux, mais qu’elle reste également un livre politique, dans la mesure où elle fait l’objet, de manière continue, de lectures et d’interprétations politisantes qu’elle ne peut ni empêcher ni interdire.

Mark Juergensmeyer, lui, a consacré un travail « au terrorisme religieux à la fin du XXe siècle, c’est-à-dire aux actes de terreur, perpétrés à l’encontre des civils, que la religion a motivés, justifiés, organisés », en s’efforçant, écrit-il, « de pénétrer l’esprit de ceux qui commanditent ou accomplissent ces actes […] », poursuivant ainsi :

« Il ne s’agit bien évidemment pas pour moi de trouver des circonstances atténuantes à ceux qui sont capables de telles horreurs, mais bien de tenter d’appréhender leur vision des faits, de comprendre comment ils peuvent justifier leurs actes. Mon but étant de comprendre l’environnement culturel à l’origine de ces actes de violence, j’ai étudié les idées qui motivent ceux-ci ainsi que les communautés qui soutiennent les terroristes, plutôt que ces derniers eux-mêmes. »

Ces extraits sont tirés de « Dieu est avec nous : Le 7 octobre et ses conséquences. Comment les religions islamique et juive justifient la violence » d’Haoues Seniguer, qui vient de paraître aux éditions Le Bord de l’Eau.

À l’instar de Juergensmeyer, nous considérons qu’il est essentiel de souligner que les idées, notamment lorsqu’elles sont nourries par la croyance et des convictions religieuses, idéologisées ou non, jouent un rôle déterminant dans l’action, qu’elle soit accomplie ou en devenir. Il serait cependant incomplet d’en rester là. En effet, Pierre Bourdieu (1932-2002) souligne que la réussite d’un acte de langage n’est jamais purement linguistique, mais dépend des conditions sociales qui l’entourent.

En d’autres termes, la parole ne peut être efficace (ou du moins efficiente) que si elle est soutenue par des rapports sociaux, éventuellement des impulsions politiques, qui lui confèrent une légitimité et un pouvoir d’action. Dans cette perspective, nous inscrivons notre réflexion dans la continuité des travaux du sociologue français, selon lesquels un ordre ne peut acquérir une véritable valeur performative que si son émetteur dispose d’une autorité reconnue. De même, l’efficacité du discours politique repose étroitement sur le capital symbolique de l’orateur, d’autant plus cardinal s’il s’appuie sur un volume conséquent de ressources matérielles qui permettront de la sorte un pouvoir d’injonction ou d’influence encore plus décisif.

The Conversation

Haoues Seniguer ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

24.08.2025 à 16:14

L’individualisme, fondement démocratique, selon Tocqueville

Camille Roelens, Chercheur en sciences de l'éducation, Université de Lille

Pour Alexis de Tocqueville (1805-1859), l’individualisme et l’égalisation des conditions de vie sont deux piliers essentiels de la démocratie.
Texte intégral (1774 mots)
Alexis de Tocqueville, alors ministre des affaires étrangères en 1848, par Théodore Chassériau (1819-1856). Théodore Chassériau, CC BY

Notre démocratie est en crise, comment la réinventer ? Que nous enseignent ceux qui, au cours des âges, furent ses concepteurs ? Septième volet de notre série consacrée aux philosophes et à la démocratie, avec Alexis de Tocqueville (1805-1859). Pour le penseur français, l’individualisme et l’égalisation des conditions de vie sont deux piliers essentiels de la démocratie.


Parmi les interprètes des sociétés démocratiques, Alexis de Tocqueville occupe une place à part. Il nous lègue un concept synthétique permettant de comprendre l’évolution des sociétés dans lesquelles nous vivons, celui d’individualisme démocratique.

Dans le premier tome de son ouvrage majeur, De la démocratie en Amérique, publié en 1835 sur la base d’un voyage aux États-Unis, Tocqueville s’approche du concept, sans utiliser le terme :

« S’il vous semble utile de détourner l’activité intellectuelle et morale de l’homme sur les nécessités de la vie matérielle, et de l’employer à produire le bien-être ; si la raison vous paraît plus profitable aux hommes que le génie ; si votre objet n’est point de créer des vertus héroïques, mais des habitudes paisibles ; si vous aimez mieux voir des vices que des crimes, et préférez trouver moins de grandes actions, à la condition de rencontrer moins de forfaits ; si, au lieu d’agir dans le sein d’une société brillante, il vous suffit de vivre au milieu d’une société prospère ; si, enfin, l’objet principal d’un gouvernement n’est point, suivant vous, de donner au corps entier de la nation le plus de force ou le plus de gloire possible, mais de procurer à chacun des individus qui le composent le plus de bien-être et de lui éviter le plus de misère ; alors égalisez les conditions et constituez le gouvernement de la démocratie. »

L’essentiel est donc là : ce que Tocqueville observe en Amérique et qu’il nomme démocratie est une organisation où le maximum de droits et de libertés sont garantis à l’individu grâce à une prospérité et une stabilité globale de la société.

Démocraties modernes et sociétés aristocratiques

L’individualisme permet de saisir la spécificité des démocraties occidentales modernes par rapport à ce que furent les démocraties grecques antiques.

Tocqueville écrit en ce sens :

« L’individualisme est une expression récente qu’une idée nouvelle a fait naître. Nos pères ne connaissaient que l’égoïsme. L’égoïsme est un amour passionné et exagéré de soi-même, qui porte l’homme à ne rien rapporter qu’à lui seul et à se préférer à tout. L’individualisme est un sentiment réfléchi et paisible qui dispose chaque citoyen à s’isoler de la masse de ses semblables et à se retirer à l’écart avec sa famille et ses amis ; de telle sorte que, après s’être ainsi créé une petite société à son usage, il abandonne volontiers la grande société à elle-même. »

Les démocraties antiques ou les petites républiques modernes restaient inscrites dans un type de culture et un régime de valeurs (honneur, hiérarchie…) pris dans ce que Tocqueville nomme « les temps aristocratiques ». Les temps démocratiques, eux, sont porteurs d’autres mœurs, où les aspirations individuelles sont autres, de même que leurs comportements.

Pour Tocqueville, ces changements sont irrésistibles : il s’agit de les comprendre, d’agir au mieux dans ce nouveau cadre, et non de s’opposer à ce cours providentiel de l’histoire. Une fois la démocratie installée, on peut espérer son bon fonctionnement ou craindre ses pathologies, mais non viser un retour aux modèles passés. La pensée de Tocqueville est donc anti-réactionnaire et anticonservatrice par excellence et par logique interne.

Démocratie et égalité des conditions

Le concept d’individualisme démocratique nous permet également de disposer d’une compréhension de la démocratie qui, bien loin de la limiter ou même de la centrer sur un certain type de régime politique (où les dirigeants sont élus plutôt que désignés de manière héréditaire, par exemple), en fait un mode de vie englobant. Ce projet humain général n’est jamais pleinement achevé, il engage l’ensemble des manières d’être soi-même, de vivre en société, d’entrer en relation, sur la base de ce que Tocqueville appelle « l’égalité des conditions ». Selon lui, l’avènement de la démocratie en procède. Les citoyens antiques étaient égaux entre eux, mais étaient une minorité dominante d’une société à ordres et/ou à castes. En retour, la démocratisation nourrit l’exigence d’égalité entre les humains, et même au-delà de ce que lui-même imaginait en son temps – les inégalités qu’il percevait comme « naturelles » et non « politiques », par exemple entre les hommes et les femmes ou entre les Blancs et les non-Blancs, s’étant révélées, au XXe siècle, l’objet de luttes politiques d’émancipation.

Ainsi, dès l’introduction de son ouvrage, Tocqueville fait de l’égalité des conditions « le fait générateur dont chaque fait particulier semblait descendre […] point central où toutes mes observations venaient aboutir ». Il remarque partout

« l’influence prodigieuse qu’exerce ce premier fait sur la marche de la société ; il donne à l’esprit public une certaine direction, un certain tour aux lois ; aux gouvernants des maximes nouvelles, et des habitudes particulières aux gouvernés. Bientôt je reconnus que ce même fait étend son influence fort au-delà des mœurs politiques et des lois, et qu’il n’obtient pas moins d’empire sur la société civile que sur le gouvernement : il crée des opinions, fait naître des sentiments, suggère des usages et modifie tout ce qu’il ne produit pas ».

Égalisation des conditions et individualisation démocratique sont ainsi deux manières de désigner une dynamique transformatrice globale mue par le fait de se rapporter aux autres êtres humains sous le registre du semblable et non d’une altérité radicale, malgré différences et inégalités de fait – il y a des riches et des pauvres, des maîtres et des serviteurs, mais ces derniers ont plus en commun (en tant qu’humains) qu’en écart, malgré tout.

Tocqueville nous propose également une pensée globale de la modernité y compris dans ses dimensions économiques (ce qu’il va appeler la passion du commerce, la société marchande ou la quête du profit et du bien-être, culturels, technologiques). Tout cela concourt à l’avènement de la démocratie comme forme de vie et fait système autour de ce qu’il appelle le partage général de certaines passions démocratiques, comme celles du bien-être, du progrès, de l’entreprise et de l’innovation individuelle ou plus collective. On reconnaît bien ici les axiomes de base du libéralisme moderne, que Tocqueville contribua avec quelques autres (Locke, Constant, Mill…) à poser.

Il faut noter que Tocqueville lui-même a un rapport ambivalent à ce phénomène, le jugeant globalement irrésistible mais cherchant parfois des pistes pour le canaliser, l’estimant tantôt pacificateur et dynamisant, tantôt potentiellement désorganisant et dissolvant au plan de la vie politique en particulier. Sa crainte essentielle était qu’à l’absolutisme royal succède l’absolutisme de l’État, sur fond d’apathie civique des individus. Cette crainte a tenaillé ensuite nombre de libéraux de la guerre froide, lecteurs de Tocqueville, face à l’État totalitaire.

Le sacre contemporain de l’individualisme démocratique

On peut considérer que le monde démocratique contemporain – celui des sociétés occidentales depuis la fin des années 1960 – est une société des individus où les droits fondamentaux des personnes, leurs prétentions légitimes à l’autonomie et au bien-être prennent acte de l’individualisme démocratique et le sacrent. Le développement conjoint d’États-sociaux redistributifs et de garanties solides – non seulement des droits fondamentaux des individus, mais aussi des moyens concrets de leur exercice – est in fine ce qui a permis la stabilisation démocratique. Dans ce modèle, des inégalités demeurent, mais les opportunités moyennes pour chacun d’avoir une vie prospère, confortable et « choisie », ont atteint des niveaux inédits dans l’histoire humaine.

Ainsi, on peut conclure que ce n’est pas en tournant le dos à l’individualisme que les démocraties contemporaines pourront faire face aux régimes autoritaires qui les menacent. L’avenir de nos démocraties réside, au contraire, dans le perfectionnement du cadre fondamental posé par Tocqueville et ses contemporains (épanouissement des individus, garantie des droits fondamentaux, progrès vers l’égalité).

The Conversation

Camille Roelens ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

23.08.2025 à 16:29

Fin de l’accroissement naturel en France : doit-on s’inquiéter ?

Sébastien Oliveau, Directeur de la MSH Paris-Saclay, Géographe-démographe, Université Paris-Saclay

Pour la première fois depuis longtemps, les décès sont supérieurs aux naissances en France. Est-ce une surprise, ou a-t-on oublié de regarder les tendances ?
Texte intégral (1969 mots)
Un nombre de naissances plus faible que prévu en France pourrait faire de 2025 la première année avec un solde naturel négatif depuis la Seconde Guerre mondiale. Shutterstock

Pour la première fois depuis longtemps, les décès sont supérieurs aux naissances en France. Est-ce vraiment une surprise, ou a-t-on tout simplement oublié de regarder les tendances ? Ce moment prévu est en réalité une conséquence de la fin de la transition démographique, engagée à la fin du XVIIIᵉ siècle.


Sans attendre le bilan annuel que l’Insee publie chaque année en janvier, l’économiste François Geerolf vient d’annoncer que le solde naturel de la France était d’ores et déjà négatif sur 12 mois (entre mai 2024 et mai 2025). Qu’est-ce à dire ? Le solde naturel, c’est la différence entre le nombre de naissances et le nombre de décès. Durant les 12 derniers mois, il y a donc eu plus de décès que de naissances en France.

Une surprise ? Pas vraiment, d’autant que quelques démographes comme Sandra Brée et Didier Breton avaient déjà interpelé sur cette éventualité. Une mise en perspective historique et internationale nous aidera à comprendre ce à quoi nous assistons aujourd’hui.

Un résultat attendu de la transition démographique

La mortalité correspond au nombre de décès comptés sur une année, que l’on exprime généralement sous la forme d’un taux brut en le ramenant à la population moyenne de l’année. La natalité est son équivalent pour les naissances. Leur différence donne l’accroissement naturel. En France, le taux brut annuel de mortalité au XVIIIe siècle était d’environ 35 décès pour 1000 habitants, contre 10 pour 1000 aujourd’hui. Le taux de natalité était à cette époque lui aussi à peu près égal à 35 pour 1000 : le taux d’accroissement naturel était donc faible.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Le passage de taux élevés de mortalité et de natalité (conduisant à un accroissement naturel faible) à des taux faibles (et donc à un accroissement lui aussi modeste, voire négatif) est désigné sous le terme de transition démographique. L’ouvrage de Jean-Claude Chesnais reste la référence pour comprendre ce phénomène, et rappelle bien les spécificités françaises. Ce moment démographique est cependant universel : il s’est amorcé en France et en Angleterre à la fin du XVIIIe siècle avant de se produire partout ailleurs, avec plus ou moins de décalage dans le temps.

C’est habituellement le développement économique et le changement social qui sont évoqués pour expliquer cette transition. La diminution de la mortalité, en particulier celle de la mortalité infantile, se manifeste par une meilleure survie qui rend moins nécessaire d’avoir beaucoup d’enfants pour espérer garder une descendance. Dans la configuration habituelle de la transition démographique, le taux de mortalité diminue d’abord, tandis que le taux de natalité reste élevé : cette situation engendre un fort taux d’accroissement naturel. Ensuite, le taux de natalité baisse à son tour jusqu’à rejoindre le taux de mortalité, ce qui fait ralentir l’accroissement naturel. Ce dernier oscille finalement autour de 0, et peut même devenir négatif.

Si la France fut pionnière dans la transition démographique, le mouvement de sa natalité fut singulier : elle commença très tôt à baisser, entraînant une hausse très modérée de son accroissement naturel. Cela lui valut notamment de voir la population de l’Angleterre la surpasser.

À la fin du XIXe siècle, on mesure en France des taux d’accroissement naturels négatifs qui pourraient faire penser que la transition démographique est en voie d’achèvement : les taux bruts de mortalité et de natalité sont alors aux alentours de 20 pour 1000. Cela doit nous rappeler que la France a déjà connu des taux d’accroissement naturel négatifs.

Cependant, dès le début du XXe siècle, et à l’exception des périodes de guerre, l’accroissement naturel a repris en France, porté par une fécondité supérieure à 2 enfants par femme. La fécondité mesure le nombre moyen d’enfants qu’ont les femmes, et ne doit pas être confondue avec la natalité, c’est-à-dire le nombre de naissances dans une société donnée : celle-ci dépend en effet aussi du nombre de femmes en âge d’avoir des enfants dans la population.

Les longues conséquences du baby-boom

Au sortir de la Seconde Guerre mondiale, partout en Europe, la fécondité repart à la hausse, entraînant une augmentation de la natalité. On appelle baby-boom cette période durant laquelle la France connaît le plus fort accroissement naturel de son histoire.

En 1973, lorsque le baby-boom s’arrête, la fécondité descend rapidement pour atteindre un minima de 1,66 enfant par femme en 1993 et 1994. Elle remonte cependant jusqu’à 2,02 en 2010, avant de reprendre sa chute jusqu’à aujourd’hui. Les naissances étaient plus de 800 000 par an en 2014, et chutent brutalement depuis : on en dénombre encore 663 000 en 2024, un chiffre relativement élevé qui s’explique par le nombre important de femmes en âge de faire des enfants dans la population. Grâce notamment à la baisse régulière de la mortalité à tous les âges, l’accroissement naturel n’avait jusqu’alors pas trop faibli. Néanmoins, on note depuis 2005 une hausse du nombre de décès, due à l’arrivée en fin de vie des générations nées avant la 2ee guerre mondiale. Ce mouvement s’intensifie avec le vieillissement des baby-boomers, nés à partir de 1946.

Les autres pays européens ont connu des dynamiques bien différentes : Italie, Espagne, Portugal, Grèce expérimentent depuis les années 1990 un accroissement naturel négatif, dû à des fécondités très faibles – depuis plusieurs décennies en dessous de 1,5 enfant par femme pour beaucoup de pays. En Allemagne, cette situation dure depuis le milieu des années 1970.

Dans ce contexte, la France a donc longtemps fait figure d’exception. Si la natalité ne remonte pas dans les mois qui viennent, 2025 sera ainsi la première année où ce pays connaîtra un accroissement naturel négatif depuis plus d’un siècle, hors périodes de guerre.

Quelles conséquences pour la croissance de la population française ?

La population française doit, depuis longtemps – on pourrait presque dire depuis toujours – sa croissance démographique générale à sa croissance naturelle. L’accroissement de la population lié aux migrations, bien que toujours positif, était jusqu’ici bien moindre que la croissance naturelle.

Aujourd’hui, le solde naturel devenant négatif, c’est le solde migratoire (c’est-à-dire la différence entre le nombre d’arrivées et de départs du territoire) qui va assurer la continuité de la croissance démographique française. Celle-ci ne va donc pas cesser, même si elle va ralentir : elle reposera par ailleurs davantage sur l’immigration que sur sa dynamique naturelle. Il n’en demeure pas moins que le nombre de naissances reste supérieur à 600 000 par an, alors que les arrivées de migrants sur le territoire n’atteignent que 250 000. Cela correspond, une fois déduits les départs, à un solde migratoire de 100 000 à 150 000 personnes par an.

Il naît ainsi largement plus d’enfants sur le territoire français qu’il n’y arrive de nouveaux résidents. La fécondité de ces derniers se calque par ailleurs rapidement sur la fécondité des pays d’accueil. Non seulement le risque d’un « grand remplacement » n’est pas réel, mais des études relativement récentes études soulignent également que le modèle d’intégration français fonctionne encore très bien.

Le vieillissement de la population va maintenir mécaniquement la mortalité à un niveau plus élevé pendant plusieurs décennies. La natalité ne pourra, quant à elle, remonter que si la fécondité augmente. Or, il est difficile d’y voir clair sur les conditions qui pourraient permettre une telle hausse de la fécondité : si celle-ci est d’abord liée aux envies individuelles des couples, les facteurs qui influencent ces envies sont difficiles à modéliser.

Vers la fin d’une exception française

La fécondité et la natalité françaises sont longtemps restées des exceptions en Europe, et, hormis quelques démographes, peu ont vu venir le décrochage des naissances à compter de 2015. Avec 10 ans de recul, on comprend désormais que les tendances ont changé. Si le basculement vers des soldes naturels négatifs n’induit pas à proprement parler de rupture, il s’agit tout de même d’un moment symbolique, qui remet sur le devant de la scène la question de l’évolution de la population française et des conséquences possibles de cette évolution pour la société.

Ces conséquences sont variées et affecteront assurément l’économie – à commencer par le financement des retraites. Des questions culturelles et géographiques se poseront sans doute également, puisque cette situation viendra interroger la place des jeunes dans une société où ils seront de moins en moins nombreux, tout en accentuant les inégalités entre les territoires en fonction du nombre de seniors y résidant.

Ce n’est cependant pas non plus tout à fait un saut dans l’inconnu : la société allemande est confrontée à cette situation depuis 50 ans, la plupart des autres pays européens depuis au moins une trentaine d’années. La société française devrait, elle aussi, pouvoir s’y adapter.

The Conversation

Sébastien Oliveau ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

23.08.2025 à 09:13

L’IA peut-elle nous dispenser de l’effort d’apprendre ?

Margarida Romero, Professeure des Universités à l’Université Côte d’Azur et professeure associée à l'Universitat Internacional de Catalunya, Université Côte d’Azur

Que signifie apprendre dans un monde où l’IA peut rédiger un texte, résoudre un problème ou générer une image en quelques secondes ?
Texte intégral (1908 mots)

Que signifie apprendre dans un monde où l’intelligence artificielle peut rédiger un texte, résoudre un problème ou générer une image en quelques secondes ? L’irruption de nouveaux outils invite à se pencher sur la place de l’effort dans l’apprentissage et à discerner différents niveaux de recours à l’IA.


L’intelligence artificielle (IA) suscite autant d’espoirs que d’inquiétudes dans le domaine de l’éducation. D’un côté, elle offre des outils puissants pour accompagner l’apprentissage, par exemple, en ajustant des exercices aux performances de chaque élève en maths, comme le font DreamBox ou Adaptiv’Math, ou en adaptant l’apprentissage des langues à l’âge de l’apprenant, comme Duolingo.

Mais elle peut aussi favoriser la paresse intellectuelle : les IA actuelles ne se contentent plus de fournir des pistes ou des chiffres comme les moteurs de recherche ou les calculatrices, mais produisent directement des contenus complets – résumés, essais, emails, codes informatiques – à la place de l’élève. Cette délégation excessive des tâches cognitives ouvre la possibilité d’une réduction de l’engagement dans la formulation des idées, la réflexion et la régulation du processus de production intellectuelle.


À lire aussi : Pourquoi continuer d’apprendre à écrire à la main dans un monde d’IA


Cette tension concerne à la fois les élèves, les enseignants et les institutions, et soulève des questions essentielles : quel est le rôle de l’effort dans l’apprentissage ? Que signifie apprendre dans un monde où l’IA peut rédiger un texte, résoudre un problème ou générer une image en quelques secondes ?

Ni miracle technologique ni menace apocalyptique

Il existe toute une gamme d’usages possibles de l’IA en éducation, depuis des formes très passives et peu critiques, par exemple, lorsqu’un élève demande à une IA de résumer une lecture obligatoire sans lire ou analyser le contenu par lui-même, jusqu’à des intégrations créatives où les élèves collaborent avec une IA pour écrire des histoires, coder un jeu ou simuler une conversation avec un personnage historique, tout en exerçant leur jugement et leur pensée critique.

Il s’agit donc de dépasser les visions polarisées présentant l’IA soit comme une solution miracle, soit comme une menace pour les capacités cognitives humaines. Ces deux positions contiennent chacune une part de vérité, mais elles occultent une dimension essentielle : l’éducation vise avant tout le développement de la personne et de son autonomie.

Historiquement, l’IA a été pensée comme un moyen de simuler l’intelligence humaine. Lors de l’atelier fondateur de Dartmouth en 1956, où le terme « intelligence artificielle » a été proposé pour la première fois par John McCarthy, les chercheurs affirmaient que « chaque aspect de l’apprentissage ou toute autre forme d’intelligence peut être décrit de manière suffisamment précise pour qu’une machine puisse le simuler ».

Aujourd’hui, avec l’essor des modèles génératifs, cette promesse de simulation a laissé place à une dynamique de disruption : l’IA ne se contente plus d’imiter, elle remodèle nos manières d’apprendre. Les modèles génératifs comme ChatGPT ou Gemini produisent des contenus inédits (textes, images, vidéos), modifiant ainsi l’accès, la production, mais aussi la qualité de l’information.

Une école à la traîne face à l’essor de l’IA

Le développement rapide de ces outils dépasse largement la capacité des systèmes éducatifs à les intégrer de manière réfléchie. On observe un décalage entre le potentiel technologique et la capacité pédagogique d’aider les apprenants à en faire un usage approprié selon le contexte et leurs besoins d’apprentissage. L’enjeu n’est pas tant d’interdire ou de généraliser l’IA, mais de garantir que son utilisation soutienne réellement les apprentissages, en préservant l’effort intellectuel et les objectifs pédagogiques.

Les IA dites « génératives » (ou genIA), comme ChatGPT, permettent désormais de résumer, d’expliquer des textes de résoudre des problèmes ou encore de créer des images, des sons ou des vidéos. Leur usage peut être utile dans un cadre éducatif, notamment pour aider les enseignants à répondre aux défis révélés pendant la pandémie de Covid-19 : différenciation pédagogique, soutien à l’apprentissage autonome, accessibilité accrue.

Ainsi, une IA peut générer des explications d’un même concept à différents niveaux de complexité (on peut lui demander par exemple « Explique-moi ce concept comme si j’avais 5 ans »), ce qui permet à chacun d’avancer à son rythme dans une même classe. L’élève qui a des difficultés de compréhension pourra disposer ainsi d’éléments de connaissances préalables tandis qu’un élève avec une bonne progression pourrait obtenir des pistes d’approfondissement.

Mais, comme d’autres technologies auparavant présentées comme révolutionnaires (télévision éducative, tablettes, etc.), leur impact dépendra de l’intention pédagogique et de l’engagement des enseignants, des élèves et de leurs familles.

Bannir ou tout autoriser ? Une fausse alternative

Interdire totalement l’IA ou en autoriser un usage sans limites sont deux stratégies simplistes. Elles négligent la complexité des contextes éducatifs, des profils d’élèves et des attentes pédagogiques. La clé réside dans une approche qui respecte l’agentivité des enseignants et des apprenants, c’est-à-dire leur capacité à agir, à choisir, à créer et à réfléchir sur leur propre apprentissage.

Pour cela, il est crucial de penser des usages créatifs, critiques et participatifs de l’IA, qui valorisent le rôle actif des élèves et des enseignants dans les processus d’apprentissage.

Pour aider à clarifier ces usages variés, j’ai développé le modèle #ppai6, qui identifie six niveaux d’engagement avec l’IA à l’école :

  • Consommation passive : l’élève reçoit du contenu généré par l’IA sans interaction ni compréhension du fonctionnement de l’outil. Exemple : lire un résumé généré automatiquement sans vérifier ou reformuler ;

  • Consommation interactive : l’élève interagit avec l’IA, qui adapte ses réponses, mais sans véritable appropriation. Exemple : poser des questions à un chatbot, mais en recopier les réponses sans analyse ;

  • Création individuelle : l’élève utilise l’IA pour produire un contenu personnel. Exemple : écrire un poème ou créer une image avec DALL·E à partir de ses propres idées ;

  • Création collaborative : des groupes d’élèves utilisent l’IA pour produire ensemble du contenu. Exemple : créer une pièce de théâtre en groupe sur un événement historique à partir de conversations avec des outils IA qui simulent des personnages historiques ;

  • Co-création participative : l’IA devient un outil au service d’un travail collectif complexe impliquant divers acteurs éducatifs. Exemple : mener une enquête interdisciplinaire avec IA entre élèves, enseignants et partenaires.

  • Apprentissage expansif avec IA : l’IA soutient des transformations profondes dans les manières de penser et d’apprendre, en aidant, par exemple, à modéliser des systèmes ou à résoudre des contradictions dans des situations complexes. Exemple : utiliser l’IA pour simuler le système écologique de la cour d’école afin, ensuite, de proposer des idées pour l’améliorer.

Considérer la variété des interactions possibles avec l’IA

Le modèle #ppai6 permet d’adopter une vision plus nuancée de l’intégration de l’IA en contexte scolaire. En distinguant six niveaux d’usage, il aide à qualifier concrètement les pratiques et à comprendre que « faire usage de l’IA » peut recouvrir des formes très contrastées, tant sur le plan cognitif que pédagogique.

Il s’agit donc d’un outil de réflexion pour les enseignants, les chercheurs et les décideurs, qui invite à ne pas considérer l’IA comme un bloc homogène, mais comme un ensemble d’interactions possibles, plus ou moins riches sur le plan cognitif et éducatif.

Par ailleurs, ce modèle ouvre la voie à une progression pédagogique adaptée à l’âge et au niveau des élèves. Certains niveaux, comme la consommation passive, peuvent être utilisés ponctuellement, par exemple pour découvrir un outil ou pour amorcer une séquence. Mais ils ne doivent jamais devenir la norme ni remplacer l’effort de réflexion, de collaboration ou de créativité.


À lire aussi : ChatGPT à l’université : pourquoi encadrer vaut mieux qu’interdire ou laisser-faire


À mesure que les élèves avancent dans leur parcours, il est souhaitable de les guider vers des usages plus actifs, comme la cocréation ou l’apprentissage expansif, adaptés à leur maturité cognitive. Plutôt que de bannir certains niveaux, il s’agit d’en comprendre les limites, d’en discuter les risques, et de les dépasser progressivement vers des formes d’apprentissage où l’IA devient un levier d’émancipation plutôt qu’un substitut cognitif.

L’IA peut être un formidable allié dans l’apprentissage, mais elle ne doit jamais se substituer à l’effort humain ni au désir d’apprendre ou d’enseigner. Dans un contexte où il est possible de déléguer le raisonnement à des machines, la volonté de comprendre, de progresser, de créer ou de transmettre devient encore plus essentielle.

C’est cette volonté qui distingue les enseignants et les élèves qui mobilisent l’IA pour enrichir leur activité de ceux qui s’en servent simplement pour éviter l’effort. L’IA n’est qu’un outil. L’éducation, elle, reste une affaire profondément humaine.

The Conversation

Margarida Romero a reçu des financements pour son activité de recherche de la Commission européenne pour le projet Horizon augMENTOR "Augmented Intelligence for Pedagogically Sustained Training and Education" (https://augmentor-project.eu/).

PDF

21.08.2025 à 16:27

Jeux vidéo indépendants : comment les petits studios bouleversent les géants de l’industrie

Arnault Djaoui, Doctorant en Science de l'Information et Communication, Université Côte d’Azur

Du Japon à la France, le jeu vidéo indépendant connaît une expansion spectaculaire. Innovations, ruptures de style et succès commerciaux : il redéfinit les règles du secteur.
Texte intégral (2156 mots)

L’essor du jeu vidéo indépendant répond à un appétit croissant pour les concepts créatifs émancipés des grandes conventions du médium. Économiquement, ces innovations définissent un nouveau modèle de consommation qui déjoue les prévisions du marché et qui influence l’ensemble de la production. C’est le cas du succès français « Clair Obscur : Expédition 33 » sorti en 2025.


Depuis une quinzaine d’années, les propositions indépendantes envahissent le secteur du jeu vidéo. Le mot d’ordre de cette mouvance ? La rupture des codes établis.

Les écoles asiatique et occidentale du jeu vidéo incarnent deux conceptions spécifiques liées à leurs cultures respectives. Elles se retrouvent néanmoins dans la recherche d’originalité qui prévaut au cœur des studios indépendants. Intellectuellement, la position des studios indépendants nécessite de redoubler d’efforts. Ces derniers œuvrent en petit comité, sans la bénédiction financière dont jouissent les grands éditeurs. L’effervescence d’un groupe restreint de concepteurs passionnés donne souvent une tonalité différente à la ferveur créatrice, à l’origine d’un savoir-faire unique.

Les limites budgétaires ne génèrent pas forcément de chape de plomb créative. Au contraire, ces restrictions obligent les développeurs à se surpasser dans l’objectif de trouver des idées exceptionnelles pour marquer les esprits dans la durée.

« Pourquoi les jeux indé ont du succès ? »

Certains grands succès du jeu vidéo indépendant ont laissé une telle empreinte qu’on retrouve aujourd’hui leur influence dans des productions de blockbusters.

L’expansion du jeu vidéo indépendant en Occident

Sorti en 2013, Outlast, des studios canadiens indépendants Red Barrels, en est un exemple phare. La particularité de ce jeu de survie/horreur (survival-horror) réside dans l’absence d’armement pour se défaire des ennemis, la seule possibilité de progression restant la fuite ou les cachettes parsemées dans le décor. Outlast est rapidement devenu une source d’inspiration du genre survival-horror, y compris pour les productions à grand budget.

C’est le cas avec le succès d’Alien: Isolation, sorti en 2014, qui réutilise largement le système de « cache-cache » avec les créatures ébauchées par Outlast, tout en cherchant à augmenter l’effet de réalisme par le caractère aléatoire continu des apparitions de la bête noire.

Certaines productions indépendantes présentent également des résurgences de la formule Outlast. Le jeu russe Hello Neighbor devient, dès sa sortie en 2017, un phénomène d’immersion mélangeant le suspense, l’horreur et la réflexion, toujours autour du même principe du jeu du chat et de la souris instauré par Outlast. La singularité du titre réside néanmoins dans son univers et dans sa patte graphique qui répondent à une esthétique bien plus cartoon et adaptée à un large public.

L’approche complémentaire du jeu vidéo indépendant japonais

Au Japon, le titre indépendant Deadly Premonition, sorti en 2010, a quant à lui laissé une marque sur les jeux narrativisés (transformés en récits, ndlr) grâce à son approche assez révolutionnaire du genre horrifique, mêlant investigation policière, exploration en monde libre (open world) et horreur psychologique et cosmique.

Les résurgences de cette formule ressortent dans des œuvres à grand budget comme la série The Evil Within, débutée en 2014. Un titre qui emploie également des angles proches du thriller, avec un aspect très paranoïaque dans le cheminement du scénario et des éléments horrifiques.

Des créations aux ambitions artistiques marquées

Le genre de la plateforme (platformer) s’illustre quant à lui avec des titres d’une grande créativité comme Cuphead ou Little Nightmares, tous deux sortis en 2017. Ils abordent respectivement les univers des vieux cartoons des années 1930, avec une jouabilité (ergonomie de jeu, ndlr) exigeante et punitive, ou ceux plus cauchemardesques des films d’animation en stop motion, comme les travaux d’Henry Selick. Des genres revisités sous l’angle de l’exploration-réflexion dans une tonalité encore plus inquiétante.

Le rayonnement du jeu de rôle indépendant

Mais s’il est bien une catégorie de jeu à avoir contribué au succès des studios indépendants au cours de ces dernières années, c’est incontestablement le jeu de rôle (Role Playing Game, RPG).

La grande variété de points de vue qu’offre l’expérience rôliste permet aux concepteurs d’arpenter des systèmes de jouabilité hybrides qui évoluent constamment et qui offrent au public des immersions aussi singulières qu’enivrantes. Le RPG est un genre qui a beaucoup évolué au fil du temps et qui a laissé dans son sillage des novations éphémères, représentatives d’époques spécifiques, qui réapparaissent grâce à l’ingéniosité nostalgique des créateurs indépendants. Certains des jeux les plus remarqués de ces dernières années réutilisent des procédés qui ont fait la gloire de périodes passées.

Le jeu indépendant Hadès, sorti en décembre 2019, récompensé par plusieurs prix autant vidéoludiques que littéraires, se veut une lettre d’amour assumée à une panoplie de genres et d’esthétiques ayant construit la réputation désormais internationale du RPG. Graphiquement, le titre opte pour une plastique anachronique entièrement conçue dans une 2D proche de la bande dessinée. Mais c’est en réhabilitant le genre roguelike que cette œuvre souffle un vent de jeunesse sur un modèle qui n’était plus tellement d’actualité. Ce sous-genre de RPG très populaire dans les années 1980 et 1990 présente la caractéristique de générer aléatoirement chaque palier des donjons que le joueur visite.

Par ailleurs, le système de combat puise sa mécanique dans un autre genre d’une époque antérieure, le hack’n’slash qui consiste à se défaire de hordes d’ennemis au moyen d’attaques, d’esquives et de défenses simples d’emploi mais riches dans leurs potentialités. La toile narrative, quant à elle, contraste avec les poncifs du genre, en situant l’action dans l’enfer de la mythologie grecque.

Toutes ces occurrences témoignent d’une diversification autant technique qu’artistique. Cette variété envahit d’un même mouvement la production du RPG indépendant et, par contrecoup, l’ensemble de l’artisanat vidéoludique contemporain. La transversalité des différents procédés mentionnés plus haut définit ainsi une empreinte typiquement occidentale dans la conception de ces RPG.

Au Japon, la propagation du RPG indépendant dépend d’un autre phénomène. Les jeux mobiles, dits gacha, souvent issus de studios indépendants, représentent une manne économique colossale en faisant du RPG un plaisir instantané et contenu dans des boucles rapides. Leur système de participation appelé « free-to-play » incite progressivement le joueur à dépenser de l’argent pour évoluer dans le jeu.

Parallèlement, sur consoles de salon, s’illustrent des titres plus expérimentaux et dans la tradition narrative mature des récits nippons. Par exemple le jeu D4, paru en 2014, aborde autant de sujets que le deuil, la rédemption, la psychanalyse et la démence sur fond d’enquête policière aussi rocambolesque que captivante. Des problématiques qui n’auraient peut-être pas pu voir le jour dans une production plus globale.

Le couronnement du RPG indépendant en France

Le RPG indépendant manifeste également sa maestria en France, notamment avec, en 2025, le succès exceptionnel de l’inattendu Clair Obscur : Expédition 33.

Clair Obscur : Expédition 33

Loin des 4 500 employés que constituent, par exemple, le studio Ubisoft Montréal, la petite équipe de moins de 30 personnes de Sandfall Interactive a cherché à remettre au goût du jour le système du « tour par tour », très peu représenté en Occident. Le tout en proposant un contexte historique français inédit dans le jeu vidéo et saupoudré d’éléments fantastiques : la Belle Époque. La reproduction graphique des environnements de cette période, bardée de quelques influences dystopiques, profite d’une profondeur et d’une finition qui n’ont rien à envier aux productions des cadors des grands éditeurs.

Cette récente prouesse prouve que le jeu vidéo indépendant tend à incarner, aujourd’hui plus que jamais, la matérialisation de changements très importants. Des transformations qui définissent à la fois une primauté de la liberté de création et une contre-proposition artistique et commerciale de taille face à certains mastodontes de l’industrie vidéoludique.

The Conversation

Arnault Djaoui ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

21.08.2025 à 16:24

« La Révolution » : l’histoire de France à la sauce Netflix

Pascal Dupuy, Maître de conférences en histoire moderne , Université de Rouen Normandie

La série « la Révolution » a connu un grand succès sur Netflix, malgré les nombreuses critiques qu’elle a suscitées.
Texte intégral (2915 mots)
La série de Netflix, entre action, fantastique et horreur, laisse peu de place à l’histoire. Netflix (2020)

En ligne depuis septembre 2020, « la Révolution » est une série Netflix en huit épisodes, qui nous plonge dans une intrigue fantastique au cœur de la période pré-révolutionnaire. Si, au départ, les audiences ont été très satisfaisantes, elles se sont rapidement érodées et les critiques ont été si virulentes que la première saison est restée sans lendemain. Un retour sur cet objet télévisuel, bien plus conforme aux normes chères à la plateforme au N rouge sur fond noir qu’à la vérité historique, permet aussi de rappeler l’existence d’œuvres plus anciennes dont l’approche de cette période charnière de l’histoire de France était très différente…


En raison du colossal bouleversement social et politique qu’elle a provoqué, la Révolution française a engendré, dès son avènement, une multitude d’écrits et de productions artistiques et culturelles ayant pour but de la condamner ou, au contraire, de l’encenser.

Théâtre, gravure, peinture, chanson ou littérature l’ont immédiatement évoquée, transformant la décennie révolutionnaire en un objet mémoriel dynamique, qui continue aujourd’hui encore de donner lieu à d’innombrables représentations.

La Révolution française dans le cinéma

Dans la première moitié du XXe siècle, le cinéma a pleinement participé au souvenir et à l’écriture romancée de la Révolution. Dans un premier temps, il a puisé son inspiration dans les œuvres littéraires du XIXᵉ siècle, quand l’épisode révolutionnaire était une source de légende et de romanesque. Puis il a produit des films qui développaient une vision plus personnelle des événements révolutionnaires, mais qui restaient marqués par le contexte historico-politique ayant présidé à leur production.

Dans la seconde partie du siècle dernier, le cinéma s’est lentement détaché de la Révolution (sans jamais toutefois l’abandonner), et ce fut au tour de la télévision, premier médium de masse, de la réhabiliter, en insistant dans un premier temps sur le débat d’idées et en valorisant la confrontation entre les personnages, observés dans leur psychologie et à partir de leurs opinions contradictoires.

En France, dans les années 1960, le genre adopté est celui de la dramatique télé (souvent en direct) ; la mode est aux mouvements de caméra lents, théâtraux, privilégiant la recontextualisation de situations politiques complexes – une approche d’ailleurs tout à l’opposé du cinéma du temps, dominé par des scènes d’action en décors naturels. Les productions télévisuelles veulent alors rendre compte de l’actualité de la recherche historique, privilégiant le huis clos, le jeu d’acteur reposant lui-même sur le talent du ou des scénaristes et du ou des dialoguistes.

Mais surtout, pour la première fois, la reconstitution en images animées de la Révolution dérive moins des sources littéraires et visuelles du XIXe siècle que d’images d’archives et de documents originaux de l’époque, placés sous le regard critique d’historiens reconnus.

Malheureusement oubliées de nos jours, ces productions ambitieuses ont donné naissance à des réalisations très réussies, comme la Terreur et la Vertu (Stellio Lorenzi, 1964), dans le cadre de la série télévisuelle la Caméra explore le temps. Divisé en deux parties (Danton puis Robespierre), le film, très marqué par la volonté de faire comprendre la Révolution, participe d’une entreprise de réhabilitation de Robespierre, personnage alors encore très défiguré par une légende noire tenace.

On peut également évoquer une dizaine d’années plus tard, 1788 (Maurice Failevic et Jean-Dominique de La Rochefoucauld, 1978), autre œuvre symptomatique de son temps. Extrêmement attentive aux sources d’archives, elle fait la part belle aux origines de la Révolution, au travers du prisme des tensions au sein d’une petite communauté paysanne de Touraine.

Dans un cadre référentiel semblable, comment ne pas aussi mentionner Un médecin des Lumières (René Allio), film pour la télévision diffusé en trois parties à la fin de l’année 1988, préparant par là les festivités commémoratives du bicentenaire de 1789 ? Sorte de docu-fiction avant l’heure, Un médecin des Lumières, sans toucher explicitement à la Révolution, explique sa naissance par petites touches impressionnistes, donnant à l’événement à venir l’évidence historique d’une sorte de préquel à la Révolution.

À l’image d’un Stanley Kubrick pour Barry Lyndon (1975), Allio, avec des moyens évidemment bien plus limités, est attentif à la « vérité historique », telle que nous l’ont rapportée les historiens, mais aussi les artistes du XVIIIe siècle, autres sources d’inspiration du film. Costumes, paysages, lumières, comédiens doivent « faire époque », non pas artificiellement, mais de manière naturelle et incarnée, en un cinéma de « reconstitution historique ».

« La Révolution », série truffée d’approximations historiques

2020 : autre époque… Le changement d’optique est particulièrement radical, même si les exemples cités plus haut sont des réalisations d’exception, portées par une rigueur historique revendiquée. Il est donc évidemment un peu injuste de vouloir les comparer à l’un des derniers avatars d’une série télévisée portant sur la Révolution française, produite et diffusée par Netflix, une plateforme dont la politique artistique racoleuse repose avant tout sur le sensationnalisme et le voyeurisme.

 La Révolution | Bande-annonce, Netflix, septembre 2020.

En huit épisodes, la Révolution est censée évoquer les causes réelles, mais inconnues, du bouleversement révolutionnaire français de la fin du XVIIIe siècle, la dernière scène représentant le peuple en mouvement prêt à prendre la Bastille.

Une deuxième saison aurait dû se concentrer sur l’événement révolutionnaire en lui-même, selon son découpage classique (1789-1794 ou 1799 ?), mais il n’en sera rien, la série n’ayant pas été reconduite. Au regard du traitement historique de la période 1787-1789, les regrets sont minces…

À sa décharge, le scénariste principal Aurélien Molas n’a certainement pas souhaité expliquer les causes de la Révolution française, ce qu’Un médecin des Lumières faisait avec beaucoup de subtilité. Il s’est plutôt agi pour lui et pour son équipe de faire une série de genres, mélangeant horreur, fantastique, uchronie, zombies et vampires avec des scènes d’action innombrables dans une pénombre et un brouillard artificiels, scènes au cours desquelles le sang (bleu et rouge) coule à flots continus.

L’inspiration n’est plus, à présent, à chercher dans les travaux des historiens, mais, comme le reconnaît Aurélien Molas, dans une autre série, sud-coréenne, à l’intrigue semblable (Kingdom, 2019) en une sorte de circuit fermé.

Bande-annonce de Kingdom, Netflix, 2019.

Une intrigue simpliste aux nombreux anachronismes

L’intrigue est simple, voire simpliste. De Versailles, un roi tyrannique (dont on ne verra que les pieds et les mains aux ongles démesurés) a fait mettre au point, dans le but d’obtenir la soumission ultime de son peuple, un virus (le « sang bleu ») qui, lorsqu’il est injecté dans le corps des aristocrates, leur procure l’immortalité, aiguise leurs sens et les contraint à consommer de la chair humaine. Un cruel Covid puissance 100… !

Ce complot sera déjoué par une galerie stéréotypée de « bonnes personnes » : le docteur Joseph Guillotin, orphelin recueilli par un prêtre éclairé qui perdra la vie dans ce combat ; une jeune comtesse, aussi habile à manier le pistolet qu’à se préoccuper du sort du peuple ; ou encore la Fraternité, une femme défigurée, dont le prénom, Marianne, évoque à la fois la République à venir et les révolutions ultérieures.

Une esthétique qui emprunte peut-être à la série canado-irlandaise à succès Vikings (2013-2020). Netflix

C’est, d’ailleurs, ce fatras de poncifs autour de la notion même de Révolution, considérée en fait sur trois siècles, qui est le plus déconcertant et dont la volonté maladroite apparaît, dès la première scène, avec l’inscription « Ni roi ni maître » sur les murs d’un château… Quant à Guillotin, le jeune médecin idéaliste, au nom instantanément reconnaissable, il cherche le « patient zéro » et analyse, avec toute la passion de son innocence vertueuse, le sang de ses proches afin de trouver un « vaccin contre la maladie ».

On veut encore faire évader un prisonnier qui se trouve dans un « quartier haute sécurité », soit une invention carcérale datant du milieu des années 1970 et récemment ressuscitée. Les discours de Marianne-Fraternité et du peuple, toujours qualifié de « rebelle », incorporent dans leurs propos et dans leur vocabulaire des notions révolutionnaires contemporaines (« les damnés de la Terre »).

Dans un grand déploiement de misérabilisme, la pauvreté, qui règne dans la ville, n’éclaire pas sur les conditions de vie de la population à la veille de la Révolution, mais renvoie plutôt au Paris assiégé de la Commune. On y meurt de faim et on érige bientôt des barricades pour se défendre contre les « sangs bleus », ces nobles vampires assoiffés du sang des roturiers, barricades qui permettent la reconstitution du célèbre tableau de Delacroix, La Liberté guidant le peuple – inspiré, comme on le sait, de la Révolution de 1830.

Netflix

Outre ce salmigondis d’anachronismes et de raccourcis historiques, les nobles, dans la continuité des œuvres filmiques anglo-américaines autour de la Révolution française (les Deux Orphelines, de D. W. Griffith, 1921, ou Un conte de deux villes, 1989, film pour la télévision, en deux épisodes produit par ITV, inspiré du roman de Charles Dickens, publié en 1859, ndlr), sont présentés comme abusant cruellement de leurs privilèges ou s’adonnant régulièrement à des pratiques libertines. Ils seraient « 1 % de la population » (le chiffre est exact), mais « détiennent 99 % des richesses », en une exagération particulièrement approximative. Autre clin d’œil, littéraire cette fois : le noble fou de son pouvoir et de son statut, chargé au sang bleu, est prénommé Donatien, en une évocation lourdaude du marquis de Sade.

Bref, il ne faut pas chercher dans ces huit épisodes, ni du côté de l’intrigue ni de ceux des dialogues ou des reconstitutions, une quelconque dimension historique d’intérêt, mais plutôt un prétexte pour se repaître de viscères, de têtes tranchées (le seul moyen de faire périr un noble injecté de sang bleu), de scènes d’action, de détonations, de magie noire vaguement effrayante et surtout d’énormément de sang.

Si le glissement progressif de la télévision vers le sensationnalisme dans le traitement de la Révolution française est avéré, et si cette constatation peut sembler quelque peu amère, on peut aussi se réconforter en pensant à d’autres réalisations, dans des domaines approchants, apparues ces dernières années et qui ont traité de la Révolution française avec subtilité et sérieux.

C'est le cas de la bande dessinée comme celle de Florent Grouazel et Youn Locard, Révolution I, Liberté, Actes Sud, 2019 et Révolution II, Égalité, Livre I, Actes Sud (2023) ou encore du cinéma, par exemple, Un peuple et son roi, de Pierre Schoeller (2018). Deux créations réussies qui sont aussi de bons moyens d’éloigner les vampires.

The Conversation

Pascal Dupuy ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

21.08.2025 à 16:24

Que disent la Bible, le Coran et la Torah de la guerre ?

Robyn J. Whitaker, Associate Professor, New Testament, & Director of The Wesley Centre for Theology, Ethics, and Public Policy

Mehmet Ozalp, Professor of Islamic Studies, Director of The Centre for Islamic Studies and Civilisation and Executive Member of Public and Contextual Theology, Charles Sturt University

Suzanne Rutland, Professor Emerita in Hebrew, Biblical & Jewish Studies, University of Sydney

Ces trois textes religieux justifient tous les guerres défensives. Mais ils y fixent des limites strictes, et soulignent également l’importance de la paix.
Texte intégral (3155 mots)

Les guerres sont souvent menées au nom de conceptions religieuses. Mais que disent vraiment les textes fondamentaux du christianisme, de l’islam et du judaïsme sur la guerre et ses justifications ?


Nous avons demandé leur avis à trois experts des différents monothéismes.

La Bible

Par Robyn J. Whitaker, professeure spécialiste du Nouveau Testament au sein de l’établissement théologique australien University of Divinity.

La Bible présente la guerre comme une réalité inévitable de la vie humaine. Cela est illustré par cette citation du livre de l’Ecclésiaste :

Il y a une saison pour tout […] un temps pour la guerre et un temps pour la paix.

En ce sens, la Bible reflète les expériences des auteurs, mais aussi de la société qui a façonné ces textes pendant plus de mille ans : celle du peuple hébreu. Durant l’Antiquité, celui-ci a en effet connu la victoire, mais aussi la défaite, en tant que petite nation parmi les grands empires du Proche-Orient ancien.

En ce qui concerne le rôle de Dieu dans la guerre, nous ne pouvons ignorer le caractère problématique de la violence associée au divin. Parfois, Dieu ordonne au peuple hébreu de partir en guerre et de commettre des actes de violence horribles. Deutéronome 20 en est un bon exemple : le peuple de Dieu est envoyé à la guerre avec la bénédiction du prêtre, bien qu’il soit d’abord demandé aux combattants de proposer des conditions de paix. Si les conditions de paix sont acceptées, la ville est réduite en esclavage. Dans d’autres cas cependant, l’anéantissement total de certains ennemis est demandé, et l’armée hébraïque reçoit l’ordre de détruire tout ce qui ne sera pas utile plus tard pour produire de la nourriture.

Dans d’autres cas, la guerre est interprétée comme un outil à la disposition de Dieu, une punition durant laquelle il utilise des nations étrangères contre le peuple hébreu parce qu’il s’est égaré (Juges 2 :14). Il est également possible d’identifier une éthique sous-jacente aux textes consistant à traiter les prisonniers de guerre de manière juste. Moïse ordonne que les femmes capturées pendant la guerre soient traitées comme des épouses et non comme des esclaves (Deutéronome 21), et dans le deuxième livre des Chroniques, les prisonniers sont autorisés à rentrer chez eux.

En opposition à cette conception de la guerre considérée comme autorisée par Dieu, de nombreux prophètes hébreux expriment l’espoir d’une époque où Il leur apportera la paix et où les peuples « ne s’adonneront plus à la guerre » (Michée 3 :4), transformant plutôt leurs armes en outils agricoles (Isaiah 2 :4).

La guerre est considérée comme le résultat des péchés de l’humanité, un résultat que Dieu transformera finalement en paix. Cette paix (en hébreu : shalom) sera plus que l’absence de guerre, puisqu’elle englobera l’épanouissement humain et l’unité des peuples entre eux et avec Dieu.

La majeure partie du Nouveau Testament a été écrite au cours du premier siècle de notre ère, alors que les Juifs et les premiers chrétiens constituaient des minorités au sein de l’Empire romain. Dans ce texte, la puissance militaire de Rome est ainsi sévèrement critiquée et qualifiée de maléfique dans des textes comme l’Apocalypse, qui s’inscrivent dans une démarche de résistance. De nombreux premiers chrétiens refusaient par exemple de combattre dans l’armée romaine.

Malgré ce contexte, Jésus ne dit rien de spécifique sur la guerre, mais rejette cependant de manière générale la violence. Lorsque Pierre, son disciple, cherche à le défendre avec une épée, Jésus lui dit de la ranger, car cette épée ne ferait qu’engendrer davantage de violence (Matthieu 26:52). Cela est conforme aux autres enseignements de Jésus, qui proclame ainsi « heureux les artisans de paix », qui commande de « tendre l’autre joue » lorsqu’on est frappé ou d’« aimer ses ennemis ».

En réalité, on trouve diverses idéologies concernant la guerre dans les pages de la Bible. Il est tout à fait possible d’y trouver une justification à la guerre, lorsqu’on souhaite le faire. Il est cependant tout aussi possible d’y trouver des arguments en faveur de la paix et du pacifisme. Plus tard, les chrétiens développeront les concepts de « guerre juste » et de pacifisme sur la base de conceptions bibliques, mais il s’agit là d’interprétations plutôt que d’éléments explicites inscrits dans le texte.

Pour les chrétiens, l’enseignement de Jésus fournit par ailleurs un cadre éthique permettant d’interpréter à travers le prisme de l’amour pour ses ennemis les textes antérieurs sur la guerre. Jésus, contrepoint à la violence divine, renvoie les lecteurs aux prophètes de l’Ancien Testament, dont les visions optimistes imaginent un monde où la violence et la souffrance n’existent plus et où la paix est possible.

Le Coran

Par Mehmet Ozalp, directeur du Centre pour les études et la civilisation islamiques de l’université australienne Charles-Sturt (Nouvelles-Galles du Sud).

Les musulmans et l’islam ont fait leur apparition sur la scène mondiale au cours du VIIe siècle de l’ère commune, une période relativement hostile. En réponse à plusieurs défis majeurs propres à cette époque, notamment la question des guerres, l’islam a introduit des réformes juridiques et éthiques novatrices. Le Coran et l’exemple fixé par le prophète Muhammad – souvent francisé en Mahomet – ont établi des lignes directrices claires pour la conduite de la guerre, bien avant que des cadres similaires n’apparaissent dans d’autres sociétés.

Pour cela, l’islam a défini un nouveau terme, jihad, plutôt que le mot arabe habituel pour désigner la guerre, harb. Alors que harb désigne de manière générale la guerre, le jihad est défini dans les enseignements islamiques comme une lutte licite et moralement justifiée, qui inclut mais ne se limite pas aux conflits armés. Dans le contexte de la guerre, le jihad désigne spécifiquement le combat pour une cause juste, selon des directives juridiques et éthiques claires, distinct de la guerre belliqueuse ou agressive.

Entre 610 et 622, le prophète Muhammad a pratiqué une non-violence active en réponse aux persécutions et à l’exclusion économique que lui et sa communauté subissaient à La Mecque, malgré les demandes insistantes de ses disciples qui voulaient prendre les armes. Cela montre que la lutte armée ne peut être menée, en islam, entre membres d’une même société : cela conduirait en effet à l’anarchie.

Après avoir quitté sa ville natale pour échapper aux persécutions, Muhammad fonda à Médine une société pluraliste et multiconfessionnelle. Il prit par ailleurs des mesures actives pour signer des traités avec les tribus voisines. Malgré sa stratégie de paix et de diplomatie, les Mecquois, qui lui restaient hostiles, ainsi que plusieurs tribus alliées, attaquèrent les musulmans de Médine. Il devenait ainsi inévitable d’engager une lutte armée contre ces agresseurs.

La permission de combattre a été donnée aux musulmans par les versets 22:39-40 du Coran :

Autorisation est donnée à ceux qui sont attaqués (de se défendre) parce que vraiment ils sont lésés ; et Allah est certes Capable de les secourir, ceux qui ont été expulsés de leurs demeures, contre toute justice, simplement parce qu’ils disaient : « Allah est notre Seigneur ». […]

Ce passage autorise non seulement la lutte armée, mais offre également une justification morale à la guerre juste. Celle-ci est d’abord conditionnée à une lutte purement défensive, tandis que l’agression est qualifiée d’injuste et condamnée. Ailleurs, le Coran insiste sur ce point :

S’ils se tiennent à l’écart de vous, s’ils ne vous combattent point et se rendent à vous à merci, Allah ne vous donne contre eux nulle justification (pour les combattre).

Le verset 22:39 vu précédemment présente deux justifications éthiques à la guerre. La première concerne les cas où des personnes sont chassées de leurs foyers et de leurs terres, c’est-à-dire face à l’occupation d’une puissance étrangère. La seconde a trait aux cas où des personnes sont attaquées en raison de leurs croyances, au point de subir des persécutions violentes et des agressions.

Il est important de noter que le verset 22:40 inclut les églises, les monastères et les synagogues dans le champ des lieux qui doivent être protégés. Si les croyants en Dieu ne se défendent pas, tous les lieux de culte sont susceptibles d’être détruits, ce qui doit être empêché par la force si nécessaire.

Le Coran n’autorise pas la guerre offensive, car « certes, Allah n’aime pas les agresseurs ! » (2 :190) Il fournit également des règles détaillées sur qui doit combattre et qui en est exempté (9 :91), quand les hostilités doivent cesser (2 :193), ou encore la manière dont les prisonniers doivent être traités avec humanité et équité (47 :4).

Des versets comme le verset 194 de la deuxième sourate soulignent que la guerre, comme toute réponse à la violence et à l’agression, doit être proportionnée et rester dans certaines limites :

Quiconque a marqué de l’hostilité contre vous, marquez contre lui de l’hostilité de la même façon qu’il a marqué de l’hostilité contre vous.

En cas de guerre inévitable, toutes les possibilités pour y mettre un terme doivent être explorées :

Et s’ils (les ennemis) inclinent à la paix, incline vers celle-ci, et place ta confiance en Allah. (8 :61)

L’objectif d’une action militaire est ainsi de mettre fin aux hostilités le plus rapidement possible et d’éliminer les causes de la guerre, et non d’humilier ou d’anéantir l’ennemi.

Le jihad militaire ne peut par ailleurs pas être mené pour satisfaire une ambition personnelle ou pour alimenter des conflits nationalistes ou ethniques. Les musulmans n’ont pas le droit de déclarer la guerre à des nations qui ne leur sont pas hostiles (60 :8). En cas d’hostilité ouverte et d’attaque, ils ont en revanche tout à fait le droit de se défendre.

Le Prophète et les premiers califes ont expressément averti les chefs militaires et tous les combattants participant aux expéditions musulmanes qu’ils ne devaient pas agir de manière déloyale ni se livrer à des massacres ou à des pillages aveugles. Muhammad a ainsi dit, selon la tradition islamique (sunna) :

Ne tuez pas les femmes, les enfants, les personnes âgées ou les malades. Ne détruisez pas les palmiers et ne brûlez pas les maisons.

Grâce à ces enseignements, les musulmans ont disposé, tout au long de leur histoire, de directives juridiques et éthiques visant à limiter les souffrances humaines causées par la guerre.

La Torah

Par Suzanne D. Rutland, historienne du judaïsme à l’université de Sydney.

Le judaïsme n’est pas une religion pacifiste, mais dans ses traditions, il valorise la paix par-dessus tout : les prières pour la paix occupent ainsi une place centrale dans la liturgie juive. Il reconnaît dans le même temps la nécessité de mener des guerres défensives, mais uniquement dans le cadre de certaines limites.

Dans la Torah, et notamment les cinq livres de Moïse, la nécessité de la guerre est clairement reconnue. Tout au long de leur périple dans le désert, les Israélites (c’est-à-dire les enfants d’Israël) livrent diverses batailles. Parallèlement, dans le Deutéronome, ils reçoivent l’instruction suivante (chapitre 23, verset 9) :

Quand tu marcheras en armes contre tes ennemis, garde-toi de toute chose mauvaise.

Le chef de tribu Amalek, qui attaqua les Hébreux à leur sortie d’Égypte, est le symbole du mal ultime dans la tradition juive. Les érudits affirment que cela est dû au fait que son armée frappa les Israélites par-derrière, tuant des femmes et des enfants sans défense.

La Torah insiste également sur le caractère obligatoire du service militaire. Cependant, le Deutéronome distingue quatre catégories de personnes qui en sont exemptées :

  • celui qui a construit une maison, mais qui ne l’a pas encore consacrée rituellement ;
  • celui qui a planté une vigne, mais qui n’en a pas encore mangé les fruits ;
  • celui qui est fiancé ou dans sa première année de mariage ;
  • celui qui a peur, par crainte qu’il n’influence les autres soldats.
Le judaïsme n’est pas une religion pacifiste, mais, dans ses traditions, il valorise la paix par-dessus tout. Shutterstock

Il est important de souligner que le mépris de la guerre est si fort dans le judaïsme antique que le roi David n’a pas été autorisé à construire le temple de Jérusalem en raison de sa carrière militaire. Cette tâche a été confiée à son fils Salomon : il lui était cependant interdit d’utiliser du fer dans la construction, car celui-ci symbolisait la guerre et la violence, alors que le temple devait représenter la paix comme vertu religieuse suprême.

La vision de la paix comme destin partagé pour toute l’humanité est développée plus en détail dans les écrits prophétiques, notamment via le concept de Messie. Cela est particulièrement visible dans les écrits du prophète Isaïe, qui envisageait une époque où, comme il le décrit dans sa vision idyllique :

[…] De leurs épées ils forgeront des socs, et de leurs lances, des serpes : une nation ne lèvera pas l’épée contre une autre nation, et on n’apprendra plus la guerre.

La Mishnah, première partie du Talmud (c’est-à-dire le recueil principal des commentaires de la Torah) évoque le concept de « guerre obligatoire » (milhemet mizvah). Cela englobe les guerres racontées dans les textes contre les sept nations qui habitaient la Terre promise avant les Hébreux, la guerre contre Amalek et les guerres défensives du peuple juif. Cette catégorie est donc clairement définie et reconnaissable.

Il n’en va pas de même pour la deuxième catégorie, la « guerre autorisée » (milhemet reshut), qui est plus ouverte et pourrait, comme l’écrit le chercheur Avi Ravitsky, « se rapporter à une guerre préventive ».

Après la période de composition du Talmud, qui s’est terminée au VIIe siècle, ce débat est devenu théorique, car les Juifs vivant en Palestine et dans la diaspora n’avaient plus d’armée. C’était déjà largement le cas depuis la défaite de la révolte de Bar Kokhba contre les Romains (de 132 à 135 après J.-C.), à l’exception de quelques petits royaumes juifs en Arabie.

Cependant, avec l’arrivée des premiers immigrants sionistes sur la terre historique du royaume d’Israël à la fin du XIXe et au XXe siècle, les débats rabbiniques sur ce qui constitue une guerre défensive obligatoire ou une guerre autorisée, ainsi que sur les caractéristiques d’une guerre interdite ont repris de plus belle. Ce sujet suscite aujourd’hui une profonde inquiétude et une vive controverse tant chez les universitaires spécialistes du judaïsme que chez les rabbins.

The Conversation

Robyn J. Whitaker est affiliée au centre Wesley pour la théologie, l'éthique et les politiques publiques.

Mehmet Ozalp est le directeur exécutif du l'Académie pour les sciences islamiques et la recherche.

Suzanne Rutland ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

21.08.2025 à 16:23

Comment le croisement des roses d’Orient et d’Occident au XIXᵉ siècle a totalement changé nos jardins

Thibault Leroy, Biologiste, chercheur en génétique des populations, Inrae

Jérémy Clotault, Enseignant-chercheur en génétique, Université d’Angers

En Europe, la rose a connu son âge d’or au XIXᵉ siècle : en l’espace de quelques décennies, le nombre de variétés s’est envolé, passant d’environ 100 à près de 8 000.
Texte intégral (2693 mots)
Photo de la variété ancienne La Sirène prise au sein de la roseraie Loubert (Gennes-Val-de-Loire, Maine-et-Loire). Agnès Grapin, équipe GDO, IRHS, Fourni par l'auteur

En Europe, la rose a connu son âge d’or au XIXe siècle : en l’espace de quelques décennies, le nombre de variétés s’est envolé, passant d’environ 100 à près de 8 000. Grâce à l’étude des caractéristiques de ces variétés et aux outils modernes de la génomique, nous venons de retracer l’histoire de cette évolution, marquée par d’importants croisements entre rosiers asiatiques et rosiers européens anciens. De ce mariage est née une diversité qui continue de façonner nos jardins contemporains.


Le XIXᵉ, un siècle rosomane

Depuis l’Antiquité, les roses sont cultivées, aussi bien en Chine que dans la région méditerranéenne, pour leurs vertus médicinales, notamment les propriétés anti-inflammatoires et antimicrobiennes des huiles essentielles ou comme sources de vitamine C dans les cynorrhodons (faux-fruits des rosiers), et pour leur forte charge symbolique, notamment religieuse. Pourtant, pendant des siècles, le nombre de variétés est resté très limité, autour d’une centaine. Le XIXe siècle marque un tournant majeur pour l’horticulture européenne avec une effervescence portée par un nouvel engouement pour l’esthétique des roses. Les collectionneurs – dont la figure la plus emblématique fut probablement l’impératrice Joséphine de Beauharnais– et les créateurs de nouvelles variétés français ont eu un rôle déterminant dans cet essor, donnant naissance à une véritable « rosomanie » et contribuant à une explosion du nombre de variétés, passant d’une centaine à près de 8000 variétés ! À titre de comparaison, depuis cette période, le nombre de variétés a certes continué de progresser, s’établissant à environ 30 000 variétés aujourd’hui, mais à un rythme de croissance moins soutenu.

Changements esthétiques des fleurs au cours du XIXᵉ siècle, sur la base d’un panel de variétés encore disponibles dans la roseraie de Thérèse Loubert (Gennes-Val-de-Loire, Maine-et-Loire), spécialisée en roses anciennes. Thibault Leroy, Fourni par l'auteur

Au-delà de l’augmentation du nombre de variétés, le XIXe siècle a été marqué par une grande diversification des caractéristiques des rosiers. Le nombre de pétales, notamment, est devenu un critère d’intérêt majeur. Les rosiers botaniques, des formes cultivées anciennes issues directement de la nature, ne possédaient en général que cinq pétales. Au fil du XIXe siècle, la sélection horticole a permis d’obtenir des variétés aux fleurs bien plus sophistiquées, certaines présentant plusieurs dizaines, voire des centaines de pétales. Cependant, cette évolution n’a pas suivi une progression linéaire : la première moitié du siècle a vu une nette augmentation du nombre de pétales, marquée par une mode des rosiers cent-feuilles, tandis que la seconde moitié a été plutôt caractérisée par une stagnation, voire un retour à des formes plus simples. Certaines variétés très travaillées sur le plan esthétique ont ainsi été sélectionnées pour paradoxalement n’avoir que cinq pétales.

Aquarelle d’un rosier cent-feuilles par Pierre-Joseph Redouté (1759-1840), familier de Joséphine de Beauharnais et célèbre pour ses planches botaniques, surtout de rosiers. Paradoxalement, le nom de cent-feuilles vient de leur grand nombre de pétales. Pierre-Joseph Redouté, Fourni par l'auteur

La plus grande différence entre les rosiers du début et de la fin du XIXe réside dans un caractère fondamental : la remontée de floraison. Jusqu’au milieu du XIXe siècle, les rosiers étaient majoritairement non remontants, c’est-à-dire qu’ils ne fleurissaient qu’une seule fois par an, au printemps. La capacité des rosiers à refleurir, en générant de nouvelles fleurs au cours de l’été, voire même jusqu’à l’automne, n’est pas le fruit du hasard ! Cette caractéristique a constitué un objectif important des sélectionneurs de l’époque. Cette histoire, très associée aux croisements génétiques effectués, notamment avec des rosiers chinois, a laissé une empreinte durable, aussi bien dans nos jardins contemporains que dans les génomes mêmes des rosiers.

Bien qu’ils n’en étaient pas conscients, les sélectionneurs ont aussi pu contribuer à l’introduction de caractères défavorables. Ainsi, en étudiant les niveaux de symptômes de la maladie des taches noires sur des centaines de variétés du XIXe, nous avons mis en évidence une augmentation de la sensibilité des variétés. Cette maladie est aujourd’hui considérée comme une des premières causes de traitements phytosanitaires sur les rosiers, ce qui n’est pas sans poser des questions sanitaires sur l’exposition aux pesticides des fleuristes et autres professionnels du secteur horticole. Notre étude a néanmoins trouvé des régions génomiques associées à une résistance à cette maladie, offrant l’espoir d’une sélection vers des variétés nouvelles plus résistantes.

Notre étude n’a pas uniquement porté sur la prédisposition aux maladies mais également à l’une des caractéristiques les plus importantes des roses : leur odeur. Le parfum des roses est expliqué par un cocktail complexe de molécules odorantes. Deux molécules sont néanmoins très importantes dans ce qu’on appelle l’odeur de rose ancienne, le géraniol et le 2-phényléthanol. Nous avons étudié le parfum de centaines de variétés et observé une très forte variabilité de celui-ci, autant en teneur qu’en composition. Nos résultats ne soutiennent toutefois pas, ou alors extrêmement marginalement, une réduction du parfum des roses au cours du XIXe siècle. La perte de parfum est vraisemblablement arrivée ultérieurement, au cours du XXe siècle, une période qui voit l’apparition d’une activité de création variétale spécifique pour les roses à fleurs coupées et qui aurait négligé le parfum des roses au profit de la durée de tenue en vase, permettant de délocaliser la production dans des pays aux coûts de production réduits.

Des rosiers aux génomes métissés

Pour mieux comprendre l’origine et la diversité de ces rosiers du XIXe, il faut désormais plonger dans l’univers de l’infiniment petit : celui de leurs génomes. Dans notre nouvelle étude, nous avons entrepris de caractériser en détail la génétique de plus de 200 variétés, en nous appuyant sur des dizaines de milliers de marqueurs, c’est-à-dire d’une information ciblée sur des zones particulières des génomes, connues comme étant variables selon les variétés, et ce, répartis sur l’ensemble de leurs chromosomes. Pour une trentaine de variétés, nous sommes allés encore plus loin, en décryptant l’intégralité de leur génome, fournissant non plus des dizaines de milliers, mais des dizaines de millions de marqueurs, ouvrant ainsi une fenêtre encore plus précise sur l’histoire génétique des rosiers. A noter que le mode de conservation nous a facilité la tâche pour étudier l’ADN de ces rosiers historiques directement à partir des plantes actuelles conservées en roseraie. En effet, grâce au greffage, les variétés de rosiers sont potentiellement immortelles !

Grâce à cette analyse, nous avons d’abord pu confirmer les résultats d’études antérieures qui, bien que fondées sur un nombre limité de marqueurs génétiques, avaient déjà mis en évidence que la diversification des rosiers du XIXe siècle résultait de croisements successifs entre rosiers anciens européens et rosiers asiatiques. La haute résolution offerte par la génomique nous a toutefois permis d’aller plus loin : nous avons montré que cette diversité s’est construite en réalité sur un nombre très réduit de générations de croisements, impliquant de manière récurrente des variétés phares de l’époque, utilisées comme parents dans de nombreux croisements. Il est remarquable de noter que cela s’est produit avec une bonne dose de hasard (via la pollinisation) puisque la fécondation artificielle (choix des deux parents du croisement) n’est utilisée sur le rosier qu’à partir du milieu du XIXᵉ siècle.

Bien que reposant sur un nombre limité de générations de croisements, contribuant à un métissage entre rosiers asiatiques et européens, notre étude a également permis de montrer que les rosiers possèdent une importante diversité génétique. Toutefois, la sélection menée au cours du XIXe siècle a contribué à une légère érosion de cette diversité, en particulier chez les variétés issues de la fin du siècle. Or, le maintien d’une large diversité génétique est essentiel pour la résilience et l’adaptation des espèces face aux changements environnementaux. Sa préservation au long cours représente donc un enjeu majeur. Tant que les anciennes variétés sont conservées, cette perte reste réversible. Il est donc crucial d’agir pour éviter leur disparition définitive en préservant les collections de roses anciennes et botaniques.

À l’échelle du génome complet, la sélection tend à réduire la diversité génétique. Mais à une échelle plus fine, ses effets peuvent être encore plus marqués, entraînant une diminution locale beaucoup plus prononcée de la diversité. Notre étude a ainsi révélé qu’une région du chromosome 3, contenant différentes formes d’un gène clé impliqué dans la remontée de la floraison, a fait l’objet d’une sélection particulièrement intense au XIXe siècle. Ce résultat, bien que prévisible compte tenu de l’importance de ce caractère, a été confirmé de manière claire à la lumière des données génomiques. De manière plus inattendue, nous avons également identifié d’autres régions du génome présentant des signatures similaires de sélection, notamment sur les chromosomes 1, 5 et 7. À ce stade, les gènes concernés, et les éventuels caractères morphologiques associés restent encore à identifier. Malgré les avancées de la génomique, le mariage des roses d’Occident et d’Orient au XIXe siècle garde encore nombre de ses secrets de famille !

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

21.08.2025 à 12:55

Quand les enfants dessinent la nature, ils représentent aussi leur classe sociale

Julien Vitores, Docteur en sociologie, Université Sorbonne Paris Nord

« Dessine la nature. ». Face à cette consigne simple, les enfants de 5 ans, rencontrés par le sociologue Julien Vitores, vont produire des œuvres, qui en disent beaucoup sur leur milieu socioéconomique.
Texte intégral (2880 mots)
Dessins d’enfants collectés par le sociologue Julien Vitores dans trois écoles. Un établissement privé catholique de l’Ouest parisien, une école publique relevant d’un programme d’éducation prioritaire (REP+) et une école en zone périurbaine étendue du sud de la France. Fourni par l'auteur

Quelles visions de la nature transmettons-nous aux enfants ? Voici l’une des questions auxquelles le sociologue Julien Vitores a tâché de répondre. Il s’est pour cela rendu notamment dans trois établissements accueillant des élèves de trois à six ans. Une école catholique de l’Ouest parisien fortuné, une école publique du nord de Paris accueillant un public social très mixte et l’école d’une zone périurbaine du sud de la France. Dans ces bonnes feuilles du livre issu de sa thèse, il raconte les réactions diverses provoquées par la demande très simple faite à des enfants de 5 ans rencontrés : « Dessinez la nature. »

Extrait de la Nature à hauteur d’enfants. Socialisations écologiques et genèse des inégalités, « L’envers des faits », éditions La Découverte, 2025, 256 pages.


Dans chacune des trois écoles où j’ai réalisé mon enquête, après les premiers échanges avec les enseignantes, je me suis présenté aux élèves en leur disant que je m’intéressais à « la place de la nature dans la vie des enfants » et que je venais voir « comment ça se passe à l’école ». J’ai déjà souligné l’accueil enthousiaste dans l’école maternelle privée des beaux quartiers parisiens. L’accueil que m’ont réservé les élèves des écoles aux publics plus mixtes en termes d’origine sociale mérite aussi attention. Dans ce contexte, les élèves issus des familles les plus dotées en capital culturel se sont distingués par leur vif intérêt pour le sujet, par leur connaissance du terme « nature » et par leur volonté de me le faire savoir.

Pendant ma première journée d’observation à l’école Léon-Blum [dans le nord de Paris] , quelques enfants, parmi lesquels Elena, cinq ans (mère cadre chargée de projets culturels, père musicien), et Solal, cinq ans (mère approvisionneuse, père ingénieur), mettent ainsi en avant des expériences singulières associées au thème de la nature. Lors du tour de table, Elena précise non sans fierté, juste après avoir donné son prénom : « Moi, j’ai déjà mangé des vers de terre et des criquets ! » Quelques instants plus tard, tandis que l’enseignante m’explique qu’il y a des phasmes dans la salle de classe, Solal m’observe prendre des notes, puis s’exclame, étonné : « Tu notes tout ? ! » Je lui réponds que les phasmes m’intéressent, car ils font partie de la nature. Il lance alors, en référence à ce que disait Elena plus tôt : « Ben moi, j’ai mangé du crocodile, du serpent et de la tortue. C’était en Chine ! » Peu après, je l’entends dire à Léon, cinq ans (mère galeriste, père architecte) : « Comme il aime bien la nature, il a écrit que j’avais mangé du crocodile et du serpent ! » Il continue ensuite à jeter des coups d’œil derrière lui, comme pour vérifier si je note encore. L’attitude de Solal est caractéristique des nombreuses tentatives enfantines d’attirer mon regard – et plus généralement l’attention des adultes – et de se voir valorisés par le fait que je relève leurs actions ou leurs paroles dans mon carnet.

Le fait qu’il comprenne que la nature m’intéresse et qu’il soit capable d’y associer des animaux perçus comme rares et exotiques lui donne la possibilité de surenchérir à la suite du souvenir évoqué par Elena. Pendant plusieurs mois, Solal me raconte régulièrement ses expériences personnelles en espérant que je les note, sans que je le sollicite au préalable. Très souvent, ses récits me frappent par leur adéquation avec ce que j’ai dit de mon enquête. Au-delà des nombreux détails sur son voyage en Chine, il me parle de ses cactus et plantes carnivores, de ses vacances à la plage dans la région de Bordeaux, ou encore de sa pratique de l’escalade en plein air avec son grand frère. Les enfants suffisamment familiers de la notion de « nature », sans nécessairement pouvoir la définir clairement (ce que même des adultes peinent à faire), savent qu’ils et elles peuvent y associer des récits d’expériences susceptibles de capter mon attention.

À l’inverse, de nombreux élèves issus des classes populaires ont du mal à identifier clairement les enjeux de ma recherche. Cette inégale compréhension de la notion de nature se manifeste particulièrement au cours des activités de dessin que j’organise dans les trois écoles. Je demande alors aux élèves de me dessiner « la nature », ou bien « ce qui [leur] fait penser à la nature », avant de lancer des discussions collectives à partir des dessins réalisés. Les commentaires des enfants, pendant et après la réalisation des dessins (enregistrés et retranscrits), permettent de saisir leurs interrogations sur cet atelier, mais aussi d’observer leurs tâtonnements, hésitations et efforts déployés pour donner du sens à la consigne.

De fait, ce sont presque toujours des enfants dont les parents appartiennent aux classes populaires qui expriment une incompréhension quant à mon usage du terme « nature ». En témoigne la réaction à mes consignes de Hamadou, cinq ans – dont les parents sont sans emploi et résident dans un HLM tout proche de l’école –, avant de commencer à dessiner :

Julien [Vitores] : J’aimerais bien que vous me dessiniez la nature. Est-ce que tout le monde peut me dessiner la nature ? À quoi ça vous fait penser ?

Hamadou : C’est comment la nature ?

Julien [Vitores] : Ça te fait penser à quoi quand on te dit le mot « nature » ?

Malo : À des fleurs.

Julien [de nouveau à Hamadou] : Toi, ça te fait penser à quoi ?

Hamadou : Moi, je sais pas faire des natures. Ah oui, il a réussi à faire des natures, Malo ! [En voyant que Malo a commencé à dessiner des fleurs].

Les difficultés rencontrées par les enfants portent parfois sur leurs compétences graphiques (« Je sais pas faire »), mais en partie seulement. Par exemple, Hamadou ne saisit manifestement pas à quoi renvoie le mot « nature ». N’ayant pas idée de ce qui est attendu de lui, il s’inspire de la réponse de Malo (mère assistante médicale, père architecte) et comprend « nature » comme un synonyme de « fleur », ce qui explique son usage du terme au pluriel (« des natures »). En fin de compte, un troisième garçon, Adem, cinq ans, me demande s’il peut dessiner des animaux, et Hamadou s’exclame : « Je vais dessiner tous les animaux ! » Son dessin représente finalement plusieurs fauves, qu’il désigne comme des loups. Adem rétorque : « Il est bizarre ton loup », puis affirme vouloir dessiner un lynx. Hamadou s’écrie alors : « Le loup il va manger le lynx ! »

Le dessin d’Hamadou. Fourni par l'auteur

Les enfants ne sont pas égaux face à ma requête. Certains tentent de s’inspirer du dessin des voisins. Au total, 5 des 85 dessins que j’ai recueillis sont des copies quasi conformes de celui d’un ou d’une autre élève. Les observations pendant l’activité montrent qu’il s’agit à chaque fois de dessins d’enfants issus des classes populaires imitant des enfants issus des classes moyennes ou supérieures. C’est particulièrement frappant dans le cas de Meriem, cinq ans (mère sans emploi, père chauffeur routier), qui assume ouvertement de s’inspirer du dessin d’Elena, bien plus assurée qu’elle de la pertinence de ses idées sur la nature :

Julien [Vitores] : Tu dessines quoi, Elena ?

Elena : Une méduse !

Julien [Vitores] : Et toi, Meriem, tu dessines quoi ? [Petit silence] C’est à quoi que ça te fait penser, la nature ? [Elle ne répond pas et garde les yeux baissés sur son dessin]

Elena : Tu peux faire l’océan si t’as envie !

Julien [Vitores] : Tout ce qui te fait penser à la nature.

Elena : Les humains, les trucs comme ça…

(Je ris)

Meriem : Je veux faire comme Elena. [Elle regarde le dessin d’Elena et semble hésiter] On a le droit de faire des fleurs ?

Julien [Vitores] : Oui, bien sûr, c’est dans la nature.

Elena (quelques instants plus tard) : Julien, mais Meriem, elle me recopie !

Julien [Vitores] : C’est pas grave, si elle avait pas d’idées sur la nature.

Elena, très à l’aise avec la consigne, prend plaisir à énumérer les choses qu’elle identifie à la « nature ». Comme plusieurs autres enfants issus des familles aisées, elle semble déjà consciente du caractère extensif de ce mot, qui englobe selon elle plein de « trucs ». Au cours de l’activité, elle donne volontiers des idées à Meriem dans un premier temps (« tu peux faire l’océan »), mais sa bonne volonté s’arrête net quand elle comprend que cette dernière reproduit ses dessins à l’identique, ce qui lui ôte visiblement le privilège de l’originalité, et réduit ainsi à néant ses tentatives de mettre en valeur sa production.

Dessins d’Elena (à gauche) et de Meriem (à droite)
Dessins d’Elena (à gauche) et de Meriem (à droite). Au cours des ateliers, plusieurs enfants issus des classes populaires ne comprenaient pas à quoi renvoyait la « nature » que le sociologue Julien Vitores leur demandait de représenter. Ils imitaient alors leur camarades pour rendre un dessin jugé conforme. Fourni par l'auteur

Cet exemple montre qu’il n’est pas possible d’analyser le contenu de ces dessins comme la simple manifestation de « représentations » que les enfants auraient de la nature. Car la pratique du dessin est de part en part une activité sociale, dans laquelle ces derniers tentent de produire un travail recevable à partir de ce qu’ils comprennent de la consigne, et de ce qu’ils sont capables de dessiner. Dès lors que mes attentes ne sont pas clairement comprises, certains élèves ont donc recours à l’imitation afin de sauver la face et d’éviter la sensation d’échouer à ce qui se présente à eux comme un exercice scolaire.

Plus fondamentalement, les interrogations suscitées par l’activité montrent que le mot « nature » lui-même n’est pas évident pour tous les enfants de cinq ans. La maîtrise (relative) de ce terme, la capacité à en faire bon usage, du moins conforme à celui qu’en font les adultes, est déjà en soi une compétence distinctive. Peu après avoir réalisé son dessin, Elena échange par exemple brièvement avec Solal sur le fait que les « humains » font partie de la nature, ce qui témoigne de leur capacité à s’interroger sur les frontières de la notion. De même, alors qu’un de ses camarades explique que les voitures ne font pas partie de la nature, Antoine, cinq ans (mère psychologue, père restaurateur), conteste vivement, en mobilisant ses propres expériences : « Si ! La nature ça peut être sur les routes. On peut se promener, par exemple, quand on est en campagne et qu’il faut partir en voiture. »

Qu’il s’agisse de la confirmer ou de la contester, les élèves les plus dotés en capital culturel ont donc conscience, même vaguement, de l’existence d’une ligne de partage entre des choses qui relèvent de la nature et des choses qui n’en relèvent pas. Mais cette frontière est loin d’être évidente ici. Certains découvrent à l’école le mot « nature », sans savoir quelles expériences personnelles y associer.

The Conversation

Julien Vitores ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

21.08.2025 à 11:58

Où sont passés les phoques à capuchon, sur la banquise qui fond ?

Tiphaine Jeanniard-du-Dot, Chercheuse en biologie et écologie marine, La Rochelle Université

Que se passe-t-il quand l’espèce animale qu’on étudie commence à disparaître ? Certains biologistes marins, qui étudient le phoque à capuchon, doivent aujourd’hui se poser la question.
Texte intégral (2825 mots)
Le phoque à capuchon doit son nom à la capacité qu’ont les mâles de remplir d’air une poche qu’ils ont sur le sommet de la tête et de gonfler une de leurs cloisons nasales, à la fois pour impressionner les autres mâles et pour séduire les femelles. Tiphaine Jeanniard-du-Dot , Fourni par l'auteur

Que se passe-t-il quand l’espèce animale que l’on étudie commence à disparaître ? Certains biologistes marins qui étudient le phoque à capuchon doivent aujourd’hui se poser la question. Car, avec la banquise qui fond et les changements brutaux qui perturbent l’Arctique, cette espèce hors du commun est devenue de plus en plus difficile à surveiller.


C’est un mystère qui reste encore sans réponse. Où sont passés les phoques à capuchon ? En 2023, alors qu’une équipe de scientifiques qui étudie cette espèce hors du commun survolait la banquise flottante canadienne, ils n’en ont vu aucun. Depuis 1992, année où le suivi de leur population a commencé, cette absence était une première. Depuis, les phoques ne sont pas revenus. Nous ne sommes, nous non plus, pas retournés survoler cette zone l’année suivante, car, en 2024, la banquise elle-même avait virtuellement disparu. Et s’il n’y a plus de banquise, il n’y aura pas de phoque à capuchon, une espèce qui dépend de cet écosystème, pour vivre, se reproduire, se nourrir.

Pour la biologiste marine que je suis, être témoin de la disparition d’une population de phoque emblématique, que j’ai suivie pendant plusieurs années, est une catastrophe écologique qui rend le réchauffement climatique très concret, même s’il se passe loin de nos yeux.

C’est également édifiant de voir comment des changements environnementaux brusques peuvent impacter une espèce qui a, pourtant, su s’adapter et prospérer jusque-là dans un contexte des plus hostiles.

Le phoque à capuchon est ainsi présent dans une seule région du monde : la banquise flottante en Arctique, entre le Canada et le Svalbard, un archipel au nord de la Norvège. C’est de ce fait un animal peu connu, mais pourtant tout à fait fascinant. Il doit son nom à une particularité notable des mâles. Ces derniers ont la capacité de remplir d’air une poche qu’ils ont sur le haut de leur tête, en plus de gonfler une de leurs cloisons nasales en un ballon rouge protubérant, pour à la fois impressionner les autres mâles et séduire les femelles.

Un phoque à capuchon mâle sur la banquise canadienne
Un phoque à capuchon mâle sur la banquise canadienne. Tiphaine Jeanniard-du-Dot, Fourni par l'auteur

Ces dernières ne sont pas en reste. Les phoques à capuchon ont la lactation la plus courte connue chez les mammifères, puisque les mères allaitent leur petit sur la banquise pendant trois à quatre jours seulement. Celui-ci prend environ sept kilogrammes par jour pour doubler son poids de naissance, avant d’être sevré et de devenir autonome.

Phoque à capuchon juvénile
Phoque à capuchon juvénile. Tiphaine Jeanniard-du-Dot, Fourni par l'auteur

S’il se sépare alors de sa mère, le jeune phoque à capuchon ne quittera, par contre, jamais vraiment la banquise. Il y retournera toute sa vie pour sa période de mue, qui advient une fois par an, pour se reproduire à son tour, pour se reposer et pour accéder à des zones de pêche. Mais cette banquise arctique se réchauffe quatre fois plus vite que le reste du globe, ce qui entraîne des changements physico-chimiques dans les océans.

La fonte des glaces due à l’augmentation des températures en est le plus évident, mais on observe également une diminution de la salinité de l’eau de mer, un changement des courants, un approfondissement de la couche de mélange, la partie superficielle des océans très productive en nutriments. Tous ces changements impactent les écosystèmes marins, du phytoplancton jusqu’aux prédateurs tout en haut de la chaîne alimentaire, comme les phoques à capuchon. Cette place, ainsi que leurs grandes capacités de plongée à des profondeurs allant jusqu’à 1 000 mètres et leurs longues migrations dans les eaux arctiques, en font de très bons bio-indicateurs des changements climatiques et de la santé de leur habitat.

Près de trente ans de données sur une espèce remarquable

Mais toutes ces caractéristiques les rendent aussi particulièrement vulnérables aux changements environnementaux.

Dans une recherche récemment publiée, nous avons étudié avec mon équipe deux populations distinctes – l’une dans l’Atlantique nord-ouest canadien, l’autre en mer du Groenland – pour mieux comprendre les impacts des changements de conditions écologiques locales sur cette espèce clé particulièrement sensible à la perte de la banquise. Le but était d’identifier les pressions spécifiques que chaque population subit dans un océan en mutation rapide et les conséquences sur leur distribution ou sur leur capacité à se nourrir.

En combinant le suivi d’animaux en mer grâce à des balises enregistreuses avec des analyses biochimiques, nous avons pu retracer leurs déplacements et comportements de plongée, analyser leur régime alimentaire et évaluer leur efficacité à trouver de la nourriture, et cela, sur plusieurs décennies. Cette incroyable série de données temporelle, réunie grâce à une collaboration entre la France, le Canada, la Norvège et le Groenland, couvre une période de presque trente ans – qui comprend donc la période de réchauffement la plus rapide et intense en Arctique.

In fine, ce que l’on cherche à savoir, c’est ce qu’il adviendra de cette espèce hors du commun si nous continuons sur la même trajectoire climatique.

Pour s’adapter au réchauffement du climat, les populations doivent changer leurs comportements

Les résultats de notre étude sont étonnants : les phoques à capuchon montrent des réactions contrastées face aux bouleversements climatiques. Si certaines populations canadiennes ont donc, ces dernières années, perdu leur lieu de reproduction avec la fonte de la banquise, l’ensemble des populations de phoques étudiées peuvent, elles, adopter des stratégies assez variées.

Au sein de la population de l’Atlantique nord-ouest, les individus se reproduisant dans le golfe du Saint-Laurent, au Canada, privilégient les eaux froides et côtières pour trouver leur nourriture et ont vu leurs zones d’alimentation et de mue se déplacer vers le nord, suivant le recul des eaux froides et la migration de leurs proies.

De plus, leurs plongées pour se nourrir en profondeur sont plus longues que par le passé, ce qui indique qu’ils ont maintenant plus de difficultés à trouver et à attraper leurs proies. Proies qui sont également différentes que dans les années 1990, probablement à cause d’un bouleversement de l’écosystème et du type de proies disponibles dans leur habitat, de plus en plus similaires à celles de l’Atlantique. On parle alors d’« atlantification » de ces zones arctiques.

Les projections climatiques indiquent, par ailleurs, une réduction de l’habitat favorable aux phoques à capuchon de l’Atlantique nord-ouest dans les décennies à venir, ce qui pourrait évidemment, à plus ou moins long terme, entraîner une « crise du logement » et une compétition féroce si toutes les espèces de l’Arctique sont réduites à migrer vers un habitat nordique de plus en plus réduit. Cette réduction de l’habitat favorable semble particulièrement intense pour les phoques du golfe du Saint-Laurent.

Le devenir d’une des populations que nous surveillions jusqu’alors et que nous n’avons plus revue depuis 2023 reste encore mystérieux. Où sont allées les femelles pour mettre bas et fournir un habitat stable à leurs petits ? Les colonies reproductrices ont-elles fusionné vers le nord ? Que se passera-t-il d’ailleurs pour cette espèce quand l’Arctique connaîtra des étés sans glace à l’aune de 2040-2050 ? Les grands prédateurs comme les ours polaires vont-ils s’ajouter aux menaces qui pèsent sur ces animaux, s’ils se rapprochent des côtes pour pallier le manque de banquise ?

Ces questions restent, pour l’instant, en suspens pour l’incroyable phoque à capuchon de l’Atlantique Nord-Ouest, tout comme celle de son avenir dans ces eaux froides arctiques en pleine mutation.

Les phoques à capuchon ont la lactation la plus courte connue chez les mammifères, puisque les mères allaitent leur petit sur la banquise pendant trois à quatre jours seulement. Celui-ci prend environ sept kilogrammes par jour pour doubler son poids de naissance avant d’être sevré et de devenir autonome. Tiphaine Jeanniard-du-Dot, Fourni par l'auteur

En plus du climat, les populations subissent d’autres pressions

En revanche, la population des phoques à capuchon de la mer du Groenland paraît, elle, moins inféodée aux eaux très froides pour se nourrir. Contre toute attente, ces phoques ont d’ailleurs déplacé leurs zones d’alimentation vers l’est, s’éloignant du Groenland pour se rapprocher des côtes norvégiennes. Les projections montrent aussi que ces zones auront tendance à s’élargir et à se déplacer encore plus vers l’est – et non, à se rétrécir et à se déplacer vers le nord, comme les phoques de l’Atlantique Nord-Ouest.

Il ne faudrait cependant pas s’en réjouir trop vite. Car l’agrandissement de l’habitat favorable de ces phoques à capuchon de la mer du Groenland ne signifie pas forcément que l’environnement global est satisfaisant. Cette population a, en effet, connu un effondrement dramatique d’environ 85 % de son effectif depuis les années 1950, sans signe de rétablissement. Ce déclin suggère que d’autres facteurs que l’aire d’alimentation favorable pourraient contrebalancer les bénéfices d’un habitat théorique plus vaste : par exemple, les changements dans les écosystèmes ou dans les chaînes alimentaires, l’augmentation de la prédation, l’éloignement entre les zones de reproduction et les zones d’alimentation, qui pourrait obliger les phoques à parcourir de plus grandes distances pour se nourrir, ou, encore, les effets durables de la chasse commerciale aujourd’hui interdite.

Un avenir incertain

Tous ces constats montrent que les phoques à capuchon ne réagissent pas de manière uniforme aux pressions environnementales. Chaque population fait face à des défis spécifiques, liés à ses spécificités comportementales et adaptatives, à sa localisation, à l’évolution de ses proies et à l’histoire de ses interactions avec les humains. Les variabilités individuelles ou populationnelles peuvent conférer à l’espèce dans son ensemble une capacité d’adaptation plus grande aux défis environnementaux auxquels elle fait face.

En revanche, si des espaces clés de leur cycle de vie disparaissent, comme c’est le cas pour la population du golfe du Saint-Laurent dont les sites de reproduction sur la glace ont récemment disparu, on peut s’attendre à des extinctions locales plus rapides que d’autres. Si l’avenir de l’incroyable phoque à capuchon en Arctique reste incertain, son cas souligne en revanche l’importance d’adopter des stratégies de conservation différenciées, adaptées aux réalités écologiques locales.

The Conversation

J'ai été employée par le Ministère de Pêches et Océans Canada, ou j'ai démarré ma recherche sur les phoques à capuchon.

PDF

20.08.2025 à 17:15

En marche après Macron : quel avenir pour le parti du président ?

Ludovic Grave, Doctorant en science politique, Université de Lille

Le changement de nom du parti Renaissance symbolise les efforts infructueux de Gabriel Attal pour se démarquer de la figure présidentielle.
Texte intégral (2120 mots)

Le parti macroniste Renaissance se cherche un nouveau nom. Ce quatrième changement d’appellation traduit les tentatives de son secrétaire général Gabriel Attal de détacher l’organisation partisane de la figure présidentielle. Sans grand succès jusqu’ici.


Le 31 juillet 2025, le secrétaire général de Renaissance et ancien premier ministre Gabriel Attal initiait une consultation interne auprès des 33 000 adhérents de Renaissance, visant notamment à changer le nom du mouvement.

Les justifications officielles à ce quatrième changement d’étiquette de parti, en près de dix années d’existence, découlent d’un échec de l’ancrage de la marque partisane Renaissance. Seul un tiers des électeurs identifie correctement le parti, contre 70 % pour La France insoumise (LFI) et le Rassemblement national (RN). La confusion avec le parti Reconquête d’Éric Zemmour témoigne également d’un déficit de différenciation politique.

Au-delà des considérations fonctionnelles, cette entreprise de changement de dénomination s’inscrit dans une dynamique de succession où Gabriel Attal cherche à façonner le parti à son image et, selon une source interne à Renaissance, à « tuer le père » – c’est-à-dire, ici, Emmanuel Macron. Cette stratégie d’émancipation s’enracine dans la rupture brutale provoquée par la dissolution de juin 2024, qui a transformé des relations empreintes de connivence en une cohabitation froide et distante entre le président et son ancien premier ministre.

Elle pose également la question fondamentale de savoir si ce rebranding constitue une simple opération cosmétique destinée à masquer les contradictions profondes du parti, ou s’il préfigure une véritable refondation doctrinale capable de résoudre l’aporie identitaire du macronisme postprésidentiel. Celle-ci pourrait, accessoirement, offrir au secrétaire général et président du groupe à l'Assemblée nationale l’opportunité de s’émanciper de la tutelle macronienne.


À lire aussi : Changement de nom des partis, ravalement de façade ou aggiornamento politique ?


Les métamorphoses partisanes du macronisme : de la disruption à l’impasse

La trajectoire nominale du mouvement macroniste illustre une ambition politique aux prises avec ses ambivalences. Le choix d’« En marche » en avril 2016 constituait une innovation politique majeure dans le paysage français. La personnalisation assumée à travers les initiales E. M. d’Emmanuel Macron, la rhétorique du mouvement refusant l’étiquette jugée obsolète de parti, et le dépassement revendiqué des clivages gauche-droite inscrivaient cette création dans la lignée des partis personnels européens, comme Forza Italia de Silvio Berlusconi ou le Mouvement 5 étoiles (M5S) de Beppe Grillo, en Italie. Avec une spécificité française toutefois : la prétention à incarner simultanément le renouveau et l’institution.

Le repackaging d’En marche en La République en marche (LREM) en mai 2017, consécutif à la victoire présidentielle, visait, selon le politologue Julien Fretel, à « s’adapter à une nouvelle réalité, à savoir l’arrivée d’E. Macron à la présidence de la République et la création des groupes parlementaires de la majorité ». Ce passage à LREM traduit la conversion du mouvement en outil au service de l’exécutif, illustrant un processus de cartellisation. Ce concept désigne la transformation d’un parti politique en agent de l’État : il devient ainsi dépendant des ressources publiques et du pouvoir institutionnel pour assurer sa survie, plutôt que de s’appuyer sur la mobilisation de la société civile.

Après cinq années marquées par une hyperpersonnalisation présidentielle, le mouvement se rebaptise, abandonnant LREM pour devenir officiellement Renaissance en septembre 2022. Cela représentait théoriquement une tentative de normalisation et de dépersonnalisation.

L’objectif affiché était triple : élargir la base par la fusion avec des micropartis comme Agir et Territoires de progrès, européaniser l’identité par une référence à la renaissance du projet européen – le nom évoque aussi délibérément l’époque historique de la Renaissance –, et normaliser l’organisation par le passage au système d’adhésions payantes traditionnel des partis. Cette refondation visait ainsi à transformer un mouvement centré sur la figure présidentielle en une structure partisane plus formalisée.

Ces évolutions nominales révèlent cependant l’aporie fondamentale du macronisme : conçu comme une entreprise politique personnelle en rupture avec le système partisan, il oscille entre hyperpersonnalisation et tentative de normalisation organisationnelle, sans parvenir à résoudre cette contradiction génétique qui détermine son modèle originel.

Renaissance face à ses défis existentiels : vers l’effondrement d’un modèle ?

Au-delà des questions d’étiquettes, Renaissance fait face à une crise existentielle.

L’effondrement organisationnel se mesure d’abord par les chiffres : de 450 000 « cliqueurs » – c’est-à-dire, soutiens sur Internet – revendiqués en 2017 par le mouvement, celui-ci est passé à 30 000 adhérents lors de sa transformation en Renaissance en 2022, pour chuter à moins de 10 000 membres à jour de cotisation en 2024. Cette saignée s’explique principalement par le traumatisme de la dissolution, par le décalage entre les promesses d’horizontalité et un exercice vertical du pouvoir, ainsi que par la dérive droitière du parti.

Le second défi majeur réside dans le vide idéologique du parti. Un ancien ministre qualifie Renaissance de « maison vide », de « parti né en cliquant » sans « contenu politique ». Plus révélateur encore, le questionnaire de Gabriel Attal, demandant aux adhérents de définir « les trois valeurs du parti » et de « résumer l’identité du parti en une phrase », expose paradoxalement l’absence de corpus doctrinal stabilisé, neuf ans après la création du mouvement. Cette situation confirme l’absence d’identité doctrinale claire du macronisme, dont le « en même temps » peine à se cristalliser en un projet partisan cohérent.

Cette quête identitaire témoigne de l’épuisement du « progressisme » comme marqueur distinctif du macronisme. Conçu, dès 2017, comme une opération de marketing politique pour masquer le terme « libéralisme », ce progressisme, défini surtout « par opposition » aux conservateurs, n’a pu dissimuler la contradiction avec des politiques ancrées à droite, comme la suppression de l’ISF, ou l’utilisation autoritaire de l’article 49 alinéa 3 de la Constitution.

La difficulté à articuler un projet post-Macron et l’impossibilité de stabiliser une base militante révèlent l’échec de cette redéfinition artificielle du clivage politique.

Attal face à l’héritage macronien : entre émancipation et dépendance

L’entreprise de rebranding partisan de Renaissance constitue un marqueur symbolique de la transition postcharismatique, où la nouvelle appellation et le déménagement du siège représentent des tentatives d’autonomisation du parti permettant à Attal de construire sa propre légitimité politique, notamment en vue des municipales de 2026 et de l’élection présidentielle de 2027.

Cette volonté d’autonomisation se concrétise également par la nomination récente d’un nouveau bureau exécutif, soigneusement choisi par le secrétaire général, lui permettant ainsi de structurer le parti selon sa vision et de consolider son emprise organisationnelle. Il a, d’ailleurs, déclaré vouloir « proposer un chemin aux Français » et promis de « tout faire pour conduire [ses partisans] dans deux ans sur le chemin de la victoire ».

Cependant, cette ambition se heurte à une contrainte organisationnelle considérable : la dépendance du parti à la figure de son fondateur. Les défis de la routinisation du charisme – c’est-à-dire, la transformation d’un mouvement centré sur le charisme d’un leader en une organisation politique pérenne et institutionnalisée – et de la transmission de l’autorité politique apparaissent d’autant plus complexes que les exemples européens de partis personnels ont pour la plupart échoué dans ce processus. Forza Italia post-Berlusconi a connu un effondrement électoral spectaculaire, UKIP, chantre du Brexit, s’est marginalisé post-Farage et Ciudadanos post-Rivera a quasi disparu du paysage politique espagnol. Ces précédents interrogent sur la capacité du mouvement macroniste, quelle que soit sa future dénomination, à survivre à son démiurge.

La crise d’un modèle partisan

Les défis rencontrés par Renaissance se traduisent par les fractures internes d’une formation politique tiraillée entre héritage présidentiel et ambition post-Macron – de la prise de distance des députés du microparti En commun, à la scission ouverte portée par Gérald Darmanin avec son mouvement Populaires.

La déclaration d’Emmanuel Macron aux Jeunes avec Macron, le 5 juillet 2025 – « J’[aur]ai aussi besoin de vous pour dans deux ans, pour dans cinq ans, pour dans dix ans » – révèle, d’ailleurs, la permanence de ce bonapartisme organisationnel qui entrave toute refondation authentique. Président d’honneur de Renaissance, Macron neutralise les velléités d’autonomisation d’Attal. Il maintient ainsi son successeur dans une dépendance vis-à-vis de l’entreprise politique qu’il a lui-même créée.

Le 5 juillet 2025, Emmanuel Macron intervient lors de la célébration des 10 ans des Jeunes avec Macron : il y entretient l’ambiguité sur un éventuel retour après 2027.

Cette posture de contrôle à distance soulève une autre interrogation cruciale : Macron prépare-t-il déjà son retour pour 2032 ? Un tel projet expliquerait son refus de lâcher les rênes du parti, qu’il devrait conserver comme base organisationnelle en vue de 2032. En effet, si la Constitution limite le président à deux mandats consécutifs, elle reste floue sur la possibilité d’une deuxième réélection non consécutive.

The Conversation

Ludovic Grave ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

20.08.2025 à 17:14

Santé mentale des athlètes : le revers de la médaille après les JO

Charles Martin-Krumm, Professeur de l’enseignement supérieur, chercheur associé, Université de Lorraine

Cyril Tarquinio, Professeur de psychologie clinique, Université de Lorraine

Détresse psychologique, dépression… après une compétition comme les Jeux olympiques, les sportifs peuvent souffrir de troubles de santé mentale, même après avoir atteint leurs objectifs.
Texte intégral (2136 mots)

Détresse psychologique, dépression… après une compétition majeure comme les Jeux olympiques, les athlètes de haut niveau peuvent souffrir de troubles de santé mentale après avoir subi un échec… ou atteint leurs objectifs. Elles et ils doivent bénéficier d’un accompagnement psychologique spécifique, distinct de celui lié à la performance sportive.


Les Jeux olympiques de Paris 2024 ont été célébrés avec enthousiasme, mettant en lumière l’excellence organisationnelle et les performances remarquables des athlètes. Cependant, derrière la gloire et les médailles, se cache une réalité moins visible : le parcours difficile et les sacrifices immenses consentis par ces sportifs et sportives de haut niveau.

Contrairement à l’idée d’abnégation qui implique un sacrifice de soi au profit des autres, les athlètes de haut niveau adoptent souvent une posture plus individualiste, nécessaire pour se concentrer sur leur quête de performance. Ce dévouement intense les conduit à mettre de côté leurs proches, leur santé et leur bien-être psychologique.

Détourner l’attention de la douleur

Ils doivent aussi dissocier leur corps des signaux de fatigue et de douleur et développent une forme de « dissociation somatique », indispensable pour dépasser les limites physiques imposées par l’entraînement et par la compétition.

En psychologie du sport, la dissociation peut être décrire comme une stratégie d’entraînement visant à détourner l’attention de la douleur. On parle d’une « compartimentalisation de la douleur » ou d’un détachement des réponses émotionnelles pour renforcer les compétences motrices.

Un même continuum dissociatif semble se dessiner entre les observations issues de la psychologie du sport – qui décrivent une dissociation adaptative permettant de franchir les barrières physiques – et des travaux cliniques sur la dissociation somatique en lien avec des processus défensifs ou traumatiques.

Sportifs de haut niveau : une santé mentale mise à rude épreuve

Cette psychologie spécifique, centrée sur la performance individuelle, est le moteur qui pousse ces sportifs à répéter des efforts parfois perçus comme absurdes par les non-initiés : courir des kilomètres, soulever des poids, nager des heures. Pourtant, ce sacrifice a un coût élevé : la santé mentale des athlètes est souvent mise à rude épreuve.

Selon une étude récente, 6,7 % à 34 % des sportifs de haut niveau souffriraient de dépression. À titre de comparaison, ce taux est estimé à 12,5 % pour la population française adulte (chiffre Santé publique France en 2021). Des figures célèbres comme Thierry Henry, Serena Williams ou Naomi Osaka ont publiquement évoqué leurs luttes contre le mal-être.

Même des champions comme Michael Phelps ont traversé des épisodes dépressifs sévères et incitent à la création de fondations pour sensibiliser et prévenir ces troubles.

Détresse psychologique et bien-être peuvent cohabiter

La dépression, maladie psychique caractérisée par une tristesse profonde, une perte de motivation, des troubles du sommeil et des pensées suicidaires, touche environ 280 millions de personnes dans le monde.

Chez les sportifs, sa prévalence varie selon le sport, le sexe et le niveau d’entraînement. Dans une enquête britannique publiée en 2022, des chercheurs ont estimé que près de 24 % des athlètes olympiques et paralympiques souffraient d’une détresse psychologique élevée. Les femmes, les athlètes blessés ou malades, ainsi que ceux qui approchent de la retraite, apparaissaient comme particulièrement vulnérables.

Malgré une forte détresse psychologique, 71,7 % des athlètes déclaraient un bien-être subjectif positif, ce qui révèle que détresse et bien-être peuvent coexister de manière paradoxale.

La fin de carrière : une « petite mort » symbolique

De plus, la dépression peut survenir même après l’atteinte d’un objectif majeur, la médaille d’or ne constituant en rien une protection contre les troubles psychiques.

L’arrêt de la carrière sportive marque aussi souvent une rupture identitaire profonde : perte des repères quotidiens, diminution du statut social, disparition du cadre structurant de l’entraînement et des compétitions.

Cette période de transition, souvent difficile à anticiper, constitue un moment critique sur le plan psychologique. Elle s’accompagne fréquemment d’un sentiment de vide, d’un questionnement existentiel, et peut s’apparenter, comme nous le décrivons dans Psychologie positive des activités physiques et sportives. Corps, santé mentale et bien-être (« Univers psy », Dunod, 2024), à une véritable « petite mort » symbolique, marquant la fin d’un chapitre de vie et la nécessité d’en reconstruire un nouveau.

Chute des hormones de stress après la compétition

À noter qu’un état dépressif peut survenir après l’atteinte d’un objectif, même majeur, comme les Jeux olympiques. Après une compétition importante, la chute des hormones du stress provoque une phase de redescente émotionnelle, comparable à un sevrage d’adrénaline.

Cette dépendance psychologique à l’excitation de la compétition peut entraîner un vide émotionnel, aggravé par des facteurs tels que blessures ou retraite imminente. Les symptômes dépressifs, proches de ceux du surentraînement, incluent fatigue, perte de motivation et baisse des performances, et doivent être considérés comme une blessure à part entière, malgré la honte et la culpabilité qu’ils suscitent.

Un soutien extérieur est nécessaire

Le paradoxe des athlètes de haut niveau est qu’ils ont toujours puisé en eux-mêmes pour performer, alors que la guérison de la dépression exige au contraire de rechercher un soutien extérieur et de repenser son identité. Cette reconstruction identitaire est cruciale, car elle leur rappelle qu’ils sont humains, vulnérables, et non des êtres surhumains.

Par ailleurs, l’athlète doit réapprendre à ressentir son corps et ses émotions, non plus en dissociation pour la performance, mais en réintégrant ces sensations dans une nouvelle relation à soi.

Ce double processus – chercher de l’aide extérieure et réajuster son rapport intérieur au corps et à l’esprit – est essentiel pour éviter que la dépression ne devienne chronique et pour prévenir le développement de troubles associés comme l’anxiété ou le dopage.

TCC, pleine conscience, EMDR… quelles prises en charge sont adaptées ?

Ainsi, la dépression chez les athlètes de haut niveau est une blessure spécifique qui nécessite une approche adaptée, distincte de celle de la performance sportive.

Les thérapies cognitivo-comportementales (TCC) adaptées au contexte de la haute performance demeurent centrales pour traiter la dépression, l’anxiété et les pensées automatiques liées à l’échec ou à la rumination attachée à la compétition.

En complément, les programmes de pleine conscience (MBP) offrent désormais un soutien structuré. Une méta-analyse de 2024 démontre un effet moyen à fort sur l’anxiété compétitive ainsi que des améliorations de la confiance en soi et de la régulation émotionnelle, indépendamment du sport, de l’âge ou du genre. Un autre essai contrôlé récent signale une diminution significative de l’anxiété somatique et cognitive chez les sprinteurs, après une intervention en pleine conscience.

Par ailleurs, l’Eye Movement Desensitization and Reprocessing (EMDR), bien documentée dans le traitement des traumatismes, s’avère prometteuse dans le domaine sportif : une étude de cas auprès de golfeuses professionnelles, victimes d’un certain type de traumatismes sportifs, a montré une réduction notable de l’anxiété compétitive. De plus, une étude pilote auprès d’athlètes universitaires blessés a révélé que l’EMDR pouvait conduire à des performances personnelles records après intervention.

Enfin, des approches combinant psychoéducation, travail psychocorporel et interventions de groupe sont essentielles pour renforcer la résilience athlétique et prévenir les rechutes psychiques.

« Survivre à la victoire »… ou à l’échec

On parle dans le milieu sportif de plus en plus de « résilience ». Voilà un concept qui trouve une adaptation dans tous les milieux et qui, sans doute, reste mal compris et dénaturé la plupart du temps. La résilience pourrait se résumer comme la faculté de surmonter les épreuves, les difficultés et à s’adapter positivement aux défis de la vie.

Dans le cas des sportifs de haut niveau, il peut s’agir d’un échec sportif, d’un objectif non atteint, mais aussi de l’atteinte de l’objectif qui était le moteur même de ces athlètes de haut niveau.

Hubert Ripoll n’évoque-t-il pas le fait qu’il puisse être question de survivre à la victoire ? En soi, ce n’est pas un traumatisme, car en aucun cas ces évènements ne viennent mettre à mal la vie ou l’intégrité physique ou psychique de ces athlètes comme peuvent le faire un attentat, une guerre ou une maladie grave comme le cancer.

Dans le meilleur des cas, et loin de nous la volonté de banaliser la situation, il s’agit de situations de stress qui, même si elles sont intenses, ne peuvent pas être affublées d’une quelconque dimension psychotraumatique.

On peut, en effet, utiliser le terme de « résilience » pour caractériser les capacités de ces sportifs de haut niveau à faire face aux adversités propres à leurs situations d’athlètes.

Des athlètes qui devront rebondir

À la différence des athlètes des jeux de l’Antiquité, nos sportifs ne mettent jamais leur vie en péril. Mais il leur faudra rebondir, ce qui, dans ce contexte, signifie être capable de mettre en perspective les évènements auxquels ils ont été confrontés.


À lire aussi : Dans l’Antiquité, les Jeux olympiques avaient-ils une dimension politique ?


Il leur faut accepter, par exemple, que l’atteinte des performances attendues ou l’obtention d’une médaille ne sont que des détails. La performance sportive ne peut et ne doit pas être le moteur d’une vie.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

20.08.2025 à 17:13

Derrière l’unité transatlantique affichée à la Maison Blanche, l’absence de progrès vers une paix juste en Ukraine

Stefan Wolff, Professor of International Security, University of Birmingham

Les discussions tenues à Washington entre Trump, Zelensky et plusieurs leaders européens n’ont pas donné de résultats concrets.
Texte intégral (1918 mots)

Le 15 août, Donald Trump a rencontré Vladimir Poutine. Le 18, il a reçu Volodymyr Zelensky ainsi que la présidente de la Commission européenne Ursula von der Leyen, le secrétaire général de l’Otan Mark Rutte et plusieurs dirigeants européens (Emmanuel Macron, Friedrich Merz, Keir Starmer, Giorgia Meloni et Alexander Stubb). Ces échanges ont donné lieu à de nombreuses images marquantes et à quelques déclarations d’intention, mais une paix durable paraît toujours une perspective très lointaine.


Ce 18 août, à la Maison Blanche, Donald Trump et Volodymyr Zelensky ont tenté de définir les grandes lignes d’un éventuel accord de paix avec la Russie. Le ton de leur entretien a fortement contrasté avec celui de leur dernière conférence de presse conjointe à Washington en février 2025, qui s’était terminée par l’humiliation de Zelensky par Trump et son vice-président J. D. Vance.

Cette discussion, suivie d’une réunion des deux hommes avec les dirigeants de la « coalition européenne des volontaires », s’est tenue à peine trois jours après l’entretien Trump-Poutine en Alaska le 15 août, lequel avait été perçu par la plupart des observateurs comme une nette victoire politique du président russe. Les résultats des échanges du 18 août entre Trump, Zelensky et les Européens tendent à rééquilibrer dans une certaine mesure la situation en faveur de la partie ukrainienne.

Pressions de Trump sur Zelensky plus que sur Poutine

Ce résultat relativement positif n’était pas acquis d’avance. Au cours du week-end, Trump avait publié sur sa plateforme Truth Social un post où il affirmait que le président ukrainien « peut mettre fin à la guerre avec la Russie presque immédiatement ». Mais cette possibilité était assortie d’une condition : Zelensky devait officiellement accepter la perte de la Crimée au profit de la Russie et renoncer à une future adhésion de son pays à l’Otan.

Post de Donad Trump sur Truth Social, le 18 août 2025, où il affirme que Zelensky peut rapidement mettre fin à la guerre, mais en renonçant à la Crimée (dont Trump attribue la perte à Barack Obama) et à la perspective d’une adhésion à l’Otan.

Cette idée ainsi que d’autres suggestions similaires relatives à des « échanges de territoires » entre la Russie et l’Ukraine ont déjà été catégoriquement rejetées par le président ukrainien.

Il est important de noter que la position de Kiev a été pleinement soutenue par les alliés européens de l’Ukraine. Les dirigeants de la « coalition des volontaires » avaient publié, dès le 16 août, une déclaration commune soulignant que « c’est à l’Ukraine qu’il appartiendra de prendre des décisions concernant son territoire ».

En revanche, leur déclaration était plus ambiguë en ce qui concerne l’adhésion à l’Otan. Sur ce sujet, les dirigeants européens ont, certes, affirmé que « la Russie ne peut avoir de droit de veto sur le chemin de l’Ukraine vers l’Union européenne et l’Otan » ; mais la coalition a aussi réaffirmé son engagement à « jouer un rôle actif » dans la garantie de la sécurité future de l’Ukraine, ce qui a ouvert la voie à Trump pour offrir à Kiev des « protections similaires à celles prévues par l’article 5 » du traité de l’Alliance atlantique contre toute future agression russe et de lui promettre « une aide considérable en matière de sécurité ». L’article 5 affirme qu’une attaque contre un membre est une attaque contre tous et engage l’alliance à assurer une défense collective.

Durant la rencontre télévisée entre Trump et ses visiteurs, organisée avant une autre réunion, à huis clos cette fois, il a été question d’un accord par lequel l’Ukraine accepterait certaines concessions territoriales en contrepartie de la paix et de garanties communes fournies par les États-Unis et les Européens. De différentes façons, chacun des invités européens a reconnu les efforts réalisés par Trump en vue d’un règlement et tous ont souligné l’importance d’une approche commune à l’égard de la Russie afin de garantir que tout accord aboutisse à une paix juste et durable.

Signe que ses invités n’étaient pas disposés à accepter sans broncher les termes de l’accord qu’il avait ramené de sa rencontre avec Poutine en Alaska, le président des États-Unis a alors interrompu la réunion pour appeler son homologue russe. Les signaux en provenance de Russie étaient loin d’être prometteurs, Moscou rejetant tout déploiement de troupes de l’Otan en Ukraine et accusant spécifiquement le Royaume-Uni de chercher à saper les efforts de paix mis en œuvre par les États-Unis et par la Russie.

La paix reste difficile à atteindre

À l’issue de la réunion, lorsque les différents dirigeants ont présenté leurs interprétations respectives de ce qui avait été convenu, deux conclusions se sont imposées.

Premièrement, la partie ukrainienne n’a pas cédé à la pression des États-Unis et les dirigeants européens, tout en s’efforçant de flatter Trump, avaient également campé sur leurs positions. Il est important de noter que Trump ne s’était pas retiré du processus pour autant et semblait au contraire vouloir continuer d’y participer.

Deuxièmement, la Russie n’a pas cédé de terrain non plus. La prochaine étape devrait être une entrevue Poutine-Zelensky, mais le flou plane encore sur ce projet, aussi bien en ce qui concerne le lieu que la date. Cette rencontre devra être suivie, selon Trump, par une réunion à trois entre Zelensky, Poutine et lui-même.

Un processus de paix – si l’on peut l’appeler ainsi – est donc, en quelque sorte, à l’œuvre ; mais on est encore très loin d’un véritable accord de paix. Peu de choses ont été dites à la suite de la réunion à la Maison Blanche sur les questions territoriales. Les pressions à exercer sur la Russie n’ont été évoquées que brièvement dans les commentaires des dirigeants européens, dont l’ambition de s’impliquer officiellement dans les négociations de paix continue à ce stade de relever de la chimère. Et malgré l’optimisme initial concernant les garanties de sécurité, aucun engagement ferme n’a été pris, Zelensky se contentant de prendre note du « signal important envoyé par les États-Unis concernant leur volonté de soutenir et de participer à ces garanties ».

La paix en Ukraine reste donc, pour l’instant, hors de portée. Le seul succès tangible de la récente séquence politique est que le processus envisagé par Trump pour parvenir à un accord de paix n’a pas complètement échoué. Mais ce processus est extrêmement lent et, pendant ce temps, la machine de guerre russe déployée contre l’Ukraine continue de progresser.

En fin de compte, les discussions du 18 août n’ont pas changé grand-chose. Elles ont simplement confirmé que Poutine continue de gagner du temps, que Trump n’est pas disposé à exercer de réelles pressions sur lui et que l’Ukraine et l’Europe n’ont aucun moyen de pression efficace sur l’une ou l’autre des parties.

Trump a déclaré avec assurance avant sa réunion avec Zelensky et les dirigeants européens qu’il savait exactement ce qu’il faisait. C’est peut-être vrai, mais cela ne semble guère suffire à aboutir à une paix durable au vu de la posture inflexible de son homologue russe.

The Conversation

Stefan Wolff a reçu par le passé des financements du Conseil britannique de recherche sur l'environnement naturel, de l'Institut américain pour la paix, du Conseil britannique de recherche économique et sociale, de la British Academy, du programme « Science pour la paix » de l'OTAN, des programmes-cadres 6 et 7 de l'UE et Horizon 2020, ainsi que du programme Jean Monnet de l'UE. Il est administrateur et trésorier honoraire de l'Association britannique d'études politiques et chercheur senior au Foreign Policy Centre de Londres.

PDF

20.08.2025 à 17:13

Syrie : patrimoine historique en péril entre guerre, pillage et réappropriation

Mohamed Arbi Nsiri, Docteur en histoire ancienne, Université Paris Nanterre – Université Paris Lumières

Le patrimoine exceptionnel qu’ont laissé sur le territoire syrien les empires et dynasties qui s’y sont succédé est aujourd’hui soumis au pillage, aux trafics et aux destructions.
Texte intégral (2330 mots)
Temple de Baalshamin, Palmyre Wikipedia, CC BY

Le territoire syrien, habité de manière continue depuis plus de cinq millénaires, est l’un des berceaux les plus anciens et les plus féconds de la civilisation humaine. De l’émergence des premiers centres urbains protohistoriques, tels qu’Ebla et Mari, à l’essor des royaumes araméens, en passant par l’intégration progressive au sein des grands ensembles impériaux – assyrien, achéménide, hellénistique, romain, byzantin — puis par l’islamisation du pays sous les dynasties omeyyade, abbasside, fatimide, seldjoukide, ayyoubide et enfin ottomane, la Syrie a constitué un carrefour civilisationnel d’une exceptionnelle densité historique.


Ce territoire a vu se superposer et dialoguer des traditions culturelles, linguistiques, religieuses et artisanales qui ont profondément marqué le développement du Proche-Orient antique et médiéval, tout en exerçant une influence durable bien au-delà de ses frontières. Cette longue histoire, stratifiée dans les sols du Levant, a légué au monde un patrimoine matériel et immatériel d’une valeur inestimable.

Mais ce legs millénaire, dont témoignent les innombrables sites archéologiques disséminés sur le territoire – Palmyre, Doura Europos, Ras Shamra, Apamée ou encore Alep – est aujourd’hui gravement menacé. Depuis le déclenchement de la guerre civile syrienne en 2011, le pays est le théâtre d’un processus de destruction systématique de son patrimoine historique. Le pillage, la contrebande, la désagrégation des institutions patrimoniales et les trafics transnationaux d’antiquités composent les symptômes d’un drame silencieux : celui de la désintégration d’une mémoire collective enracinée dans la plus haute Antiquité.

Entre chaos et prédation : archéologie clandestine et effondrement de la régulation

La désintégration progressive des structures étatiques syriennes, consécutive au déclenchement de la guerre civile, a coïncidé avec une militarisation généralisée du territoire, affectant non seulement les institutions de gouvernance civile, mais également les dispositifs de protection du patrimoine archéologique.

Dans ce contexte d’effondrement institutionnel, un vide juridique et sécuritaire s’est installé, ouvrant la voie à la prolifération de pratiques clandestines de fouille, de contrebande et de revente d’antiquités. Ce vide a été exploité à la fois par des acteurs locaux opérant dans l’informalité – parfois en lien avec des organisations terroristes – et par des réseaux transnationaux de trafic d’objets culturels, structurés et souvent en lien avec des circuits de blanchiment sur les marchés internationaux de l’art.

Selon les estimations du Musée national de Damas, plus d’un million d’objets archéologiques, de typologies et de provenances variées, auraient été extraits illégalement du territoire syrien au cours de la dernière décennie. Il s’agit là d’une hémorragie patrimoniale sans précédent dans l’histoire contemporaine du Proche-Orient, surpassant même, par son intensité et sa durée, les vagues de pillages observées en Irak après 2003.

Les observations satellitaires, croisées avec les enquêtes de terrain menées par des archéologues syriens et internationaux permettent de dresser une cartographie partielle mais significative de ces atteintes. Dans le seul gouvernorat d’Idleb, près de 290 sites archéologiques auraient été soumis à des fouilles illégales, souvent menées de nuit, dans des conditions rudimentaires, mais avec une organisation logistique bien rodée. Dans l’ancienne ville d’Alep, classée au patrimoine mondial de l’Unesco depuis 1986, plusieurs monuments ont été purement et simplement détruits, rendant toute restauration ou étude ultérieure impossible.


À lire aussi : Khaled Al As’ad, le martyr de Palmyre


Cette dynamique ne saurait être réduite à une violence opportuniste, marginale dans un contexte de guerre. Elle relève d’une véritable économie de guerre, où le patrimoine matériel est transformé en capital monnayable, parfois utilisé comme monnaie d’échange entre factions armées. Plus encore, elle révèle une instrumentalisation de la mémoire collective syrienne, marquée par la destruction systématique de sites préislamiques.

Par le pillage, la falsification des provenances, l’effacement des inventaires officiels et la circulation sur des marchés complaisants, c’est tout un tissu de significations historiques, identitaires et culturelles qui se trouve disloqué.

Un pillage à visages multiples : du régime aux factions armées

Le trafic d’antiquités en Syrie ne saurait être envisagé isolément du contexte politique interne qui a façonné le pays bien avant l’éclatement de la guerre civile. Loin d’être une simple conséquence du chaos engendré par le conflit, la marchandisation du patrimoine puise ses racines dans des pratiques de prédation anciennes, souvent tolérées, voire encouragées, par certaines élites politico-militaires du régime baasiste.

Ainsi, dès les années précédant la guerre, des acteurs proches du pouvoir mettaient en œuvre des fouilles clandestines sur des sites archéologiques majeurs, à l’instar de Tell al-Masih.

Avec la montée du conflit armé, le contrôle des sites patrimoniaux a rapidement cessé d’être un simple enjeu administratif pour devenir un levier stratégique dans la compétition entre factions. L’organisation terroriste de l’État islamique (Daech) a exacerbé cette dynamique en conjuguant destruction et exploitation.

Sous le couvert d’une rhétorique théologico-idéologique prônant la purification religieuse, elle a mené des campagnes systématiques de démolition de monuments antiques, tout en organisant parallèlement un trafic lucratif d’objets archéologiques, acheminés principalement vers la Turquie.

L’année 2015 marque un tournant dans cette politique de destruction ciblée, particulièrement envers le patrimoine religieux chrétien syrien. Dans la vallée du Khabour, bastion historique des Assyriens, Daech s’empare en mars de la localité de Tel Nasri. Le 5 avril, jour de Pâques, l’église assyrienne de la ville est détruite, symbolisant une volonté manifeste d’effacer la présence chrétienne ancienne sur le territoire.

Quelques jours auparavant, l’église catholique chaldéenne de Saint-Markourkas avait subi un sort similaire. Ces destructions dépassent la simple iconoclastie ou l’effet de terreur : elles s’inscrivent dans un projet plus large de réécriture violente de la mémoire collective syrienne, visant à éliminer la pluralité confessionnelle qui constitue historiquement le socle social et culturel du pays.

Dans ce contexte de désinstitutionnalisation profonde, marqué par l’absence totale de régulation et de surveillance, s’est développée une économie de guerre parallèle où les artefacts archéologiques sont devenus des biens stratégiques et marchandisables. Leur circulation, facilitée par leur portabilité et leur anonymat relatif, s’est déployée à travers des réseaux transnationaux souvent ignorés, voire tolérés, par les circuits internationaux de l’art. Cette situation révèle l’étroite porosité entre criminalité patrimoniale, spéculation artistique et économie globalisée.

Sur les routes du trafic d’antiquités syriennes.

Repenser la gouvernance du patrimoine en temps de crise : pistes pour une solution concertée

Face à l’ampleur et à la complexité de la tragédie patrimoniale que traverse la Syrie, une réponse limitée à des mesures purement sécuritaires ou diplomatiques apparaît nécessairement insuffisante. La protection et la restitution du patrimoine syrien exigent au contraire une mobilisation multilatérale, coordonnée et intégrée, associant les institutions syriennes, les États de transit, les acteurs du marché de l’art, les musées, ainsi que les organismes internationaux et régionaux de régulation tels que l’Unesco, l’Alesco et l’Interpol.

Cette démarche concertée doit s’appuyer sur trois piliers essentiels et complémentaires.

Premièrement, la reconstruction documentaire et l’exploitation des technologies avancées constituent une priorité absolue. L’absence ou la dégradation des archives officielles, consécutive à la longue période de conflit et à la négligence passée, impose la mise en place de bases de données numériques centralisées.

Ces plates-formes doivent s’appuyer sur des technologies innovantes, notamment l’intelligence artificielle et l’analyse d’images satellitaires, afin d’identifier et de recenser les objets dispersés sur le territoire syrien et au-delà.

Par ailleurs, ces outils numériques permettraient de surveiller en temps réel les sites archéologiques encore préservés, renforçant ainsi la prévention contre les fouilles illégales et les actes de vandalisme. Ce travail documentaire, couplé à une coopération régionale et internationale, favoriserait le recoupement des informations avec les registres étrangers, souvent lacunaires, tout en rendant plus efficiente la traque des objets volés.

Deuxièmement, une justice culturelle doit être entreprise, comprenant des enquêtes rétrospectives approfondies. Il est indispensable d’étendre les investigations au-delà de la seule période post-2011, afin de démanteler les réseaux de trafic qui se sont progressivement constitués, parfois avec la complicité tacite ou active de certaines élites du régime antérieur.

Ce volet de la lutte contre le pillage nécessite une coopération judiciaire et policière internationale, dans laquelle les États concernés doivent s’engager pleinement à partager les informations et à collaborer pour identifier les détenteurs illégitimes. Ce processus permettrait non seulement de responsabiliser les acteurs impliqués, mais aussi de redonner une visibilité juridique aux biens culturels spoliés, condition sine qua non pour leur restitution.

Enfin, la création d’un fonds international dédié au patrimoine syrien en danger s’avère indispensable. Ce mécanisme de financement, alimenté par les États contributeurs et les institutions muséales impliquées dans la conservation et l’exposition d’objets d’origine syrienne, aurait pour vocation de soutenir plusieurs actions concrètes.

Il pourrait notamment financer la formation et le renforcement des capacités des professionnels du patrimoine locaux, qui doivent être au cœur de la sauvegarde et de la gestion du patrimoine national. Il offrirait également les moyens nécessaires pour protéger les quelques sites archéologiques encore intacts, à travers la mise en place d’infrastructures sécuritaires adaptées. Enfin, ce fonds serait un levier pour faciliter la restitution des objets identifiés, en soutenant les procédures diplomatiques, juridiques et logistiques afférentes.

En somme, seule une approche globale, combinant innovation technologique, coopération judiciaire approfondie et engagement financier soutenu, permettra de faire face efficacement au défi colossal que représente la sauvegarde du patrimoine syrien. Il s’agit non seulement de restaurer la mémoire matérielle d’une civilisation millénaire, mais aussi de contribuer à la reconstruction symbolique d’une nation profondément meurtrie, en préservant l’héritage culturel qui constitue l’un des fondements de son identité.

La richesse historique et patrimoniale de la Syrie, fruit d’une histoire millénaire, ne saurait se réduire à un simple vestige archéologique ou à un enjeu politique passager. Elle incarne une mémoire vivante, tissée de pluralité et de coexistence, que le pillage et la destruction menacent d’effacer définitivement. Face à cette menace, il devient impératif de dépasser les réponses ponctuelles et sectorielles pour bâtir une stratégie globale et concertée, qui associe justice, savoir et coopération internationale. Ce n’est qu’à travers un engagement collectif et responsable que le patrimoine syrien pourra renaître, non seulement comme témoignage du passé, mais aussi comme fondement d’un avenir partagé.

The Conversation

Mohamed Arbi Nsiri ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

20.08.2025 à 17:12

Reconnecter l’agriculture et l’élevage est nécessaire, mais l’effet rebond peut annuler les bénéfices espérés

Julia Jouan, Enseignante-chercheuse en économie agricole, UniLaSalle

Matthieu Carof, Enseignant-chercheur en agronomie, Institut Agro Rennes-Angers

Olivier Godinot, maître de conférences en agronomie

Thomas Nesme, Professeur d'agronomie à Bordeaux Sciences Agro, Inrae

Les cultures ont besoin d’azote, dont les déjections animales sont riches. Reconnecter agriculture et élevage paraît donc intéressant, mais gare aux effets pervers.
Texte intégral (1920 mots)

La reconnexion des cultures et de l’élevage entre exploitations agricoles est prometteuse pour rendre l’agriculture plus durable. Néanmoins, un effet contre-productif peut apparaître et contrebalancer les bénéfices environnementaux attendus, à cause de l’intensification de la production agricole.


Depuis le milieu du XXe siècle, l’agriculture française tend à se spécialiser, avec une déconnexion entre les productions végétales et animales. Ce phénomène a d’abord été observé à l’échelle des exploitations agricoles, quand certaines d’entre elles se sont spécialisées soit en cultures, soit en élevage afin de bénéficier d’économies d’échelle importantes.

Mais cette spécialisation a aussi eu lieu à l’échelle de régions entières qui se sont spécialisées soit en grandes cultures, comme la région céréalière de la Beauce, soit en élevage, comme la Bretagne. Néanmoins, depuis les années 2000, les impacts négatifs sur l’environnement de cette évolution a remis en question la spécialisation de l’agriculture.

En effet, celle-ci va de pair avec son industrialisation, dont les conséquences sur l’environnement sont largement reconnues : pollution de l’eau, dégradation des sols, réduction de la biodiversité, émissions de gaz à effet de serre. Ainsi, la plupart des avantages économiques et environnementaux des agroécosystèmes diversifiés sont perdus lors de la spécialisation.

Les conséquences de la spécialisation de l’agriculture

Un des principaux écueils de la déconnexion entre cultures et élevages est la gestion de l’azote, alors même que l’azote est un élément indispensable à la croissance et au développement des plantes. Lorsque l’agriculture et l’élevage étaient couplés, les apports en azote des cultures étaient majoritairement apportés par les effluents d’élevage (fumier, lisier), riches en cet élément.

Avec la spécialisation de l’agriculture, les exploitations et régions spécialisées en grandes cultures souffrent d’un déficit en azote, qui est généralement compensé par des achats massifs d’engrais synthétiques. Au contraire, les exploitations et les régions spécialisées en élevage sont caractérisées par un excès d’azote issu des effluents d’élevage qui sont présents en quantités très importantes. Cet excédent est tel qu’une partie de l’azote se perd dans l’environnement et cause des pollutions importantes, comme celle des algues vertes en Bretagne.

Par ailleurs, la question de l’azote s’étend aussi à celle des protéines dans l’alimentation animale, car le constituant principal des protéines est l’azote. Les exploitations et les régions spécialisées en élevage ne produisant pas suffisamment d’aliments pour couvrir les besoins des animaux, elles doivent en acheter. C’est notamment le cas du tourteau de soja majoritairement importé du Brésil, ce qui peut conduire au phénomène de déforestation importée.

« Comment nourrir la France de 2050 sans engrais chimiques ? », Le Monde.

Les échanges entre exploitations, ou comment coopérer pour une agriculture plus durable

Une solution de plus en plus souvent avancée pour faire face à ce déséquilibre dans la gestion de l’azote consiste à valoriser les liens culture-élevage, non pas à l’intérieur des exploitations agricoles, mais entre les exploitations d’une même région : les exploitations de grandes cultures pourraient ainsi vendre des aliments riches en protéines aux exploitations d’élevage, qui pourraient utiliser ces cultures pour nourrir les animaux.

En contrepartie, les exploitations d’élevage pourraient exporter des effluents vers des exploitations de grandes cultures qui manquent d’azote pour fertiliser leurs cultures. Cet exemple d’économie circulaire semble n’avoir que des bénéfices sur le papier, mais qu’en est-il réellement ? Notre article montre que les échanges entre exploitations ne sont pas toujours aussi vertueux, du fait de l’apparition d’effets rebonds.

Effet rebond : de quoi parle-t-on ?

Un effet de rebond apparaît lorsque des gains d’efficacité permettant d’obtenir un même produit ou service à moindre coût, entraînent en « rebond » une augmentation de la consommation de ce bien ou service, ce qui finit par annuler une partie des bénéfices environnementaux initialement réalisés. Dans certains cas extrême, l’effet rebond peut entraîner un effet « retour de flamme » lorsque l’augmentation de la consommation compense complètement les bénéfices initiaux.

William Stanley Jevons, l’économiste anglais auteur de La Question du charbon et théoricien de l’effet rebond
William Stanley Jevons (1835-1882), l’économiste britannique auteur de la Question du charbon (1865) et théoricien de l’effet rebond.

L’effet de rebond a été décrit pour la première fois sous le nom de « paradoxe de Jevons » pendant la révolution industrielle et a ensuite été souvent observé dans de nombreuses problématiques relatives à l’énergie. Un exemple typique d’effet rebond apparaît lorsqu’on utilise plus souvent sa voiture parce qu’elle consomme moins de carburant ou lorsqu’on chauffe plus fortement son logement après avoir installé un système de chauffage performant.

Dans ces deux exemples, l’économie d’énergie, donc la réduction de la pollution initialement prévue, est amoindrie par l’augmentation de la consommation. En agriculture, l’effet rebond a été peu documenté, et d’autant moins lorsque les gains d’efficacité résultent des échanges entre exploitations, comme c’est le cas pour notre étude.

Effets rebond et « retours de flamme » dans certaines exploitations qui coopèrent

À travers notre étude, nous voulions comprendre si l’échange d’effluents ou d’aliments entre exploitations pouvait donner lieu à un effet rebond et donc limiter les bénéfices environnementaux d’une telle coopération.

Pour cela, nous avons réalisé une enquête auprès de 18 exploitations agricoles situées dans la région de Saragosse en Espagne : la moitié des exploitations est spécialisée en grande culture et l’autre moitié en élevage. Parmi ces 18 exploitations, certaines échangent des effluents ou des aliments tandis que d’autres ne le font pas. Nous avons ensuite calculé deux indicateurs de l’effet rebond de l’azote : l’un pour les exploitations de grandes cultures pour découvrir si les échanges permettent de consommer moins d’engrais synthétiques et l’autre pour les exploitations d’élevage pour découvrir si les échanges permettent de limiter les risques de fuites d’azote dans l’environnement.

L’analyse des résultats montre que seulement une exploitation de grande culture sur quatre utilise moins d’engrais synthétiques grâce à l’échange d’effluents. Les trois autres connaissent, non pas un effet rebond, mais un effet « retour de flamme ». Elles utilisent bien des effluents, mais continuent aussi d’appliquer des engrais synthétiques. Peut-être les agriculteurs craignent-ils que les effluents seuls n’apportent pas assez d’azote aux cultures ? Ils continueraient alors d’utiliser des engrais synthétiques pour s’assurer d’obtenir de bons rendements.

Dans les exploitations d’élevage étudiées, deux exploitations sur les cinq qui échangent des effluents ont des pertes d’azote plus faibles que celles qui n’en échangent pas. Les trois autres exploitations subissent un effet rebond (pour l’une d’entre elles), voire un effet « retour de flamme » (pour deux d’entre elles). Comment cela s’explique-t-il ?

En exportant des effluents vers d’autres exploitations, ces fermes se sont libérées d’une contrainte réglementaire qui limite le nombre d’animaux par hectare afin de pouvoir gérer leurs effluents correctement. Sans cette contrainte, elles peuvent élever plus d’animaux, augmentant par la même occasion leurs achats d’aliments, ce qui augmente le risque de pertes azotées.

À travers notre étude, nous montrons qu’il est important de questionner les potentiels effets rebond en agriculture, car, c’est un sujet trop souvent oublié lorsqu’on promeut des nouvelles pratiques qui sont a priori bénéfiques pour l’environnement. En effet, dans notre étude, des effets rebond sont parfois apparus lorsque les grandes cultures et l’élevage étaient reconnectés grâce à des échanges entre fermes.

Autrement dit, la coopération entre les fermes spécialisées n’amène pas forcément des économies d’azote et donc des bénéfices environnementaux. Néanmoins, cette coopération reste une piste prometteuse pour diminuer les impacts négatifs de l’agriculture, tout en profitant des avantages de la spécialisation agricole, à condition de faire en sorte d’éviter les effets rebond.

Pour cela, des mesures plus ambitieuses sur la taille des troupeaux ou sur la gestion de l’azote devraient être mises en place afin d’éviter une intensification de la production agricole. Le Danemark a récemment pris cette direction en proposant aux agriculteurs l’équivalent de 100 dollars par tonne pour qu’ils réduisent les émissions de gaz à effet de serre provenant de la fertilisation azotée.

The Conversation

Ce travail de recherche a bénéficié de financements du projet Cantogether, EU 7th Framework Programme Grant agreement no. FP7-289328

Ce travail de recherche a bénéficié de financements du projet Cantogether, EU 7th Framework Programme Grant agreement no. FP7-289328

PDF

20.08.2025 à 17:12

Échouer, s’entraider, oser : la culture skate au service de l’éducation

Sander Hölsgens, Assistant Professor, Leiden Institute of Cultural Anthropology and Development Sociology, Leiden University

Le skateboard peut-il renforcer la motivation à apprendre ? Cette discipline permet en tout cas de développer des qualités propices à la découverte, selon la recherche.
Texte intégral (1752 mots)
Au skateboard, la maîtrise d’une figure suppose de multiples essais. Dean Drobot/Shutterstock

Faire du skateboard, c’est apprendre à exécuter des figures difficiles dans des environnements inconnus. Et cela peut aider les jeunes à maîtriser d’autres types de compétences comme l’expérimentent des communautés d’apprentissage et, parfois même, des établissements scolaires.


Dans un établissement de Malmö, en Suède, le skateboard fait partie du programme scolaire. Directeur adjoint du lycée Bryggeriets, John Dahlquist dispense des cours dans cette discipline et en intègre des enseignements dans d’autres matières. Son constat : ces moments de divertissement collectifs contribuent à donner envie aux adolescents d’aller à l’école. Dans un livre que j’ai récemment coédité sur le skateboard et l’enseignement, il note que certains élèves sont même impatients de retourner en classe après le week-end.

Le skateboard est une activité créative qui nécessite de l’ingéniosité pour s’adapter à de nouveaux environnements. Il comporte aussi une dimension collective et sociale : lorsqu’il s’agit d’apprendre quelque chose de nouveau, les skateurs s’encouragent mutuellement, reconnaissant que chacun a un niveau différent et fait face à des défis distincts.

Lorsque le skateboard est pratiqué comme il se doit, il permet de s’épanouir individuellement au sein d’une communauté solidaire et bienveillante. C’est une activité qui suppose également d’accepter l’échec. Il est impossible de maîtriser une figure sans multiplier les essais – c’est-à-dire échouer, encore et encore.

Avec mes collègues, nous avons mené des recherches sur ce que vaut la philosophie du skateboard à l’école et sur la manière dont les enseignants peuvent l’intégrer dans leurs cours.

Prenons l’exemple de l’enseignement de M. Dahlquist à Malmö. Il note que l’intégration du skateboard à d’autres matières a de nombreux effets notables. L’activité physique améliore la concentration. Certains élèves affirment même qu’ils n’auraient pas pu réussir ainsi dans un autre environnement d’apprentissage, car ils auraient été incapables de se concentrer sur la tâche à accomplir.

Développer une mentalité de skateur – c’est-à-dire, être prêt à apprendre des figures difficiles dans des environnements inconnus – a, d’autre part, permis aux élèves d’acquérir la capacité de maîtriser d’autres types de compétences nouvelles.

Capable d’affronter l’échec

Le processus de dépassement de la peur de l’échec est crucial. S’ils veulent apprendre de nouvelles figures, les skateurs ne peuvent pas se permettre d’avoir peur de tomber. La motivation à répéter ses efforts pour apprendre aide également les skateurs dans d’autres domaines de la vie. Les élèves de Bryggeriets ne s’inquiètent pas tant que ça d’avoir de mauvaises notes, précisément parce qu’ils y voient une occasion d’apprendre et d’avancer.

C’est ce que raconte Dahlquist :

« À la fin de mes cours, je dois la plupart du temps mettre les élèves à la porte. “J’y suis presque, laissez-moi encore faire trois essais”, me supplient certains. »

Cette façon de voir les choses réduit l’importance des notes dans l’éducation et, par extension, améliore la santé mentale des élèves. Ma collègue Esther Sayers, qui a mené des recherches sur le terrain à Bryggeriets, a découvert un autre effet. Les enseignants aident les élèves à développer les compétences nécessaires pour se motiver et à atteindre un état propice à l’inspiration.

Jeunes riant avec un skateboard
Le skateboard favorise une culture d’apprentissage sans compétition. PeopleImages.com -- Yuri A

Le lycée Bryggeriets n’est pas le seul endroit où le skateboard aide à enseigner comment apprendre. Au-delà de son statut historique de culture urbaine autodisciplinée, le skateboard joue désormais un rôle important dans la création de communautés d’apprentissage engagées à travers le monde. L’organisation berlinoise Skateistan organise des cours de skate, permet aux jeunes d’accéder à l’éducation et offre des fonds à de jeunes leaders prometteurs.

La Concrete Jungle Foundation construit des skateparks en collaboration avec des jeunes au Pérou, au Maroc et en Jamaïque, afin de permettre l’échange de connaissances et favoriser l’appropriation locale et l’apprentissage. De même, la Fondation Harold-Hunter, basée à New York, organise des ateliers de skate assortis d’un mentorat et d’un accompagnement professionnel.

Mettre l’accent sur le processus d’apprentissage

Nos collègues Arianna Gil et Jessica Forsyth ont étudié des groupes de skateurs issus des classes populaires noires et latino-américaines, pilotés par des organisateurs communautaires de genres divers. Elles ont constaté que des groupes tels que Brujas et Gang Corp mobilisent les skateurs se mobilisent autour du leitmotiv « Pour nous, par nous ».

Remettant en question les modèles institutionnels d’autorité, ces groupes de skateurs développent des services ancrés dans les espoirs et les aspirations de leurs communautés, allant de séances d’information à des programmes récréatifs. On y trouve aussi bien une conférence sur l’histoire et la signification des sweats à capuche, ainsi que des modules sur le pouvoir de la narration et les dangers de la propagande. L’essentiel ici est d’apprendre des choses que l’on rencontre dans la vie quotidienne.

Les skateurs qui vivent dans la pauvreté et l’oppression créent leur propre écosystème pour apprendre les uns des autres, hors d’un système éducatif conçu de manière descendante. Cela signifie créer un modèle d’école populaire où les groupes de skateurs choisissent ce qu’ils veulent apprendre et comment ils veulent l’apprendre. Plutôt que des notes et des diplômes, l’éducation est ici structurée autour du processus d’apprentissage entre pairs – avec l’objectif permanent de transmettre les connaissances qu’on acquiert dans un avenir proche.

Les effets de cette approche sont triples. Premièrement, elle met l’accent sur le mentorat et sur le parcours d’apprentissage, ce qui favorise l’échange de connaissances entre les générations. Deuxièmement, l’esprit DIY (Do it yourself) du skateboard peut aider à surmonter les difficultés d’accès à la formation. En adoptant des pratiques et des formats d’enseignement populaire, l’éducation peut être adaptée aux besoins et aux désirs spécifiques d’une communauté, plutôt que de suivre des objectifs d’apprentissage standardisés.

Troisièmement, plutôt que de se concentrer sur le fait de devoir mémoriser des informations pour des évaluations et des notes, ce nouvel écosystème est structuré autour de l’apprentissage par problèmes. Dans un monde confronté à des problèmes, comme les violations des droits humains et des contextes d’hostilité, les skateurs apprennent non seulement à analyser leur environnement, mais aussi à faire face aux structures sociales oppressives et à s’engager contre elles.

Alors que l’éducation est confrontée à des coupes budgétaires croissantes et à des influences politiques accrues, le skateboard ouvre la voie à de nouvelles façons d’organiser nos espaces d’apprentissage. Les écoles et les enseignants peuvent favoriser l’implication des élèves en intégrant cette culture de l’apprentissage qui décentralise les jugements et célèbre les tentatives plutôt que les succès.

The Conversation

Sander Hölsgens a reçu une bourse de l'OCW, aux Pays-Bas. Il est affilié à Pushing Boarders, une plateforme qui suit l'impact social du skateboard à travers le monde.

PDF

20.08.2025 à 17:12

Localiser ses activités dans une ville-monde : quelle incidence sur la performance financière des multinationales ?

Ana Colovic, Professeur de stratégie / Professor of Strategy, Neoma Business School

Helen Du, Professeure assistante en Stratégie, Neoma Business School

Paris attire des entreprises du monde entier, comme toutes les villes-mondes. Quelles sont les caractéristiques de ces dernières ? Quel type d’entreprise est le mieux à même d’en profiter ?
Texte intégral (1254 mots)

Ce n’est pas un hasard si Paris, outre les touristes, attire des entreprises venues du monde entier. La capitale de la France fait partie de ce qu’on appelle « villes-mondes ». Quels sont leurs atouts ? Ne sont-elles pas victimes de leur succès ? Quel type d’entreprises ont vraiment intérêt à s’y installer ?


Comme chaque année, au mois de juin dernier, le salon Vivatech s’est déroulé à Paris, attirant les entreprises tech du monde entier. Plusieurs entreprises étrangères du domaine de l’intelligence artificielle (IA) ont d’ailleurs récemment choisi de localiser leurs activités à Paris : Insider, une plateforme singapourienne d’expérience client, Avanade, leader mondial états-unien des solutions numériques Microsoft en IA, ou bien Tata Consultancy Services, géant indien des services informatiques. De fait, Paris fait partie du club privilégié des villes-mondes ou global cities, ces villes qui concentrent des volumes colossaux d’investissements directs étrangers.

Les villes-mondes comme New York, Londres, Paris ou Tokyo sont des centres de commande et de contrôle de l’économie mondiale. Elles possèdent des caractéristiques uniques. Le réseau de recherche Globalization & World Cities de l’Université de Loughborough en Angleterre propose un classement de ces villes dites mondiales en se basant sur les activités de 175 cabinets de conseil et d’audit (dont les plus connus sont les Big 4 : Deloitte, EY, KPMG et PwC) dans 785 villes à travers le monde.

Les chercheurs établissent trois grandes catégories de villes-monde : alpha, beta et gamma. Parmi les villes françaises, Paris se situe dans la catégorie alpha, Lyon dans la catégorie beta et Marseille dans la catégorie gamma.

Mais la localisation des activités dans ces villes-mondes a-t-elle des conséquences sur la performance des entreprises ? Dans notre recherche, nous répondons positivement à cette question et montrons que localiser une part importante des activités dans les « villes globales » conduit à une meilleure performance financière de l’entreprise multinationale. Toutefois, c’est surtout vrai pour les multinationales opérant dans des secteurs intensifs en connaissances (knowledge-intensive). Plusieurs facteurs expliquent ce phénomène.


À lire aussi : L’attractivité économique du pays est aussi une question de fiscalité


Concentration de connaissances et de technologie

Premièrement, les villes-mondes concentrent des sources de connaissances et de technologies de pointe : universités et centres de recherche renommés, scientifiques, chercheurs, start-ups high-tech. Les entreprises peuvent ainsi accéder à ces talents et bénéficier des transferts de connaissances. Par exemple, Paris et sa région disposent de nombreuses universités, de grandes écoles d’ingénieur et de commerce, de centres de recherche et de pôles de compétitivité en hautes technologie rassemblant des milliers de scientifiques, d’étudiants, d’ingénieurs et de doctorants. Choose Paris Region, l’agence d’investissement d’Île-de-France, suit de près l’attractivité de Paris et publie des études disponibles gratuitement sur son site ainsi que les success-stories.

Une grande connectivité

Deuxièmement, les villes-mondes sont caractérisées par une grande connectivité. Elles ont des infrastructures leur permettant de réduire les temps et coûts de transports : elles disposent, par exemple, de plusieurs aéroports, gares ferroviaires internationales, réseaux de routes, etc. La connectivité est présente également au niveau des connaissances et de la technologie. Pour préserver leur compétitivité, les entreprises, notamment les multinationales, cherchent à avoir accès à de la connaissance et à des technologies de pointe, y compris les nouvelles technologies, dispersées dans les villes-mondes et ailleurs.

Les villes-mondes peuvent donc leur permettre d’atteindre ces ressources et d’y puiser des connaissances. Ainsi, en localisant une partie importante de leurs activités dans les « villes globales », les multinationales peuvent puiser les connaissances disponibles dans ces villes ainsi qu’à travers le monde. Par exemple, les universités et centres de recherche à Paris sont connectés à des centres de savoir partout dans le monde. L’École polytechnique a ainsi de nombreux partenariats internationaux avec des universités et des centres de recherche de pointe.

Troisièmement, les villes-mondes ont des concentrations très fortes de services spécialisés, en comptabilité, en affaires juridiques, en relations publiques et en services financiers. Des acteurs majeurs comme les Big 4, les grands cabinets d’audit et de conseil, sont localisés dans les villes-mondes et les entreprises peuvent donc facilement accéder à leurs services, indispensables à leur fonctionnement.

Un environnement cosmopolite

Quatrièmement, les villes-mondes jouissent d’un environnement cosmopolite qui attire les expatriés. Beaucoup de langues y sont parlées, de nombreuses personnes y passent, se rencontrent, échangent et fertilisent les idées. On y trouve également des écoles internationales, indispensables pour accueillir les familles des expatriés. Par exemple, à proximité de Paris, le lycée international de Saint-Germain-en-Laye (Hauts-de-Seine) propose 14 sections internationales : espagnole, italienne, néerlandaise, britannique, américaine, danoise, suédoise, norvégienne, russe, polonaise, chinoise, japonaise, portugaise et allemande.

France 24, 2024.

Ces atouts des villes-mondes ne semblent toutefois pas bénéficier à toutes les entreprises de la même manière.

En effet, notre recherche montre qu’ils sont particulièrement importants pour les entreprises évoluant dans les secteurs que l’on caractérise comme « intensif en connaissances » (knowledge-intensive). Pour les autres entreprises, localiser les activités dans ces villes est moins attractif.

Des atouts mais aussi des inconvénients

Car localiser ses activités dans les villes-mondes ne vient pas sans inconvénients. Les prix de l’immobilier sont généralement élevés et il y a une concurrence accrue pour les localisations centrales. Les salaires ont tendance à être plus élevés pour répondre à des coûts de la vie plus importants et il y a une forte concurrence pour attirer les talents.

À cela s’ajoute la difficulté à trouver de grandes surfaces pour installer des bureaux. Pour toutes ces raisons, il est plus judicieux pour certaines entreprises de chercher des localisations dans des plus petites villes ou même dans des zones rurales.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

20.08.2025 à 15:19

Swimming in the Seine: an old pastime resurfaces in the age of global warming

Julia Moutiez, Doctorante en Architecture et Enseignante à l’École d’architecture de Paris Val-de-Seine, Université Paris Nanterre – Université Paris Lumières

Swimming in the Seine River is often framed as a novelty of the 2024 Paris Olympics, but it revives an old tradition amid climate change.
Texte intégral (2565 mots)
Bathing on a hot day in Paris, 1932. Agence Rol / Gallica / BNF

As the 2024 Olympic Games drew near, the promise of being able to swim in the Seine turned into a media countdown: first as part of the official sporting events and then for the general public. As bids for the Olympic and Paralympic Games have become less and less popular due to the staggering costs involved and the difficulty of justifying them in terms of benefits for local communities, allowing Parisians to swim in the river flowing through Paris was heavily promoted ahead of last summer’s Games.

This kind of media framing, however, has overlooked current and historical realities. River bathing was widely practised over the last few centuries, and in the Seine, it has survived to the present day despite bans on swimming. Additionally, the practice does not only include recreational or sporting dimensions – it is also climate-related, at a time when rising temperatures suggest that compliance with the Paris Agreement will be a difficult, if not impossible task.

A centuries-old bathing tradition

While bathing in the Seine in 2024 was sometimes presented as a novel project, it is key to remember that swimming in Paris is a centuries-old practice. Traces of bathing facilities have been found in the capital dating back to the 13th century. However, the practice is difficult to document in detail as such traces are few, except in cases of major pieces of infrastructure. Over the centuries, swimming continued for hygiene, refreshment and leisure purposes, gradually spreading beyond the city limits.

It was not until the 17th century that the first documented boom in bathing practices in the Seine took place, as evidenced by the introduction of the first prohibitions on bathing and the emergence of the first facilities specifically designed for river bathers. Whether for washing, relaxing or socialising, these facilities were primarily set up to keep bathers safe from the current, and to conceal their nudity on the riverbanks. From the end of the 18th century onwards, these facilities became more complex: additional services were added to improve the comfort of swimmers and the first swimming schools appeared on the Seine.

At the end of the 19th century, floating baths became increasingly popular on the Seine and the Marne outside Paris, while the first-heated swimming pools were built in the capital.

A long-standing practice despite bans

Bans on swimming in the Seine have been numerous over the centuries, though they never completely eradicated the practice.

Historians Isabelle Duhau and Laurence Lestel trace the first restrictions back to the 17th century, when the provosts of merchants and aldermen expressed concern about public nudity on the banks of the river. Until the end of the 19th century, restrictions on swimming in the capital were always based on concerns about nudity. A second reason, that of hindering navigation, appeared in an ordinance of 1840. This was regularly amended until the prefectural decree of 1923, which is still in force today and prohibits bathing in rivers and canals throughout the former département (administrative unit) of the Seine.

However, these bans did not put an end to swimming. After 1923, bathing establishments continued to operate. They even experienced a boom in the interwar period, especially in the suburbs. Photos show that swimming was quite popular during heatwaves.

It was not until the second half of the 20th century that swimming in the Seine became less common, mainly due to the spread of public swimming pools, which offered a more artificial and controlled environment for this form of leisure.

And it was not until 1970, with the ban on swimming in the Marne, that the issue of water quality was raised, even though water quality was already being measured and questioned before then.

Indefatigable bathers

Even today, however, there are still occasional, activist, or even regular swimmers taking to Paris’s waterways. Sporting competitions have brought athletes to the Seine, for example in 2012 for the Paris triathlon, and in a more gradual way in recent years.

In amateur sports, cold-water swimmers also began training in the canals a few years ago, despite the ban. To deal with the risks posed by water temperatures, and possibly police surveillance, these swimmers set their own safety rules: they watch out for each other from the bank and wear life jackets and caps so they are always clearly visible. To date, none of these swimmers has ever been fined by the police.

In recent years, others have also taken a dip for more political reasons. In 2005, members of the Green Party (including its future leader Cécile Duflot) swam in the Seine on World Water Day to raise awareness about how polluted it was.

Diving in the Seine to raise awareness about river pollution also isn’t a new idea. It’s actually the trademark of the NGO European River Network, founded in 1994 and known for its Big Jump events, annual group swims calling for better water quality. Around the same period in the Paris region, the Marne Vive union was created to make the river swimmable again and protect its flora and fauna. In association with local elected officials, it has also been organising Big Jumps since the early 2000s.

In recent times, members of the Bassines Non Merci collective also took dips in Paris to protest against the appropriation of water resources, ahead of planned demonstrations against schemes for large agricultural water reservoirs in the Poitou region.

Other activists have also taken action to make Parisian waterways more suitable for swimming again. The Laboratoire des baignades urbaines expérimentales (Laboratory for Experimental Urban Swimming) organized collective “pirate” swims and shared them on social media and in the press to get local authorities to take up the issue.

Finally, despite the general ban on swimming throughout Paris, it should be noted that swimming is, once again, permitted under certain conditions in the Bassin de la Villette and the Canal Saint-Martin in the summer. For several years, the city has been organising its own collective swimming events, which are supervised and limited in terms of space and time. This is one of the paradoxes of urban swimming in Paris: on the one hand, public authorities are making efforts to improve water quality, in particular by opening sites where people can swim; on the other, they are reinforcing the general ban on swimming in the Seine, for example through more prominent signposting.

The many European versions of urban bathing

Looking at urban swimming practices in Europe, there are many cities where residents already bathe within city limits. These include Basel, Zurich, Bern, Copenhagen, Vienna, Amsterdam, Bruges, Munich and others. That said, putting together a comprehensive list remains tricky because of differences in how urban regulations are applied across Europe, where swimming might be allowed, tolerated, banned, or just accepted.


A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!


In these different cities, the widespread practice of swimming may have been a goal, or it may be a byproduct of water sanitation policies. Copenhagen, for example, isn’t crossed by a river but by an inlet. In the 1990s, the city renovated its aging sanitation system and restored the port, in particular to prevent overflowing. It is also building on national policies, implemented since the 1970s, aimed at preserving water quality and aquatic biodiversity.

These developments, carried out by separate departments and for sometimes different purposes, gradually improved the water quality in the Danish capital, which then sought to highlight the new environmental standards it had achieved. The initial focus was on developing water-based leisure activities. Ideas included areas for fishing and wildlife observation, and plans for an aquarium and the development of canoeing. Ultimately, the focus shifted to a swimming area inaugurated in the early 2000s called Harbour Bath. The site was initially intended as temporary but was made permanent due to its success. Some 20 years later, urban swimming has become an asset that Copenhagen is keen to promote, for example by distributing maps of swimming areas to tourists.

The links between open water swimming and improved water quality are varied. The practice may be used to raise awareness of the need to improve water quality, or to gain support from the general public and elected officials for sanitation projects.

In Europe, numerous directives aimed at preserving biodiversity and water quality have prompted municipalities to clean up the waterways running through areas under their jurisdiction. In this context, then Paris Mayor Jacques Chirac pledged in 1988 to swim in the Seine following reports of the return of numerous fish species, indicating an improvement in the river’s condition. In this video, however, Chirac was not claiming to make the Seine swimmable again for all Parisians. Rather, he was just trying to demonstrate that its water quality had improved.

River bathing in the age of global warming

Another motivation is becoming increasingly important in the creation of urban waterways: providing people with access to cool places in the face of increasingly frequent heatwaves.

Another motivation for allowing swimming in urban waterways is becoming increasingly important: providing people with access to cool places during frequent heatwaves. Paris is particularly vulnerable to climate change due to its dense landscape. A recent scientific study ranks it as one of Europe’s most dangerous cities in the event of a heatwave.

The urban heat-island effect is particularly strong in Paris, and the city’s housing is not well suited to cope with heatwaves. Waterways are seen as a potential solution to the problem of cooling off outside the home. But riverbanks are often very exposed to the sun, which means that only direct contact with water can effectively cool the body – at least to a certain extent. Paris has therefore set up temporary swimming areas, initially in the form of removable pools, before allowing direct access to canals. The Bassin de la Villette, for example, is part of the city council’s Parcours Fraîcheur (Cooling Route) plan, and is also included in its heatwave plan.

Swimming in the Seine was also mentioned in 2015 in the city’s adaptation strategy, in the context of a general overhaul of municipal water policies that was initiated with the decision to take over Eau de Paris, the company responsible for the city’s water supply and wastewater collection.

A decade later, and after the success of the Paris Olympics where swimmers competed in the Seine, the future of swimming in Paris is still uncertain. But one thing is clear: rarely has the subject of urban bathing generated so much discussion, interest, and media coverage.

The Conversation

Julia Moutiez ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

19.08.2025 à 16:33

La toile d’araignée : merveille d’ingénierie naturelle depuis 400 millions d’années

Ella Kellner, Ph.D. Student in Biological Sciences, University of North Carolina – Charlotte

Les toiles d’araignées sont des merveilles d’ingénierie naturelle. Leur architecture répond à des fonctions précises : capturer des proies, protéger des œufs ou amortir une chute notamment.
Texte intégral (3681 mots)
Une araignée orbiculaire se repose au centre de sa toile dans un verger. Daniela Duncan/Moment/Getty Images

Elles peuvent inquiéter ou être balayées d’un revers de la main : les toiles d’araignées sont en réalité des merveilles d’ingénierie naturelle. Leur architecture, aussi variée qu’ingénieuse, répond à des fonctions précises : capturer des proies, protéger des œufs, amortir une chute ou fournir des repères sensoriels. Observer ces fils de soie, c’est plonger dans 400 millions d’années d’évolution et de créativité biologiques.


Vous êtes-vous déjà retrouvé nez à nez avec une toile d’araignée lors d’une promenade dans la nature ? Ou avez-vous déjà balayé des toiles d’araignée dans votre garage ?

Si oui, alors vous connaissez déjà les toiles orbitulaires, qui sont régulières, géométriques, et qui sont emblématiques d’Halloween ; et les toiles en réseau désordonné, qui sont celles que l’on trouve dans nos garages et dans nos caves. Ce ne sont là que deux exemples d’architectures de toiles d’araignées. Une toile est toujours spécialement adaptée à l’environnement de l’araignée et à la fonction qu’elle doit remplir.

Si de nombreuses araignées utilisent leurs toiles pour attraper des proies, elles ont également développé des façons inhabituelles d’utiliser leur soie, par exemple pour envelopper leurs œufs ou pour se créer des filins de sécurité qui les rattrapent lorsqu’elles tombent.

En tant que scientifique spécialiste des matériaux qui étudie les araignées et leur soie, je m’intéresse à la relation entre l’architecture des toiles d’araignées et la résistance des fils qu’elles utilisent. Comment la conception d’une toile et les propriétés de la soie utilisée affectent-elles la capacité d’une araignée à capturer son prochain repas ?

Aux origines des toiles

La soie d’araignée a une longue histoire évolutive. Les chercheurs pensent qu’elle est apparue il y a environ 400 millions d’années.

Ces araignées ancestrales utilisaient la soie pour tapisser leurs repaires, pour protéger leurs œufs vulnérables et pour créer des chemins sensoriels et des repères afin de se déplacer dans leur environnement.

Pour comprendre à quoi pouvaient ressembler les toiles d’araignées anciennes, les scientifiques s’intéressent à l’araignée lampadaire.

Cette araignée vit dans les affleurements rocheux des Appalaches et des Rocheuses, aux États-Unis. Elle est une parente vivante de certaines des plus anciennes araignées à avoir jamais tissé des toiles, et elle n’a pratiquement pas changé depuis.

Une araignée noire et brune camouflée sur un rocher recouvert de mousse, avec une toile circulaire et plate autour d’elle, collée au rocher
Une araignée lampadaire dans sa toile caractéristique, tissée dans les insterstices des rochers. Tyler Brown, CC BY-SA

Bien nommée en raison de la forme de sa toile, l’araignée lampadaire tisse une toile dont la base étroite s’élargit vers l’extérieur. Ces toiles comblent les fissures entre les rochers, où l’araignée peut se camoufler contre la surface rugueuse. Il est difficile pour une proie potentielle de traverser ce paysage accidenté sans se retrouver piégée.

Diversité des toiles

Aujourd’hui, toutes les espèces d’araignées produisent de la soie. Chaque espèce qui tisse des toiles crée sa propre architecture de toile, parfaitement adaptée au type de proie qu’elle mange et à l’environnement dans lequel elle vit.

Prenons l’exemple de la toile orbiculaire. Il s’agit d’une toile réalisée à partir d’un centre de manière circulaire, avec un motif régulier de rayons et de cercles concentriques. Elle sert principalement à capturer des proies volantes ou sauteuses, telles que les mouches et les sauterelles. Les toiles orbiculaires se trouvent dans les zones ouvertes, comme à la lisière des forêts, dans les herbes hautes ou entre vos plants de tomates.

Image d’une araignée noire tissant une toile irrégulière
Une veuve noire construit des toiles d’araignée tridimensionnelles. Karen Sloane-Williams/500Px Plus via Getty Images

Comparez-les à des toiles en réseau désordonné, une structure que l’on voit le plus souvent près des plinthes dans les maisons, dans les caves ou greniers. Bien que l’expression « toile en réseau désordonné » soit couramment utilisée pour désigner toute toile d’araignée poussiéreuse et abandonnée, il s’agit en fait d’une forme de toile spécifique généralement conçue par les araignées de la famille des Theridiidae.

Cette toile a une architecture en 3D complexe, donnant un aspect fouillis. Les fils sont collants et tendus dans toutes les directions, notamment vers le bas, où ils sont maintenus fixés au sol sous une forte tension. Ces fils agissent comme un piège collant à ressort pour capturer des proies rampantes, telles que les fourmis et les coléoptères. Lorsqu’un insecte entre en contact avec la colle à la base du fil, la soie se détache du sol, parfois avec une force suffisante pour soulever le repas dans les airs.

Regardez une araignée à dos rouge construire les fils à haute tension d’une toile d’araignée et piéger des fourmis qui ne se doutent de rien.

Les araignées bizarres

Imaginez que vous êtes un naïf scarabée, qui rampe entre les brins d’herbe, et que vous vous retrouvez sur un sol recouvert d’une toile de soie tissée de manière très dense. Alors que vous commencez à avancer sur ce paillasson d’un genre particulier, vous avez juste le temps d’apercevoir huit yeux braqués sur vous depuis un entonnoir de soie, avant d’être happé et avalé tout cru.

Ce type d’araignée à toile en entonnoir bâtit des constructions horizontales au sol, qu’elle utilise comme une extension de son système sensoriel. L’araignée attend patiemment dans son abri en forme d’entonnoir. Les proies qui entrent en contact avec la toile créent des vibrations qui alertent l’araignée : un mets délicieux est en train de marcher sur le paillasson, et il est temps de lui sauter dessus.

Une araignée brun clair face à l’appareil photo, entourée d’une toile en forme d’entonnoir
Une araignée à toile en entonnoir jette un œil hors de sa abri situé au niveau du sol. sandra standbridge/Moment via Getty Images

Les araignées sauteuses sont des tisserandes à part, puisqu’elles ne tissent pas de toiles. Elles sont connues pour leurs couleurs variées, vives ou iridescentes, et leurs danses nuptiales élaborées, qui en font l’une des arachnides les plus attachantes. Leur aspect mignon les a rendues populaires, notamment grâce à Lucas the Spider, une adorable araignée sauteuse animée par Joshua Slice. Dotées de deux grands yeux frontaux qui leur permettent de percevoir les distances, ces araignées sont de fantastiques chasseuses, capables de sauter dans toutes les directions pour se déplacer et de bondir sur leur prise.

Mais que se passe-t-il lorsqu’elles se trompent dans leur calcul ou, pis, lorsqu’elles doivent échapper à un prédateur ? Les araignées sauteuses attachent un fil à leur point de départ avant de s’élancer dans les airs, comme une sorte de corde de rappel. Si le saut rate, elles peuvent remonter le long du filin et réessayer. Non seulement ce filin de sécurité en soie leur permet de ressauter, mais il les aide également dans leur saut. Le fil leur permet de contrôler la direction et la vitesse de leur saut en plein vol. En modifiant la vitesse à laquelle elles libèrent la soie, elles peuvent atterrir exactement où elles le souhaitent.

Une araignée brune aux reflets verts en plein vol, attachée à une feuille derrière elle par un fin fil de soie
Une araignée sauteuse utilise un filin de sécurité en soie pour effectuer un saut risqué. Fresnelwiki/Wikimedia, CC BY-SA

Pour tisser une toile

Toutes les toiles, de la toile orbiculaire à la toile d’araignée d’apparence désordonnée, sont construites selon une série d’étapes fondamentales distinctes.

Les araignées à toile orbiculaire commencent généralement par construire une prototoile. Les scientifiques pensent que cette construction initiale est une phase exploratoire, pendant laquelle l’araignée évalue l’espace disponible et trouve des points d’ancrage pour sa soie. Une fois que l’araignée est prête à construire sa toile principale, elle utilise la prototoile comme échafaudage pour créer le cadre, les rayons et la spirale qui l’aideront à absorber l’énergie des proies qui se prennent dedans et à les capturer. Ces structures sont essentielles pour garantir que leur prochain repas ne déchire pas la toile, en particulier les insectes tels que les libellules, qui ont une vitesse de croisière moyenne de 16 km/h. Une fois sa toile terminée, l’araignée orbiculaire retourne au centre de la toile pour attendre son prochain repas.

Une araignée brun pâle au centre de sa toile orbulaire en spirale
Une araignée des jardins européenne construit une toile orbulaire en deux dimensions. Massimiliano Finzi/Moment via Getty Images

Un seul type de matériau ne permettrait pas de fabriquer toutes ces toiles d’araignée. En fait, les araignées peuvent créer jusqu’à sept types de fibre soie différente, et les araignées tisserandes les fabriquent toutes. Chaque type de fibre a des propriétés chimiques, physiques et mécaniques adaptées à la fonction recherchée, servant à un usage spécifique dans la vie de l’araignée (toile, cocon, câble d’ancrage, fil de détection, filet de capture, etc.). C’est dans les glandes séricigènes que sont produites les fibres de soie, et chaque type de glandes produit un fil de soie particulier avec une fonction spécifique.

Les araignées orbiculaires entament le tissage de leurs toiles par la fabrication d’un fil porteur très résistant. Quant à la spirale pour piéger les insectes, construite en partant du centre vers l’extérieur, elle est constituée d’une soie extrêmement élastique. Lorsqu’une proie se prend dans la spirale, les fils de soie se déforment sous l’impact. Ils s’étirent pour absorber l’énergie et empêcher la proie de déchirer la toile.

La « colle d’araignée » est un type de soie modifiée, dotée de propriétés adhésives. C’est la seule partie de la toile d’araignée qui soit réellement collante. Cette soie collante, située sur la spirale de capture, permet de s’assurer que la proie reste collée à la toile suffisamment longtemps pour que l’araignée puisse lui administrer sa morsure venimeuse.

Apprendre à observer les architectes arachnides

Les araignées et leurs toiles sont incroyablement variées. Chaque espèce d’araignée s’est adaptée à son environnement naturel pour capturer certains types de proies. La prochaine fois que vous verrez une toile d’araignée, prenez le temps de l’observer plutôt que de la balayer ou d’écraser l’araignée qui s’y trouve.

Remarquez les différences dans la structure de la toile et voyez si vous pouvez repérer les gouttelettes de colle. Observez la façon dont l’araignée est assise dans sa toile. Est-elle en train de manger ou y a-t-il des restes d’insectes qu’elle a peut-être empêchés de s’introduire dans votre maison ?

L’observation de ces architectes arachnides peut nous en apprendre beaucoup sur le design, l’architecture et l’innovation.

The Conversation

Ella Kellner ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

19.08.2025 à 16:32

Face à la crise écologique, que peut la poésie ?

Sébastien Dubois, Professor, Neoma Business School

Et si la poésie permettait de repenser notre lien à la nature ? Face à la crise écologique, elle ouvre un espace d’action symbolique et collective.
Texte intégral (1822 mots)

Et si la littérature n’était pas un simple refuge face à la catastrophe écologique, mais un outil de transformation collective ? De l’épopée antique aux dizains de Pierre Vinclair, la poésie contemporaine explore un nouvel imaginaire. Une cérémonie poétique pour refonder nos catégories de pensée.


La littérature a, dès ses origines, voulu penser ensemble la nature et la politique. C’est notamment le cas du genre de l’épopée, comme l’Iliade, l’Odyssée ou, plus tard, l’Énéide. L’épopée cherche à travers les personnages qui représentent des choix politiques à fonder ou refonder la cité. Ainsi, dans l’Odyssée, le combat entre les prétendants qui veulent le pouvoir et Ulysse, le roi d’Ithaque qui doit faire valoir sa légitimité. L’épopée antique s’intègre dans une cosmologie, une vision de la nature, des dieux et des hommes, alors homogène. Le poète Frédéric Boyer a d’ailleurs intitulé sa traduction des Géorgiques, de Virgile, le Souci de la terre : pour les Anciens, la politique est dans la nature.

La poésie contemporaine renoue avec cette tradition, pour imaginer une autre vie politique face à la crise écologique. C’est le cas du poète Pierre Vinclair, dont je parlerai plus longuement dans cet article, mais aussi (par exemple) de Jean-Claude Pinson et Michel Deguy. Que peut dire, et faire, la littérature, la poésie, dans la grande crise écologique qui est la nôtre ? Deux choses essentielles : agir sur nos catégories de pensée, refonder un nouvel imaginaire, par exemple notre conception des relations entre nature et culture ; et inventer de nouvelles formes d’échanges et d’action collective pour donner vie à ce nouvel imaginaire. Il ne saurait donc être question de (seulement) célébrer la Nature ni de (seulement) dénoncer l’impasse actuelle, mais de (re)créer un ordre affectif et collectif.

Les sciences sociales ont assez montré combien nos représentations transformaient notre vie collective : les modèles d’action politiques (le capitalisme, le communisme, la social-démocratie, etc.) sont autant des idées que des pratiques sociales. Plusieurs livres de Pierre Vinclair, poète français né en 1982, tracent une voie pour créer du sens « face à la catastrophe ».

Le pouvoir de la littérature : changer les catégories de pensée

Pierre Vinclair a publié deux livres qui abordent directement la question écologique, un livre de poésie, la Sauvagerie (2020), et un essai, Agir non agir (2020).

La Sauvagerie est une série de 500 poèmes, inspirés sur la forme par l’œuvre d’un grand poète de la Renaissance, Maurice Scève, qui publia sa Délie en 1544. La Sauvagerie a paru dans « Biophilia », la collection que la maison d’édition Corti consacre « au vivant au cœur d’éclairages ou de rêveries transdisciplinaires ».

Une série de dizains (dix vers décasyllabiques rimés) se consacre aux espèces animales les plus menacées. Pierre Vinclair recourt à la métaphore de la cuisine, pour expliquer sa poétique : ses dizains qui rassemblent une vaste érudition littéraire et scientifique cherchent à faire déguster au lecteur un « plat vivant ». Pour entrer en cuisine, rien de mieux que de lire, et relire, un dizain ; par exemple celui consacré à une espèce d’albatros, Diomedea Amsterdamensis, qui vit dans l’océan Indien. La figure de l’albatros rappelle immédiatement Baudelaire, où l’oiseau symbolisant le poète plane dans le ciel (les albatros ne se posent presque jamais) mais une fois à terre ne peut rien contre la cruauté des hommes qui l’agacent avec un briquet. Voici le dizain de Pierre Vinclair :

« Souvent, pour s’amuser, trois hommes violent
un albatros, gros oiseau indolent
coincé dans les ralingues des palangres
où l’attire une fish facile (avec aplomb,
le poète semblable au pêcheur dont les lignes
piègent des vivants, en a lancé vers l’internet
et lu : albatros – the female proceeds to receive
anal, while jacking off sb with both hands)
l’oiseau sombre, comme un plomb dans la mer
acorant son poussin abandonné. »

Le poète est une espèce menacée comme toutes les espèces le sont, et un « pêcheur contre les pêcheurs » ; l’albatros, lui aussi une espèce menacée, est pareillement poète : la métaphore est réversible. Le poème joue sur les signifiants, puisqu’en argot américain l’albatros est une position sexuelle – le dizain porte le numéro 69. La pornographie est donc la menace qui écartèle Diomedea amsterdamensis, piégé en pourchassant les poissons dans les palangres de la pêche industrielle. Un drame se joue : l’oiseau sera-t-il sauvé ?

Dans le dernier vers, il sombre, et accuse d’abord ses tortionnaires, et le poète qui ne l’a pas sauvé mais donne à voir, à sentir, le drame ignoré d’un oiseau. En somme, l’oiseau invite les lecteurs à son procès, le nôtre, pour meurtre et pornographie ; notre désir viole l’ordre du monde, le viol de la femelle ne donnera naissance à rien, le poussin abandonné va mourir et l’espèce avec lui.

La poésie est une pensée non pas philosophique ou scientifique, avec des concepts, mais avec figures (ici l’oiseau, les pêcheurs, le poète, les navires-usines, le désir, la pornographie). Elle n’est pas sans ordre, elle est tenue par la versification, la prosodie, l’architecture de la langue.

La poésie, ou la cérémonie improvisée

La poésie (et Vinclair) pense aussi l’organisation de la vie collective face à la catastrophe. Le moyen poétique, c’est l’épopée parce que celle-ci cherche justement à faire vivre un changement politique, on l’a vu. La Sauvagerie est donc une épopée du monde « sauvage ». Mais nous sommes modernes ; l’épopée sera donc fragmentaire puisque nous n’avons plus de récit qui garantirait l’unité du monde comme en avaient les Anciens Grecs. La Sauvagerie est une épopée collective pour Gaïa, le nom que donne le philosophe Bruno Latour à la nature pour sortir de la dichotomie mortifère entre nature et culture. Gaïa englobe aussi bien humains que non-humains dont le destin est commun.

« La Sauvagerie » de Pierre Vinclair
_“La. Pierre Vinclair/Bibliophilia

Il faut alors d’autres modes d’action collective, et Vinclair a invité d’autres poètes qui écrivent aussi des dizains, se commentent, dans une sorte d’atelier de peintres de la Renaissance. La Sauvagerie est donc une œuvre collective, et Vinclair invite dans cet atelier tous ceux qui veulent contribuer à la refondation de notre vie imaginaire et sociale, des artistes aux scientifiques. La catastrophe en cours nous oblige à repenser, réorganiser, notre vie symbolique mais aussi nos moyens d’agir. Le poète ouvre les portes d’une maison (de mots, nous habitons le langage comme le langage nous habite) où le lecteur peut rencontrer le(s) poète(s), d’autres lecteurs, des albatros, Baudelaire, des pêcheurs, des navires-usines, dans une architecture (une forme), un théâtre commun parce que la vie sociale est une dramaturgie : c’est donc bien une « cérémonie improvisée », un rite, où le sujet « délaisse ses contenus propres, se laisse posséder par les gestes d’un mort servant de médium » pour recréer le sens.

Cette cérémonie convoque humains et non-humains dans un espace et un lieu commun pour célébrer justement ce que nous avons en commun, dont aussi, point capital pour Vinclair, les morts, afin de reconstruire la chaîne des générations et de la vie (pour tous les êtres vivants). Le poème organise cette cérémonie pour sortir ensemble de ce que l’anthropologue Philippe Descola appelle le « naturalisme » : l’idée, moderne, où le monde n’est que matière, et par là, matière à notre disposition, à l’exploitation, jusqu’à la catastrophe. Le grand poète romantique allemand Hölderlin interrogeait : « À quoi bon des poètes en temps de détresse ? » La réponse vient : à ça, justement.

The Conversation

Sébastien Dubois a reçu des financements du Ministère de la Culture.

PDF

19.08.2025 à 15:54

Lymphomes T cutanés : ces cancers de la peau méconnus, mais en augmentation

Adèle de Masson, Professeur en dermatologie, Université Paris Cité

Plaques, taches rouges, jusqu’à des nodules et des tumeurs… les lymphomes T cutanés se développent dans la peau. Une piste est explorée pour mieux contrôler ces cancers sur le long terme.
Texte intégral (1641 mots)

Rares mais en augmentation, les lymphomes T cutanés sont des cancers qui se développent initialement dans la peau. Si la majorité des malades peuvent gérer leurs symptômes à vie, d’autres souffrent de formes agressives. Des travaux de recherche explorent des pistes prometteuses pour permettre de mieux contrôler la maladie sur le long terme.


Les lymphomes à cellules T cutanés, couramment dénommés lymphomes T cutanés, sont un groupe hétérogène de cancers de la peau dérivés des lymphocytes T, une sous-catégorie de cellules du système immunitaire, le système de défense de l’organisme pour lutter notamment contre les virus, bactéries et autres pathogènes.

Contrairement aux lymphomes ganglionnaires (lymphome de Hodgkin et lymphomes non hodgkiniens) qui affectent principalement les ganglions lymphatiques, les lymphomes T cutanés se développent initialement dans la peau. Ils peuvent se manifester sous différentes formes cliniques, allant de plaques et de taches rouges jusqu’à des nodules et des tumeurs.

Les lymphomes T cutanés sont classés en plusieurs sous-types, le plus courant étant le mycosis fongoïde. Ces maladies évoluent souvent de manière indolente au début mais peuvent progresser vers des stades plus agressifs et systémiques si elles ne sont pas traitées de manière adéquate.

Une incidence faible mais en augmentation

Rares, les lymphomes T cutanés affectent environ 1 sur 100 000 adultes chaque année. Mais leur incidence a augmenté au cours des trente dernières années. Cela est possiblement en lien avec une meilleure connaissance de ces pathologies – et, donc, une augmentation du diagnostic – mais aussi avec le vieillissement de la population et de potentiels facteurs environnementaux, un rôle des pesticides ayant été suspecté sur le fondement d’études épidémiologiques.

Bien que la plupart des patients diagnostiqués à un stade précoce de la maladie puissent gérer leurs symptômes à vie, environ 20 % progressent vers un stade avancé qui est caractérisé par une maladie cutanée étendue, une atteinte des ganglions lymphatiques, des organes viscéraux ou une atteinte sanguine significative.

Des résistances aux traitements chez certains patients

Le diagnostic précis repose sur l’examen histopathologique des lésions cutanées (après biopsie), complété par ce que l’on appelle des tests immunophénotypiques et moléculaires. En résumé, après la biopsie, on regarde d’abord la forme des cellules au microscope. Ensuite, on effectue des « tests d’identité » pour voir quels marqueurs portent ces cellules et, enfin, on analyse leur ADN pour vérifier si elles viennent toutes du même clone anormal.

Le traitement des lymphomes T cutanés dépend du stade de la maladie, de sa sévérité et des caractéristiques individuelles du patient, et peut inclure des options telles que :

  • la photothérapie, qui repose sur l’utilisation des rayons ultraviolets en cabine avec des doses et longueurs d’ondes contrôlées ;

  • les chimiothérapies topiques, qui sont des gels contenant de la chimiothérapie, appliqués sur la peau ;

  • les immunothérapies, qui s’appuient sur des anticorps monoclonaux qui utilisent le système immunitaire pour lutter contre les tumeurs ;

  • les thérapies ciblées et les greffes de moelle osseuse, dans les cas avancés.

Les traitements actuels, y compris les immunothérapies par anticorps monoclonaux, peuvent entraîner des résistances, qu’elles soient primaires – absence de réponse dès le début du traitement, ou secondaires – perte de l’efficacité après une réponse initiale. Ces phénomènes ont été observés dans les essais randomisés MAVORIC (mogamulizumab) et ALCANZA (brentuximab vedotin).

La problématique concernant cette maladie réside donc dans la capacité à la contrôler sur le long terme.

Un nouveau candidat pour traiter les lymphomes T cutanés

C’est dans cette perspective que s’inscrit le projet SPRINT, pour « Synergie pour accélérer l’innovation thérapeutique dans les lymphomes T cutanés ». Mené par une équipe de recherche internationale, ce projet a permis de mettre en lumière un nouveau candidat prometteur pour le traitement des lymphomes T cutanés avancés : le récepteur CCR8.

Le récepteur CCR8 joue un rôle clé dans le microenvironnement de la tumeur et pourrait donc, de ce fait, représenter une cible thérapeutique stratégique. Il est en effet présent à la surface à la fois :

  • d’une sous-population spéciale de cellules lymphocytes T qui jouent un rôle essentiel dans la maintenance de la tolérance immunitaire (les lymphocytes T régulateurs intratumoraux, ou Treg).

Les lymphocytes T régulateurs jouent un rôle crucial pour prévenir les maladies auto-immunes en contrôlant et en réprimant les réponses immunitaires excessives ou non spécifiques contre les propres tissus de l’organisme. (Dans les maladies auto-immunes, le système immunitaire dysfonctionne et s’attaque aux constituants normaux de l’organisme, ndlr).

  • de cellules malignes des lymphomes T cutanés.

Dans le contexte de cancers comme les lymphomes T cutanés, les lymphocytes T régulateurs intratumoraux (Treg) peuvent être recrutés dans les lésions de cancer et contribuer à la création d’un environnement qui va favoriser la croissance et la survie des cellules tumorales.

La présence de ces cellules dans les tissus affectés par les cancers peut être associée à une progression plus rapide de la maladie et à une réponse moins favorable aux traitements.

Par conséquent, cibler les lymphocytes T régulateurs intratumoraux (Treg) – via le récepteur CCR8 présent à leur surface – et moduler leur fonction représente une stratégie thérapeutique pour renforcer la capacité du système immunitaire à reconnaître et à éliminer les cellules tumorales.

La découverte du rôle du récepteur CCR8 exprimé à la surface de ces cellules ouvre de nouvelles perspectives pour le développement de traitements combinés visant à cibler à la fois les cellules malignes et le microenvironnement tumoral.

Des essais cliniques ciblant spécifiquement le récepteur CCR8 sont prévus prochainement pour évaluer leur efficacité dans la gestion des lymphomes T cutanés avancés résistants aux traitements existants.

Des résultats prometteurs aussi pour d’autres lymphomes et cancers

De façon intéressante, ces résultats pourraient permettre d’avancer dans le développement de ce médicament qui pourrait s’avérer utile non seulement dans les lymphomes T cutanés, mais également dans d’autres lymphomes T comme les lymphomes T ganglionnaires, ou même les cancers en général, du fait du rôle du récepteur CCR8 dans la régulation des réponses immunitaires contre le cancer.

En conclusion, la cible du récepteur CCR8 représente une avancée significative dans la compréhension et le traitement des lymphomes T cutanés avancés.

Les efforts continus dans cette direction sont essentiels pour développer des stratégies thérapeutiques plus efficaces et personnalisées, capables de surmonter les défis posés par la résistance aux traitements et d’améliorer les résultats pour les patients.


Le projet SPRINT (Synergie Pour Accélérer l’INnovation Thérapeutique dans les lymphomes T cutanés) est soutenu par l’Agence nationale de la recherche (ANR) qui finance en France la recherche sur projets, au titre de France 2030 (référence ANR-23-RHUS-0009). L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.

The Conversation

Adèle de Masson est membre du board du Groupe Français d’Etude des Lymphomes Cutanés, du conseil scientifique de la Société française de dermatologie, du Steering Committee de l’EORTC Cutaneous Lymphoma Group. Elle a reçu les financements suivants : RHU SPRINT de l’Agence Nationale de la Recherche (dans le cadre de France2030, ANR-23-RHUS-009) un projet coordonné par l’Université Paris Cité, bourses de recherche de la Société Française de Dermatologie, de l’INCa/ DGOS (PHRC-K 2014, 2019, 2024), de la Fondation de l’AP-HP, et de l’Association Robert Debré pour la Recherche Médicale.

PDF

19.08.2025 à 15:54

Le slow tourisme : ralentir pour mieux voyager ?

Fo-Yovo Gérome Koutremon, Doctorant en Science de Gestion à l'Université Bourgogne Europe, Université Bourgogne Europe

Isabelle Frochot, Maître de Conférences HDR - Comportement du Consommateur, Université Bourgogne Europe

Jean-Baptiste Welté, Professeur des Universités en Sciences de Gestion

Face à l’accélération des rythmes de vie et aux excès du tourisme de masse, émerge le slow tourisme. Objectif : se ressourcer en étant plus respectueux de l’environnement et des territoires d’accueil.
Texte intégral (1778 mots)

Face à l’accélération des rythmes de vie et aux excès du tourisme de masse, une autre façon de voyager émerge : le slow tourisme. Il s’agit de prendre le temps de se déplacer et de se ressourcer en étant plus respectueux de l’environnement et des territoires d’accueil. Une pratique qui vise une transformation profonde de l’expérience touristique.


Les vacances, et les voyages qui y sont associés, sont un plaisir recherché par nombre d’entre nous. À l’échelle planétaire, on observe une progression annuelle moyenne du tourisme international de + 5 % depuis plusieurs décennies (hors période Covid). À ce volume viennent s’ajouter les touristes nationaux et les excursionnistes (visiteurs se déplaçant à la journée). L’histoire nous montre que l’industrie touristique est résiliente et capable d’absorber les crises, à l’image du rebond observé après la pandémie de Covid. La France est par ailleurs la première destination mondiale, avec 100 millions de visiteurs internationaux.

En parallèle de cette hausse des voyages, émerge le slow tourisme – littéralement, « tourisme lent », qui promeut un ralentissement radical pour compenser l’accélération des rythmes de vie, marqués par une multiplication des activités professionnelles et personnelles et par des contraintes temporelles.

La pratique touristique devient l’occasion de se ressourcer. Séjours méditatifs dans des monastères, randonnées en montagne ou navigation sur les canaux français illustrent cette recherche d’apaisement.

À l’origine, le mouvement Slow est né en Italie, dans les années 1980, pour défendre le recours aux productions culinaires locales. Il prône, par extension, un réapprentissage de la lenteur, notamment dans les modes de transports, associé à des pratiques plus écoresponsables.


À lire aussi : Annecy : derrière la carte postale, l’ombre du surtourisme


Car le tourisme peut effectivement s’avérer dommageable pour les milieux naturels et pour les populations locales. La médiatisation du surtourisme dans les destinations les plus populaires, de Barcelone (Espagne) à Naples (Italie), en passant par Lisbonne (Portugal), a mis en lumière l’ampleur de ses effets délétères : dégradation de l’environnement, exclusion des populations locales, etc.

Tourisme du « temps choisi »

Le ministère de l’économie définit le slow tourisme comme

« [un] tourisme du temps choisi, garant d’un ressourcement de l’être (pause, déconnexion, lâcher-prise, mais aussi bien-être, temps pour soi, santé), peu émetteur de CO2, respectant l’écosystème du territoire d’accueil, synonyme de patience, de sérénité, d’enrichissement culturel ».

Cette définition en facilite la reconnaissance et met en avant les quatre dimensions structurantes du slow tourisme : un mode de transport, un rapport au territoire, au temps, et à soi.

Concernant le mode de transport, le slow tourisme s’appuie sur des mobilités décarbonées : train, transport pédestre, navigation fluviale. Des mobilités prisées, comme on peut le voir avec la hausse de fréquentation des chemins de Saint-Jacques-de-Compostelle, ou celle des trajets ferroviaires. Ainsi, la fréquentation des trains de voyageurs en France a atteint un record en 2024, avec une progression de 6 % par rapport à 2023.

Du côté des pouvoirs publics, on relève des investissements en ce sens : voies cyclables aussi bien locales qu’européennes (Véloroutes), développement de l’offre de trains de nuit ; tandis que des fédérations ou des associations mènent des actions pour entretenir des dispositifs existants (entretien des chemins de randonnée et des refuges par la Fédération française des clubs alpins et de montagne).

Conscients de cette aspiration émergente, les acteurs du tourisme se sont aussi saisis du concept. Se développent ainsi des offres de produits plus durables proposées par des prestataires privés : croisières à voile, voyages d’aventure combinant plusieurs modes de transport ou de déplacement sans avion.

Car le rapport au territoire constitue une autre caractéristique importante du slow tourisme. Il s’agit de mesurer l’impact de sa pratique touristique sur l’écosystème et sur les cultures locales et de valoriser des séjours centrés sur l’expérience et non sur la consommation d’une infrastructure façonnée pour le touriste.

Déconnexion bénéfique

Le temps du slow tourisme, c’est celui du ralentissement, ce que Katharina C. Husemann et Giana M. Eckhardt, chercheuses en marketing, désignent par le « besoin croissant de décélération », dans leur étude ethnographique du pèlerinage de Saint-Jacques de Compostelle, à savoir un temps où l’on est moins soumis aux événements et sollicitations.

Les adeptes du slow tourisme se réapproprient ce rythme apaisé, comme l’illustre ce témoignage d’un randonneur, recueilli au cours de l’une de nos recherches sur les refuges en montagne dans le massif des Écrins (Alpes françaises), en 2019 :

« Ici, c’est un rythme complètement différent parce que, quand je suis en bas, je suis quand même un minimum le rythme, les jours de la semaine, je sais quand c’est le week-end, par exemple, et dès que je suis en refuge, j’oublie complètement dans quelle temporalité on est. Je ne planifie plus ce que je dois faire : je dois juste manger, dormir et rebelote […] et du coup, y’a pas d’autre but que juste marcher et arriver là où on veut arriver. »

Ce retour à la lenteur valorise le trajet lui-même. Il n’est plus perçu uniquement comme un moyen d’atteindre une destination, mais comme une expérience à part entière. Cette lenteur imposée par le voyage choisi induit également une déconnexion bénéfique vis-à-vis des écrans, des obligations, du brouhaha quotidien, comme l’exprime cet autre témoignage :

« Pour moi, ça coupe vraiment de la routine, on n’est pas chez soi, on ne se donne pas d’obligations à faire ceci, cela, là on a juste à mettre les pieds sous la table comme on dit, et puis faire sa petite toilette, se promener, regarder le paysage, respirer, ça fait trop du bien quoi. »

Le slow tourisme est aussi un temps de réflexion sur soi. Il s’agit de réinterroger ce que l’on cherche en voyageant, de redonner place à l’ennui, de penser autrement sa vie, voire de revisiter ses priorités.

Cette expérience passe également par le corps : marcher, pédaler, ramer, camper. Loin des mobilités rapides, le voyage devient une expérience sensorielle, physique et méditative ; une façon de revenir à l’essentiel, de redécouvrir des plaisirs simples, loin du tumulte et de l’injonction d’efficacité du monde moderne.

Le cyclotourisme, incarnation du slow tourisme

L’essor du cyclotourisme est emblématique de cet attrait pour une autre manière de voyager. Sa pratique est en forte augmentation sur le marché français : évalué à 7,9 milliards de dollars (USD) en 2024 (7,27 milliards d’euros), il devrait croître de plus de 11 % par an d’ici à 2033. Ce mode de déplacement, mêlant effort physique et itinérance libre en immersion, séduit par sa capacité à faire du trajet un moment existentiel.

Au-delà de ces chiffres, certains récits de cyclo-voyageurs, (issus de blogs et de forums) récoltés dans le cadre d’une recherche doctorale en cours, révèlent une expérience d’autonomie radicale :

« J’aime beaucoup l’improvisation, j’aime beaucoup les chemins hors sentiers battus… Peu importe où ça mène, je les prends. »

Ce que certains appellent la « magie du chemin » relève ici d’une transformation intérieure liée à la lenteur, au silence, à la nature.

Cette philosophie du voyage lent, sobre, sensoriel, est souvent décrite comme une manière de « se recentrer », de « ralentir », ou de « réapprendre à vivre ». Loin d’un simple loisir, le cyclotourisme est pour ces voyageurs une forme d’existence en mouvement.

En somme, le slow tourisme ne se résume pas à une pratique écologique ou à un mode de déplacement. Il exprime une volonté de redonner du sens au voyage, en le replaçant dans un rapport spécifique au temps, au territoire et à soi.

À l’ère de l’éco-anxiété, le slow tourisme trouve une résonance. Et si l’avenir du tourisme ne consistait plus à aller plus vite ou plus loin, mais à être plus présent ?

The Conversation

Jean-Baptiste Welté a reçu des financements de l'ANR pour un projet sur la sobriété

Fo-Yovo Gérome Koutremon et Isabelle Frochot ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.

PDF

19.08.2025 à 15:52

Carte d’identité universelle et un dollar par jour : une utopie réaliste pour vaincre l’invisibilité et la faim

Ettore Recchi, Professeur des universités, Centre de Recherche Sur les Inégalités Sociales (CRIS), Sciences Po

Tobias Grohmann, Research Fellow at the Migration Policy Centre (MPC) of the European University Institute (EUI) in Florence, European University Institute

Présentation d’un ambitieux projet visant à améliorer le sort de centaines de millions de personnes sur la planète.
Texte intégral (2158 mots)

Créer un registre universel recensant toutes les personnes qui le souhaitent, ce qui leur permettra de bénéficier de nombreux services à ce stade inaccessibles ; et verser un dollar par jour à toutes celles qui vivent sous le seuil de pauvreté. Cette double mesure, qui peut paraître utopique, n’est pas aussi irréaliste que cela, comme le démontre un article paru dans une revue à comité de lecture, dont les auteurs nous présentent ici les principaux aspects.


Que signifie être invisible ? Pour plusieurs centaines de millions de personnes à travers le monde, cela veut dire ne posséder aucune preuve légale d’identité : ni passeport ni acte de naissance – aucun moyen de prouver son existence aux yeux d’un État. Et que signifie être incapable de mener une vie digne ? C’est gérer son quotidien avec moins de 6,85 $ par jour, ce qui correspond au seuil de pauvreté fixé par la Banque mondiale. Dans un monde plus riche que jamais, ces deux situations définissent ce que nous appelons des « inégalités scandaleuses ».

Notre proposition, détaillée dans un article récemment publié dans Humanities and Social Sciences Communications, vise à s’attaquer simultanément à ces deux problèmes : l’absence d’identité légale et la faim. L’idée est simple : garantir une carte d’identité pour chaque personne vivant sur Terre (Humanity Identity Card, HIC) et un complément de revenu de base de 1 dollar (USD) par jour (Basic Income Supplement, BIS) pour la moitié la plus pauvre de la population mondiale.

Cette politique sociale globale contribuerait à garantir des droits humains fondamentaux comme le droit à l’égalité devant la loi, un niveau de vie suffisant et une protection sociale. Elle devrait également encourager un nouveau sentiment de solidarité internationale : les pays, les entreprises et les individus les plus riches soutiendraient les plus vulnérables, non pas par charité, mais dans le cadre d’un engagement structuré et partagé.

Des inégalités vitales et existentielles

En nous appuyant sur les travaux d’Amartya Sen et de Göran Therborn, nous nous concentrons sur deux dimensions de l’inégalité : l’existentielle et la vitale.

L’inégalité existentielle concerne la reconnaissance. Près de 850 millions de personnes, selon une étude de la Banque mondiale, n’ont aucune pièce d’identité reconnue légalement. Cela signifie que, dans la plupart des pays du monde, elles ne peuvent pas ouvrir de compte bancaire, accéder à des services publics, inscrire leurs enfants à l’école ou s’inscrire elles-mêmes dans des établissements d’enseignement, ou encore enregistrer une carte SIM à leur nom. Sans identité légale, on n’est pas seulement exclu : on est aussi invisible.

L’inégalité vitale concerne les ressources nécessaires à la survie. L’insécurité alimentaire demeure l’un des problèmes les plus persistants et mortels aujourd’hui. Alors que la production alimentaire mondiale atteint des sommets historiques, environ 735 millions de personnes souffrent encore de la faim et des millions d’enfants sont malnutris. Ceci n’est pas dû à une pénurie de nourriture, mais à une véritable exclusion économique, faute tout simplement d’avoir les moyens d’accéder à la nourriture disponible.

Ces deux problèmes vont souvent de pair : les plus pauvres sont aussi ceux qui ont le moins de chances d’être officiellement enregistrés auprès des administrations. Surtout, dans les pays les moins développés, en l’absence de filet de sécurité national, ils passent entre les mailles des systèmes censés les protéger.

Une carte pour chaque être humain

La carte d’identité universelle (HIC) est au cœur de la proposition.

Elle serait délivrée par une instance mondiale – très probablement sous l’égide des Nations unies – et proposée à chaque personne, quels que soient sa nationalité ou son statut migratoire. La carte inclurait des données biométriques telles qu’une empreinte digitale ou un scan de l’iris, ainsi qu’une photo et des informations de base comme le nom et la date de naissance de l’individu.

Avec une HIC, les habitants des zones rurales dans les pays à faible revenu pourraient s’inscrire à des services téléphoniques, à travers lesquels ils pourraient recevoir de l’aide par « mobile money » ; ce qui est actuellement sujet à un enregistrement préalable avec carte d’identité. De même, migrants et voyageurs pourraient demander de l’aide, des soins ou simplement une chambre d’hôtel sans s’exposer à des refus ou à des discriminations en raison d’une nationalité stigmatisée.

Cette carte ne serait liée à aucun gouvernement. Sa seule fonction serait de vérifier l’existence de la personne et ses droits en tant qu’être humain. Les données sensibles seraient stockées dans un système sécurisé géré par l’ONU, inaccessible aux gouvernements sauf autorisation explicite du titulaire. Cela distingue notre proposition d’autres programmes, comme l’initiative Identification for Development (ID4D) de la Banque mondiale, qui est censée fonctionner dans les limites des systèmes d’identification nationaux, exposés aux changements d’agenda des gouvernements.

Un dollar par jour pour la moitié de la population mondiale

Le second pilier de la proposition est un complément de revenu de base (BIS). Toute personne disposant d’un revenu inférieur à 2 500 dollars par an – soit environ la moitié de la population mondiale – recevrait un paiement inconditionnel de 1 dollar par jour. Ce montant est suffisamment faible pour rester abordable à l’échelle mondiale, mais assez élevé pour changer concrètement la vie quotidienne des plus pauvres.

Contrairement à de nombreux systèmes d’aide sociale existants, ce revenu serait versé directement aux individus, et non aux ménages, ce qui permettrait de réduire les inégalités de genre et de garantir que les enfants et les femmes ne soient pas exclus. L’argent pourrait être distribué par l’intermédiaire des systèmes de paiement mobile, déjà largement utilisés avec une efficacité remarquable dans de nombreux pays à faible revenu.

Les conclusions tirées de l’examen d’autres programmes de transferts monétaires montrent que ce type de soutien peut réduire significativement la faim, améliorer la santé des enfants, augmenter la fréquentation scolaire et même encourager l’entrepreneuriat. Les personnes vivant dans l’extrême pauvreté dépensent généralement ce revenu supplémentaire de manière avisée : elles savent mieux que quiconque ce dont elles ont en priorité besoin.

Mais qui finance ?

Un programme mondial de cette ampleur n’est pas bon marché. Nous estimons que le complément de revenu de base coûterait environ 1 500 milliards de dollars par an. Mais nous avons aussi esquissé son plan de financement.

La proposition prévoit une taxe mondiale de seulement 0,66 % sur trois sources :

  • sur le produit intérieur brut (PIB) de chaque État souverain ;

  • sur la capitalisation boursière des entreprises valant plus d’un milliard de dollars ;

  • sur la richesse totale des ménages milliardaires.

Au total, cela générerait suffisamment de ressources pour financer le complément de revenu et administrer la carte d’identité, avec un petit surplus pour les coûts opérationnels.

La participation serait obligatoire pour tous les États membres de l’ONU, ainsi que pour les entreprises et individus concernés. Le non-respect entraînerait des sanctions, telles que la dénonciation publique, des conséquences commerciales ou l’exclusion de certains avantages internationaux.

Ce système s’inspire de précédents existants, comme l’objectif fixé aux États de consacrer 0,7 % de leur budget annuel à l’aide au développement ou l’accord récent de l’OCDE sur un impôt minimum mondial pour les entreprises. Plusieurs dirigeants du G20 ont d’ailleurs déjà exprimé leur soutien à une taxation mondiale de la richesse. Ce qui manque, c’est la coordination – et la volonté politique.

Pourquoi le mettre en œuvre maintenant ?

Pour beaucoup, la proposition semblera utopique. Les inégalités mondiales sont profondément ancrées, et les intérêts nationaux priment souvent sur les responsabilités globales, comme l’illustrent les développements politiques récents (le 1er juillet, le gouvernement des États-Unis a officiellement cessé de financer l’USAID). Mais nous avons aussi vu à quelle vitesse le monde peut mobiliser des ressources en temps de crise – comme lors de la pandémie de Covid-19, où des milliers de milliards ont été injectés dans l’économie mondiale en quelques semaines.

La technologie, elle aussi, a suffisamment progressé pour que la délivrance et la gestion d’une carte d’identité universelle ne relèvent plus de la science-fiction. Les systèmes biométriques sont répandus, et les services de paiement mobile sont des outils éprouvés pour distribuer efficacement l’aide. Ce qu’il faut aujourd’hui, c’est de l’imagination – et de la détermination.

En outre, la proposition repose sur un argument moral puissant : dans un monde aussi interconnecté que le nôtre, pouvons-nous continuer à accepter que certains n’aient aucune existence légale ni aucun moyen de se nourrir ? Pouvons-nous nous permettre de ne rien faire ?

Un pas possible vers la citoyenneté mondiale

Au-delà de ses bénéfices pratiques, la carte d’identité universelle et le complément de revenu de base représentent quelque chose de plus profond : un nouveau modèle de protection sociale mondiale.

Ils considèrent l’identité et le revenu de base non comme des privilèges de citoyenneté, mais comme des droits inhérents à la personne. Ils offrent ainsi une alternative à une vision nationaliste de l’organisation sociale.

C’est une vision radicale mais pas irréalisable – une politique proche de ce que le sociologue Erik Olin Wright appelait « une utopie réaliste » : un monde où naître au mauvais endroit ne condamne plus à une vie de souffrance et d’exclusion.

Que ce plan soit adopté ou non, il ouvre la voie à une réflexion sur la manière dont nous prenons soin les uns des autres au-delà des frontières. À mesure que les défis mondiaux s’intensifient – changement climatique, déplacements, pandémies –, le besoin de solutions globales devient plus urgent. Le projet confère aussi un rôle nouveau et véritablement supranational à l’ONU, à un moment où l’organisation – qui fête cette année son 80e anniversaire – traverse l’une des crises existentielles les plus profondes de son histoire.

Une carte et un dollar par jour peuvent sembler des outils modestes. Mais ils pourraient suffire à rendre visible l’invisible et à sauver les affamés. Et à nous rendre fiers d’être humains.


Pour une version détaillée de cet article, lire Recchi, E., Grohmann, T., « Tackling “scandalous inequalities”: a global policy proposal for a Humanity Identity Card and Basic Income Supplement », Humanities & Social Sciences Communications, 12, art. no : 880 (2025).

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

19.08.2025 à 15:51

Le changement climatique pousse les poissons-lanternes de l’océan Austral dans un cul-de-sac

Cam Ly Rintz, Doctorante en écologie marine et sociologie, Muséum national d’histoire naturelle (MNHN)

Boris Leroy, Maître de conférences en écologie et biogéographie, Muséum national d’histoire naturelle (MNHN)

Le changement climatique pourrait avoir des conséquences dramatiques, en poussant certaines espèces de poissons-lanternes vers un véritable cul-de-sac formé par l’Antarctique.
Texte intégral (2724 mots)
_Krefftichthys anderssoni_ et _Electrona carlsbergi_, deux espèces de poissons-lanternes de l’océan Austral (en haut : vue latérale en lumière naturelle ; en bas : vue ventrale en fluorescence) Jérôme Mallefet/FNRS/UCLouvain, Fourni par l'auteur

Les océans sont tous connectés entre eux, mais leur température peut agir comme une barrière, notamment pour les poissons-lanternes. Le changement climatique pourrait avoir des conséquences dramatiques, en poussant certaines espèces adaptées au froid vers un véritable cul-de-sac, où elles seraient piégées contre l’Antarctique.


Nous pensons souvent que tous les océans du globe sont connectés et que les animaux qui y vivent peuvent voyager de l’un à l’autre. Du côté de la recherche, le concept de One Ocean (un océan unique) a même émergé pour inviter les scientifiques à considérer cette interdépendance.

Pourtant, malgré cette grande connectivité, la biodiversité marine est loin d’être homogène. Elle se répartit en grandes communautés distinctes parmi les océans du monde. C’est le cas notamment des poissons-lanternes (désignés de la sorte du fait de leur bioluminescence) qui résident dans l’hémisphère Sud. En nous intéressant à ces espèces, nous avons découvert que la température de l’eau agit comme une barrière tout autour de l’océan Austral, séparant les communautés.

Avec le changement climatique, cette barrière se déplace vers le sud, ce qui pousse les poissons-lanternes de l’océan Austral dans un cul-de-sac, piégés par le continent antarctique.

Les poissons-lanternes, poissons les plus abondants des abysses

Nous nous sommes intéressés à la grande famille des poissons-lanternes, ou myctophidés, à l’interface entre l’océan Austral et les autres océans du globe.

Contrairement à ce que l’on peut croire, les poissons-lanternes ne sont pas les poissons aux grandes dents et à la petite loupiote sur la tête comme dans le Monde de Nemo : ça, ce sont les baudroies abyssales. Les poissons-lanternes, eux, sont de fascinants petits poissons (en général, de moins de 10 centimètres) aux grands yeux dont les « lanternes » (photophores, organes qui émettent de la lumière) sont réparties le long du corps selon des motifs spécifiques leur permettant notamment de se camoufler ou de se reconnaître dans des profondeurs jusqu’à plus de 1 000 mètres.

Avec près de 250 espèces, on les retrouve dans tous les océans du globe. Ce sont les poissons les plus abondants à ces profondeurs. La plupart accomplissent tous les jours une formidable migration verticale, passant la journée dans les couches plus profondes, où ils sont moins visibles pour les prédateurs, et remontant à la surface la nuit pour se nourrir.

Dans notre étude, l’objectif était d’étudier la répartition géographique des poissons-lanternes, afin de comprendre comment et pourquoi ils se structurent en communautés. Nous ne partions pas de rien : l’expérience de nos collègues océanographes après des décennies d’échantillonnage dans la zone suggérait que les communautés de poissons-lanternes changent complètement à peu près au niveau de la zone des archipels de Crozet et de Kerguelen, dans le sud de l’océan Indien.

À cet endroit, il se trouve que les fronts océaniques sont particulièrement resserrés. Ces fronts correspondent à des changements brutaux de conditions de l’eau, notamment de température. Plusieurs ont été mis en évidence tout autour de l’océan Austral, dont le front subtropical et le front subantarctique.

L’océan Austral et ses fronts océaniques (front subtropical et front subantarctique en pointillés). Cam Ly Rintz/Muséum national d’histoire naturelle, CC BY

On savait également que la température jouait un rôle important pour ces espèces, mais sans avoir de vision sur la répartition des communautés. Ces éléments nous ont amenés à tester une hypothèse qui existe depuis longtemps en écologie, mais qui n’avait jamais été démontrée auparavant. Se pourrait-il que le climat agisse comme une barrière à laquelle toutes les espèces réagissent de la même manière, séparant ainsi les communautés de poissons-lanternes ?

La température agit comme une barrière

En étudiant la répartition géographique de toutes les espèces de poissons-lanternes du sud de l’hémisphère Sud, nous avons montré qu’elles s’organisent en deux grandes régions biogéographiques très différentes :

  • d’une part, une communauté australe composée de 19 espèces se regroupe tout autour du continent antarctique ;

  • et, d’autre part, plus au nord, une communauté subtropicale comprend 73 espèces.

Mais entre ces deux régions, aucune barrière physique ni continent. Nous avons alors testé avec des modèles statistiques l’ensemble des variations de l’océan dans la zone : température, salinité, composition chimique, etc.

Parmi tous ces facteurs, il apparaît que la température ressort, sans équivoque, comme la principale force qui sépare ces deux communautés. Ce qui est nouveau ici, c’est la découverte que toutes les espèces répondent de la même manière à la température : les espèces australes ne s’aventurent pas dans des eaux au-dessus de 8 °C, tandis que les espèces subtropicales ne s’aventurent pas dans celles en dessous de 8 °C.

Ainsi, la température forme une barrière climatique nette, peu perméable, séparant les deux communautés de poissons-lanternes. De l’équateur au pôle, la température de l’océan devient de plus en plus froide, et c’est précisément autour de 8 °C que nous avons mis en évidence cette barrière. C’est d’ailleurs la température que l’on retrouve entre les fronts subtropical et subantarctique.

Ce qui est très intéressant, c’est que, en cherchant à comprendre les mécanismes physiologiques qui expliquent cette séparation, nous avons découvert qu’une hypothèse sur un seuil physiologique à 8 °C avait été proposée en 2002, et que nos travaux viennent la corroborer.

Survivre en dessous de ce seuil nécessite des adaptations au froid, qui ont un coût : ne pas pouvoir survivre à la moindre élévation de température. Les espèces polaires ont ainsi un métabolisme adapté aux conditions extrêmes, mais qui, en retour, les rend incapables de supporter des eaux plus chaudes.

Une perte d’habitat causée par le réchauffement climatique

Avec le changement climatique, l’océan se réchauffe de façon globale, ce qui va induire un déplacement de cette barrière vers le pôle Sud. Les poissons-lanternes subtropicaux vont avoir accès à de nouvelles zones, qui auparavant étaient trop froides, et vont ainsi étendre leur aire de répartition vers le sud. Cependant, pour la communauté australe, ces zones vont devenir trop chaudes, et les espèces vont devoir se replier vers le pôle pour rester à des températures suffisamment basses.

Le problème, c’est que, de l’autre côté, se trouve l’Antarctique, qui forme ainsi un véritable cul-de-sac… Piégée par le continent, la communauté australe verra son habitat se réduire drastiquement.

Déplacement des communautés de poissons-lanternes sous l’effet du changement climatique. Cam Ly Rintz/Muséum national d’histoire naturelle, CC BY

En appliquant des modèles climatiques en fonction des scénarios d’émissions de gaz à effet de serre établis par le Groupement d’experts intergouvernemental sur l’évolution du climat (Giec), nous pouvons projeter la magnitude probable de ces changements. D’après ces scénarios, d’ici 2100, les poissons-lanternes de la région australe pourraient perdre 11 millions de kilomètres carrés (km2) de surface habitable, soit 23 % de leur habitat actuel. Pour donner un ordre de grandeur, cela représente l’équivalent de 80 % de la superficie de l’Antarctique !

L’importance des aires marines protégées

Pourquoi ces résultats sont-ils inquiétants ? D’une part, ils indiquent que le changement climatique représente une menace directe pour les poissons-lanternes de l’océan Austral. D’autre part, les poissons-lanternes occupent une position clé dans la chaîne alimentaire : ce sont à la fois des prédateurs du krill, mais aussi des proies des grands prédateurs marins, comme les manchots ou les éléphants de mer.

Comment les déplacements des poissons-lanternes vont-ils affecter leurs proies ou leurs prédateurs ? Par exemple, pour certains prédateurs marins qui se reproduisent sur des îles comme les Crozet ou les Kerguelen, devront-ils nager plus loin pour se nourrir ? Pourront-ils se rabattre sur d’autres espèces ? Il est extrêmement difficile de répondre à ces questions, d’autant plus que ces autres membres de la chaîne alimentaire seront également affectés par le changement climatique, à des rythmes différents suivant la physiologie et l’écologie des espèces.

Alors comment, face aux changements climatiques et à l’incertitude qui en découle, peut-on concrètement aider ces écosystèmes fragiles à s’adapter aux changements climatiques ? La première étape est de s’assurer que les espèces qui les composent sont en bonne santé et ne sont pas déjà menacées de disparition. Pour cela, il faut réduire au maximum les menaces sur lesquelles nous pouvons agir, telles que la surpêche et la destruction de leurs habitats.

Une solution efficace est de créer des aires marines protégées qui préservent réellement les écosystèmes marins des méthodes de pêche destructrices, ce qui n’est malheureusement pas le cas pour beaucoup d’entre elles actuellement.

Ces zones sont cruciales pour permettre aux espèces de se rétablir et de devenir plus résistantes. Pour être efficaces face aux changements climatiques, ces aires protégées doivent être variées. Il est important de protéger des zones qui resteront relativement stables malgré le changement climatique, qui serviront de refuges, de même qu’il est aussi essentiel de protéger les zones qui seront plus touchées, afin de permettre à leurs espèces et écosystèmes d’être en bonne santé pour s’adapter aux bouleversements qui s’amorcent.

En d’autres termes, un bon réseau d’aires protégées doit représenter toute la diversité des conditions actuelles et futures. Dans le cas de nos poissons-lanternes, cela signifie qu’il faut protéger des zones où vivent les espèces d’eau chaude, d’autres pour celles vivant en eau froide, mais aussi, et surtout, la zone de transition entre les deux communautés, où les espèces se rencontrent, car, c’est là que les changements seront les plus importants.

Nos travaux, en prédisant où ces zones pourraient être localisées, servent ainsi de support aux prises de décision sur la localisation des aires protégées, comme celles menées au sein de la Commission pour la conservation de la faune et la flore marines de l’Antarctique (CCAMLR).

The Conversation

Cam Ly Rintz a bénéficié d'une aide de l'État gérée par l’Agence Nationale de la Recherche au titre de France 2030 portant la référence ANR-22-POCE-0001, dans le cadre du PPR Océan & Climat conjointement animé par le CNRS et l’Ifremer.

Boris Leroy est financé par l'état en tant qu'enseignant-chercheur fonctionnaire.

PDF

19.08.2025 à 15:50

Écran ou papier… pourquoi tourner une page vaut mieux que cliquer

Naomi S. Baron, Professor Emerita of Linguistics, American University

Le toucher joue un rôle important dans le développement des compétences en lecture et en écriture. C’est ce que disent les élèves… et la recherche !
Texte intégral (1841 mots)

Le fait de pouvoir tourner les pages d’un livre ou de tracer au crayon les contours des lettres donne des appuis aux élèves dans l’apprentissage de la lecture et de l’écriture. Dans un monde d’outils numériques, pourquoi préserver cette importance du toucher ?


Lorsque les enfants entrent à l’école, l’une des techniques les plus courantes pour leur enseigner l’alphabet consiste à passer par des manipulations pratiques, comme la formation de lettres avec de l’argile ou de la pâte à modeler.

Mais à mesure que les élèves avancent en âge, la place du toucher diminue dans leur quotidien scolaire – à leur détriment. Beaucoup d’exercices de lecture deviennent numériques, et l’utilisation des claviers d’ordinateur pour écrire continue de progresser, d’autant que les outils d’intelligence artificielle (IA) sont très attractifs en matière d’édition et de composition.

Je suis linguiste et j’étudie les différences entre la lecture sur papier et la lecture numérique et la manière dont l’écriture favorise la réflexion. Avec ma collègue Anne Mangen, nous avons interrogé plus de 500 élèves du secondaire inscrits dans une école internationale d’Amsterdam (Pays-Bas) sur leurs expériences de lecture de textes imprimés par rapport celle des textes numériques. Par ailleurs, j’ai interrogé 100 étudiants et jeunes adultes aux États-Unis et en Europe sur leurs préférences en matière d’écriture manuscrite comparée à la saisie sur clavier.

Rassemblées, les réponses de ces deux études démontrent que les adolescents et les jeunes adultes continuent d’accorder de l’importance au contact physique dans leur rapport à l’écrit ; elles sont riches d’enseignements importants pour les éducateurs et les parents.

La lecture et l’écriture vues par les élèves

Lorsqu’on leur a demandé ce qu’ils aimaient le plus dans la lecture sur papier ou l’écriture à la main, les étudiants ont manifesté leur enthousiasme sur l’importance du toucher. Ce qui m’a surpris, c’est à quel point leurs perceptions à ce sujet concordaient dans les deux études.

Tenir un livre ou un instrument d’écriture entre leurs mains était important pour les élèves, c’est ce que montrent des observations comme :

« On a vraiment l’impression de lire parce que le livre est entre nos mains. »

ou

« J’aime tenir un stylo et sentir le papier sous mes mains, pouvoir former physiquement des mots. »

Les participants à l’étude ont également commenté l’interaction entre le toucher et le mouvement. En ce qui concerne la lecture, l’un d’eux a parlé de

« la sensation de tourner chaque page et d’anticiper ce qui va se passer ensuite ».

À propos de l’écriture manuscrite, un participant a décrit

« le fait de sentir les mots glisser sur la page ».

De nombreux étudiants ont également fait part d’avantages cognitifs. Une multitude de répondants ont évoqué la concentration, le sentiment d’immersion dans un texte ou la mémoire. En ce qui concerne la lecture imprimée, un étudiant a déclaré : « Je la prends plus au sérieux parce que je l’ai physiquement entre les mains. » Pour l’écriture, une réponse disait : « Je peux voir ce que je pense. »

Il y avait également des réflexions d’ordre psychologique. Des élèves ont ainsi écrit : « La sensation d’un livre entre mes mains est très agréable » ou :

« La satisfaction d’avoir rempli toute une page à la main, c’est comme si j’avais gravi une montagne. »

D’autres commentaires ont souligné à quel point le toucher permettait aux élèves de se sentir plus personnellement connectés à l’acte de lire et d’écrire. À propos de la lecture, l’un d’eux a déclaré :

« C’est plus personnel parce que c’est entre vos mains. »

À propos de l’écriture manuscrite, un autre a déclaré :

« Je me sens plus attaché au contenu que je produis. »

Girls sit a table working on touchscreen tablets
Les appareils numériques n’offrent pas la même expérience que les livres, les stylos et les blocs-notes. JGI/Jamie Grill via Getty Images

Un certain nombre de répondants ont écrit que lire des livres physiques et écrire à la main leur semblait en quelque sorte plus « réel » que d’utiliser leurs équivalents numériques. Un étudiant a commenté « le caractère réel du livre ». Un autre a déclaré que « cela semble plus réel que d’écrire sur un ordinateur, les mots semblent avoir plus de sens ».

Nous avons demandé aux participants ce qu’ils appréciaient le plus dans la lecture numérique et dans l’écriture sur un clavier d’ordinateur. Sur plus de 600 réponses, une seule mentionnait le rôle du toucher dans ce qu’ils appréciaient le plus dans l’utilisation de ces technologies pour lire et écrire. Pour la lecture, les étudiants ont salué la commodité et l’accès à Internet. Pour l’écriture, la plus grande rapidité et le fait de pouvoir accéder à Internet étaient des réponses fréquentes.

Ce que nous dit la science sur le toucher

Ce que les élèves nous disent de l’importance du toucher reflète les conclusions de la recherche : ce sens est un moyen efficace de développer les compétences précoces en lecture et en écriture, ainsi qu’une aide pour les lecteurs et les personnes qui écrivent plus expérimentés dans leurs interactions avec l’écrit.

Les psychologues et les spécialistes de la lecture continuent de faire état d’une meilleure compréhension chez les enfants et les jeunes adultes lorsqu’ils lisent sur papier plutôt que sur support numérique, tant pour les lectures scolaires que pour la lecture de loisir. Pour les personnes qui écrivent chevronnées, les données suggèrent que passer plus de temps à écrire à la main qu’à utiliser un clavier d’ordinateur est corrélé à de meilleures capacités motrices fines.

Une récente étude menée en Norvège à l’université a comparé les images cérébrales d’étudiants prenant des notes et a révélé que ceux qui écrivaient à la main, plutôt que de taper au clavier, présentaient une plus grande activité électrique dans les parties du cerveau qui traitent les nouvelles informations et qui favorisent la formation de la mémoire.

Quelles stratégies d’apprentissage mettre en place ?

Le défi pour les enseignants et les parents consiste à trouver comment intégrer le toucher dans les activités de lecture et d’écriture dans un monde qui dépend tellement des outils numériques.

Voici trois suggestions pour résoudre ce paradoxe.

  • Les parents et les enseignants peuvent commencer par écouter les élèves eux-mêmes. Malgré tout le temps qu’ils passent sur leurs appareils numériques, de nombreux jeunes reconnaissent clairement l’importance du toucher dans leur expérience de lecture et d’écriture. Élargissez la conversation en discutant ensemble des différences entre la lecture et l’écriture numériques et manuelles.

  • Ensuite, les parents peuvent trouver des occasions pour leurs enfants de lire des textes imprimés et d’écrire à la main en dehors de l’école, par exemple en les emmenant à la bibliothèque et en les encourageant à écrire une histoire ou à tenir un journal. Mieux encore, les adultes peuvent montrer l’exemple en adoptant eux-mêmes ces pratiques dans leur vie quotidienne.

  • Enfin, les enseignants doivent accorder davantage de place à la lecture d’imprimés et aux devoirs manuscrits. Certains se penchent déjà sur les avantages intrinsèques de l’écriture manuscrite, notamment comme aide à la mémoire et comme outil de réflexion, deux qualités mentionnées par les participants de notre enquête.

Les supports de lecture numériques et les claviers continueront à être utilisés dans les écoles et les foyers. Mais cette réalité ne doit pas occulter le pouvoir du toucher.

The Conversation

Naomi S. Baron ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

19.08.2025 à 15:47

Israël-Iran : comment la « guerre de 12 jours » a secoué les marchés du pétrole et de l’or

Hassen Raïs, Professeur de Finance, EDC Paris Business School

Du 13 au 24 juin 2025, un conflit militaire direct oppose Israël à l’Iran. Comment les marchés boursiers internationaux, notamment de l’or et du pétrole, ont-ils réagi ?
Texte intégral (2138 mots)

Du 13 au 24 juin 2025, un conflit militaire direct a opposé Israël à l’Iran. Comment les marchés boursiers ont-ils réagi ? Les traders ont-ils spéculé sur cette tendance ? Pour répondre à ces questions, nous avons étudié la volatilité (c’est-à-dire, l’amplitude des hausses et des baisses) des cours du pétrole et de l’or.


Le conflit militaire direct entre Israël et l’Iran déclenché le 13 juin 2025, appelé la « guerre de 12 jours », a opposé deux puissances régionales au cœur d’un espace stratégique déterminant pour les flux mondiaux d’énergie. Il concerne, en particulier, le détroit d’Ormuz, artère vitale pour les exportations de pétrole, avec une crainte du bouleversement des dynamiques économiques globales, notamment à travers la flambée et la volatilité des prix des matières premières.

Cet article se propose d’analyser l’impact de la volatilité (l’amplitude des hausses et des baisses) des marchés boursiers sur les matières premières durant cette période.

Les mouvements des prix des indicateurs de volatilités (VIX) suggèrent, dans les premiers jours de la « guerre de 12 jours », une situation de backwardation. Comme le marché de l’or et du pétrole présente une offre inférieure à la demande, leur cours s’avère inférieur à celui de l’instant présent. Concrètement, ce différentiel de prix sur les échéances des contrats, entre court et long terme, a encouragé une plus grande spéculation par les traders.

Marchés pétroliers en hausse de 8,28 %

L’Autorité des marchés financiers (AMF) a recensé en France 5,2 millions de transactions sur des fonds cotés sur indices en 2024 (Exchange Traded Funds ou ETF), après 2,8 millions en 2023. Les matières premières et, en particulier, les contrats à (long) terme sur les matières premières, servent désormais : de couvertures potentielles contre les pressions inflationnistes, de composantes de portefeuille pour des opportunités de diversification et, potentiellement, de substituts monétaires en cas de turbulences économiques.

Dès les premières frappes échangées, les marchés pétroliers ont réagi avec une nervosité extrême. Le 13 juin 2025, le pétrole brut Brent a enregistré une hausse de 8,28 %, atteignant 75,10 dollars le baril et le cours du pétrole brut West Texas Intermediate (WTI) a grimpé de 8,8 %, atteignant presque 74 dollars.

Ces hausses s’expliquent par la crainte d’un blocage du détroit d’Ormuz par lequel transite environ 20 % du pétrole mondial. La structure oligopolistique du marché pétrolier, dominée par quelques grands exportateurs, le rend particulièrement sensible aux perturbations géopolitiques.

Ces inquiétudes ont incité les opérateurs financiers à spéculer massivement à la hausse sur les contrats à terme (les futures), accentuant la volatilité des cours.

Or comme valeur refuge

On distingue deux volatilités sur les marchés financiers : la volatilité historique indique la volatilité d’un titre pour une période passée, et la volatilité implicite, ou perception du risque, correspond à la volatilité anticipée par le marché. On mesure la volatilité implicite par l’indice VIX, qui correspond à la valeur d’un panier d’options à court terme sur le S&P500. Cet indice boursier est basé sur 500 grandes sociétés cotées aux États-Unis.


À lire aussi : En 2025, l’or est-il encore l’ultime placement refuge ?


La recherche académique nous fournit beaucoup d’articles sur la relation entre la volatilité des marchés et les prix des matières premières. L’une souligne la distinction entre l’or comme valeur refuge. Par exemple, l’or est une valeur refuge pendant les trois crises financières de 1987, de 1997 et de 2008. Le précieux minerai est utilisé comme une couverture, car ses rendements sont positifs (en moyenne) lorsque les rendements des actifs financiers (actions ou obligations) sont négatifs.

VIX, l’indice de la peur

D’autres chercheurs identifient l’or comme une valeur refuge pendant les périodes de détresse du marché, avec une faible corrélation avec le dollar et les actions. L’or a une relation négative et significative avec les actions dans les marchés baissiers, mais pas dans les marchés haussiers, parce que l’or est toujours considéré comme une valeur refuge. Autrement dit, on achète moins d’or quand les marchés sont florissants, beaucoup quand ils sont en berne. C’est pourquoi certains chercheurs utilisent le VIX comme indicateur des perceptions mondiales du risque.

Indice VIX
VIX est un indicateur de volatilité du marché financier états-unien. Il est établi quotidiennement par le Chicago Board Options Exchange. Boursorama

Le VIX et le pétrole étant négativement corrélés, une augmentation de la crainte sur les marchés financiers induit une réduction de la demande sur les marchés de l’énergie. L’indicateur de volatilité du marché financier états-unien VIX, appelé indice de la peur, exprime et mesure la volatilité implicite ou la volatilité anticipée des marchés financiers. Il a, empiriquement, un effet économiquement significatif à long terme sur plusieurs matières premières comme le pétrole et l’or.

Perception du risque

Dans le cadre de cet article, nous analysons les relations entre la perception du risque globale et les matières premières. Nous utilisons pour cela les données de la veille, ou intra-journalières, durant la période de la « guerre de 12 jours ».

La perception du risque ou la volatilité implicite est mesurée par l’indice boursier états-unien VIX. Concernant les matières premières, nous nous concentrons sur les prix du pétrole et de l’or.

Le prix du pétrole est mesuré sur deux indices : le Brent – référence de prix pour le pétrole d’Europe, d’Afrique et du Moyen-Orient – et le WTI – référence de prix pour le pétrole auprès du New York Mercantile Exchange.

Notre modèle économétrique sur les données de cette période montre que l’amplitude des hausses et des baisses du cours boursier VIX est de 60 % plus élevée que celle des matières premières.

Les études empiriques montrent que les rendements des contrats à (long) terme sur les matières premières sont influencés par la perception du risque (volatilité implicite). Concrètement, le cours de l’or augmente lorsqu’il y a cette perception. Cette tendance confirme l’idée que les investisseurs perçoivent toujours l’or comme une valeur refuge, à acheter en prévision d’un accroissement de la volatilité accrue des marchés.

Le pétrole, quant à lui, présente une corrélation négative avec la perception du risque. Le cours du pétrole baisse lorsqu’il y a cette volatilité implicite. Ces résultats sont conformes aux analyses des études précédentes. Le Brent, qui est le standard du pétrole du Moyen-Orient, présente une plus grande corrélation (négative) durant cette période que le WTI. La crainte de la fermeture du détroit d’Ormuz est davantage ressentie.

Spéculation sur la peur

Pour compléter notre analyse, notre modèle intègre, dans un deuxième temps, l’indicateur de volatilité du marché financier états-unien établi quotidiennement par le Chicago Board Options Exchange, le VXX. Si le VIX est un indice mesurant la volatilité attendue du marché, le VXX est un titre négocié en bourse qui suit les contrats à (long) terme sur le VIX. Le VXX est un fonds négocié en bourse, qui utilise un portefeuille de contrats à court terme sur l’indice S&P500-VIX.

Les titres VXX peuvent être achetés ou vendus, comme des actions. Le VXX est couramment utilisé comme couverture contre la volatilité du marché. En détenant des positions longues ou acheteuses sur le marché, on peut acheter des options ou des contrats à terme pour se protéger contre une baisse soudaine du marché, durant la période d’étude.

Pendant les périodes de forte volatilité, elles peuvent atteindre un pic, offrant aux traders la possibilité de profiter des mouvements de prix à court terme et des opportunités de trading spéculatif. On observe une augmentation du VXX du 12 au 13 juin 2024, qui passe de 51 à 55. Ce mouvement indique une potentielle spéculation sur la peur.

Nous confirmons que le conflit militaire exacerbe la volatilité et un comportement spéculatif accru de la part des intervenants sur les marchés. Ce comportement en période de conflit mérite davantage d’attention de la part de la recherche académique.

Heureusement pour tous, la guerre a pris fin le 24 juin.

The Conversation

Hassen Raïs ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

19.08.2025 à 11:56

L’endettement de l’État sous Chirac, Sarkozy, Hollande, Macron… ce que nous apprend l’histoire récente

François Langot, Professeur d'économie, Directeur adjoint de l'i-MIP (PSE-CEPREMAP), Le Mans Université

Jacques Chirac, Nicolas Sarkozy, François Hollande puis Emmanuel Macron sont confrontés à la problématique de la dette. Qui a bénéficié d’une bonne ou d’une mauvaise conjoncture ?
Texte intégral (2613 mots)

Jacques Chirac, Nicolas Sarkozy, François Hollande puis Emmanuel Macron ont été confrontés à la problématique de la dette et de ses intérêts. Comment la conjoncture économique (inflation et croissance) agissent sur cette dette ? Qui a bénéficié d’une bonne ou d’une mauvaise conjoncture ?


La dette n’a cessé de croître au cours de ces trente dernières années. Elle est la somme de tous les déficits publics accumulés depuis le milieu des années 1970. Afin de comparer le montant de cette dette à une capacité de financement, elle est exprimée en pourcentage du produit intérieur brut (PIB) – ratio dette/PIB, ce qui indique combien d’années de création de richesses (le PIB) sont nécessaires à son remboursement.

Sous Jacques Chirac, elle est passée de 663,5 milliards d’euros à 1 211,4 milliards d’euros, soit de 55,5 % à 64,1 % du PIB. Sous Nicolas Sarkozy, à 1 833,8 milliards d’euros, soit à 90,2 % du PIB. Sous Hollande, à 2 258,7 milliards d’euros, soit 98,4 % du PIB.

À la fin du premier trimestre 2025, la dette de la France représente 3 345,4 milliards d’euros, soit 113,9 % du PIB. Si cet endettement résulte évidemment de choix politiques, déterminant les recettes et les dépenses du pays, il dépend également de la conjoncture économique… qui peut plus ou moins faciliter la gestion de cette dette.

Crise des subprimes en 2008, pandémie de Covid-19, zone euro en récession, bulle Internet, embellie des années 2000, les gouvernements de Jacques Chirac, Nicolas Sarkozy, François Hollande et Emmanuel Macron ont connu des conjonctures économiques aussi assombries que radieuses. Avec quels arbitrages ? Explication en graphiques.

Influences de la conjoncture sur la dette

La conjoncture économique peut être analysée à travers deux paramètres, qui sont tous les deux des taux : le taux d’intérêt (r), fixé par la Banque centrale européenne (BCE) et qui détermine la charge d’intérêt à payer sur la dette, et les taux de croissance (g comme growth) qui mesurent l’accroissement annuel de richesses créées (le PIB). La conjoncture économique est à l’origine de deux effets :

Un premier effet est défavorable aux finances publiques. Il se produit lorsque la conjoncture conduit le taux d’intérêt (r) à être supérieur au taux de croissance (g), soit r-g > 0. Dans ce contexte, le surplus de richesse créée induit par la croissance est inférieur aux intérêts à payer sur la dette. De facto, la dette croît, même si les choix politiques conduisent les recettes de l’État à financer ses dépenses (hors charges des intérêts de cette dette), c’est-à-dire si le déficit primaire est nul.


À lire aussi : « La crise politique est plus inquiétante pour l’économie française que la crise budgétaire seule »


Le schéma (Figure 1) indique que cette conjoncture défavorable s’est produite sous le mandat de Jacques Chirac. En cette période, la somme des déficits primaires, soit les dépenses de l’État hors charge de la dette, et les recettes, est quasiment stable (courbe bleue). La dette est en hausse à cause d’intérêts élevés (r entre 2,5 % et 5 %), conjugués avec une croissance modérée (g est autour de 4 %) qui font croître cet endettement (courbe rouge).

Un deuxième effet est favorable aux finances publiques. Si le taux d’intérêt réel est inférieur au taux de croissance (r-g < 0), alors la dette (ratio dette/PIB) peut être stabilisée, même si les dépenses, hors charges des intérêts, sont supérieures aux recettes, c’est-à-dire même si les choix politiques induisent un déficit primaire. En effet, dans ce cas, l’accroissement annuel de la richesse créée (la croissance du PIB) est supérieure à la charge des intérêts.

Le schéma (Figure 1) indique qu’une telle conjoncture s’est produite sous les mandats d’Emmanuel Macron. Pendant cette période, la somme des déficits primaires a fortement crû (courbe bleue) : les choix politiques ont conduit les dépenses de l’État (hors charges des intérêts sur la dette) à être supérieures à ses recettes. Toutefois, la dette a augmenté plus faiblement (courbe rouge), car les taux d’intérêts sont restés plus faibles que la croissance (moins de 2 % pour les taux d’intérêt, r, contre plus de 2,5 % pour la croissance, g).

Figure 1 : L’écart entre la ligne rouge et la ligne bleue mesure la contribution des charges d’intérêt nette de la croissance (r-g) à l’évolution du ratio dette/PIB. Données Insee. Fourni par l'auteur

Contribution de la conjoncture à la dette

L’histoire récente classe en deux groupes les mandats présidentiels. Celui où une « mauvaise » conjoncture explique majoritairement la hausse de la dette (ratio dette/PIB) – dans la figure 1, la courbe rouge croît davantage que la courbe bleue. Celui où les déficits primaires contribuent majoritairement à sa hausse – dans la figure 1, la courbe bleue croît davantage que la courbe rouge.

Le premier regroupe les mandats de Jacques Chirac et Nicolas Sarkozy. Le second, ceux de François Hollande et d’Emmanuel Macron.

Les données montrent que sous les deux mandats de Jacques Chirac (1995-2007), le ratio dette/PIB a augmenté de 8,99 points (0,75 point par an). Cette augmentation est due à une « mauvaise » conjoncture pour les finances publiques (effet de r-g > 0) qui a fait croître le ratio dette/PIB de 10,07 points, la dynamique des déficits primaires ayant contribué à le réduire de 1,08 point. Pendant cette période, les taux d’intérêt sur la dette publique étaient très élevés – entre 4 et 6 %.

Sous le mandat de Nicolas Sarkozy (2007-2012), le ratio dette/PIB a crû de 22,76 points (4,55 points par an), dont 11,01 points induits par les déficits primaires, soit 48 % de la hausse totale, et 11,75 points à la conjoncture (52 % du total). Les taux d’intérêt ont continué à être élevés – entre 3 et 4 %. Les déficits primaires importants ont suivi les choix politiques visant à amortir la crise des subprimes.

A contrario, pendant le mandat de François Hollande, c’est la hausse des déficits primaires qui expliquent à 71,5 % de la hausse totale du ratio dette/PIB (9,13 points parmi les 12,74 points de hausse totale, soit 2,55 points par année). Les taux d’intérêt ont continué à baisser, passant de 3 % à moins de 2 %, alors que les déficits primaires n’ont pas été contrôlés, même si les crises des subprimes puis des dettes souveraines étaient passées.

Déficits primaires sous Emmanuel Macron

Les mandats d’Emmanuel Macron, jusqu’en 2024, accentuent encore le trait. La dette n’a augmenté que de 10,8 points (1,35 point par an), car la conjoncture l’a fait baisser de 15,31 points, les taux d’intérêt devenant très faibles, passant sous les 1 % en 2020. La hausse de la dette s’explique uniquement par la très forte hausse des déficits primaires qui l’ont fait croître de 26,11 points, pendant une période où la pandémie de Covid-19 et la crise de l’énergie ont conduit l’État à assurer les Français contre de trop forte baisses de pouvoir d’achat.


À lire aussi : Quand commence un krach boursier ? Et qu’appelle-t-on ainsi ?


La période future, allant de 2025-2029, se classe dans la seconde configuration où la conjoncture facilitera de moins en moins la gestion de la dette publique (r-g < 0). Même avec un objectif politique de maîtrise de l’endettement, la réduction des déficits primaires pourra alors se faire graduellement. Toutefois, avec ces déficits qui continueront à peser sur la dette, la conjoncture facilitera de moins en moins la gestion de la dette publique, car la croissance compensera de moins en moins un taux d’intérêt en hausse.

Le budget présenté par François Bayrou, le 25 juillet dernier, fera croître le ratio dette/PIB de 4,6 points (0,92 point par an), dans un contexte où la conjoncture le réduira de 1,7 point. Les déficits primaires l’augmenteront donc de 6,3 points. Dans ce contexte, l’effort budgétaire proposé par le gouvernement Bayrou permettra de stabiliser le ratio dette/PIB autour de 117 %, certes loin de la stabilisation autour de 60 % des mandats de Jacques Chirac…

Équilibre entre dépenses et recettes

L’évolution du déficit primaire (écart entre les dépenses, hors charges d’intérêt, et les recettes) indique que sur les vingt-neuf dernières années, il y a eu dix années où il s’est accru. Trois hausses majeures se dégagent : en 2002, de 1,82 point avec le krach boursier, en 2009 de 4,2 points, avec la crise des subprimes et, en 2020, de 6,1 points, avec la pandémie de Covid-19.

En 2002, la hausse du déficit était partagée avec 1,1 point lié aux hausses des dépenses et 0,72 point aux réductions des recettes. Les fortes hausses de 2008 et de 2020 sont majoritairement dues à des hausses de dépenses : 95 % des 4,2 points de 2009 et 97 % des 6,1 points de 2020. Afin de contenir la dette, les recettes ont fini par augmenter après les crises, entre 2004 et 2006, puis entre 2011 et 2013 et, enfin, entre 2021 et 2022. Mais il n’y a jamais eu de réduction des dépenses ni après 2011 ni après 2023.

C’est donc leur persistance à un niveau élevé qui explique l’accroissement du ratio dette/PIB. Seule la période très récente (en 2023) avec la crise ukrainienne a conduit l’État à réduire les recettes afin de préserver le pouvoir d’achat dans un contexte de forte inflation.

Contrôle des dépenses publiques

Le plan du gouvernement Bayrou, en faisant peser les trois quarts de l’ajustement sur les dépenses, propose de reprendre le contrôle des dépenses publiques afin qu’elles représentent 54,4 % du PIB en 2029 – ce que l’on observait avant la crise de 2007. Au-delà de stabiliser le ratio dette/PIB, ce choix politique permet aussi d’envisager la possibilité de gérer une éventuelle crise future. La question qui se pose alors est : quels postes de dépenses réduire en priorité ?

Variation d’un type de dépense par mandat. La variation mesure l’écart en point de PIB entre la dépense en fin de mandat (2023 pour Emmanuel Macron) et la dépense en début de mandat. Données Insee. Fourni par l'auteur

Les postes de dépenses qui ont crû depuis 1995 sont ceux liés à l’environnement (+0,8 point de PIB), à la santé (+3,2 points de PIB), aux loisirs, à la culture et au culte (+0,6 point de PIB) et à la protection sociale (+1,3 point de PIB). Ceux qui ont baissé sont ceux liés aux services généraux des administrations publiques (-4,1 points de PIB), à la défense (-1,1 point de PIB) et à l’enseignement (-1,5 points de PIB). À l’avenir, un budget réallouant les dépenses en faveur de la défense et l’enseignement via un meilleur contrôle des dépenses de santé et de protection sociale devra donc être perçu comme un simple rééquilibrage.

The Conversation

François Langot ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

18.08.2025 à 18:13

Les cigales, des insectes faussement familiers

Stéphane Puissant, Cicadologue au Muséum d'Histoire naturelle de Dijon, Muséum national d’histoire naturelle (MNHN)

Saviez-vous que certaines espèces peuvent vivre plus de vingt ans, que certains mâles restent silencieux, que l’essentiel de la vie d’une cigale se passe sous terre&nbsp;?
Texte intégral (6296 mots)
_Cicadetta montana_, _Cicada orni_, _Lyristes plebejus_, _Cicadetta brevipennis litoralis_, _Cicadetta cantilatrix_. Fritz Geller-Grimm, Stéphane Puissant, Thomas Hertach, CC BY

Profession : cicadologue. Stéphane Puissant est un biologiste qui étudie les cigales. Son objet d’étude l’amène à sillonner la planète, du Maghreb à l’Afrique de l’Ouest en passant par Madagascar. Échanger avec lui, c’est découvrir combien nous connaissons mal ces insectes. C’est aussi apprendre, par exemple, que certaines espèces peuvent vivre plus de vingt ans, que certains mâles restent silencieux, que l’essentiel de la vie d’une cigale se passe sous terre et bien d’autres choses encore.


The Conversation : Les cigales nous semblent familières, car nous sommes nombreux à les entendre l’été, mais d’un point de vue scientifique, sont-elles très étudiées ?

Stéphane Puissant : Les cigales peuvent sembler effectivement familières, car on en trouve partout sur la planète, à l’exception des pôles. Mais l’oreille humaine, qui perçoit les fréquences autour de 2 000 hertz n’est pas du tout capable d’entendre toutes les cigales. Ce seront surtout les grandes cigales que l’on pourra écouter, comme Cicada orni, Lyristes plebejus, deux espèces que tous ceux qui sont allés un jour dans le midi de la France, l’été, ont pu entendre.

À gauche, Lyristes plebejus, à droite, Cicada orni
À gauche, Lyristes plebejus ; à droite, Cicada orni. Stéphane Puissant, Fourni par l'auteur

Enregistrement des cymbalisations du mâle Cidada orni. M. Gogala, CC BY122 ko (download)

Enregistrement des cymbalisations du mâle Lyristes plebejus. M. Gogala, CC BY370 ko (download)

Mais la majorité des cigales à travers le monde sont en réalité plus petites. Elles émettent donc des sons de fréquences plus hautes ou même des ultrasons pour les plus petites espèces. On va donc bien moins les entendre, voire pas du tout, surtout quand on a passé la quarantaine, comme c’est mon cas et que notre ouïe est moins performante. Il faut alors avoir des appareils détecteurs d’ultrasons pour les repérer et les identifier grâce à leur cymbalisation.

Je dis cymbalisation, car, contrairement à ce qui est souvent dit, les mâles cigales ne chantent pas, ils cymbalisent, en utilisant pour cela leurs organes appelés « cymbales », uniquement consacrés à la production de sons, qui peuvent être parfois très forts. Ainsi, certaines cigales australiennes font plus de bruit qu’un avion à réaction au décollage, soit parfois plus de 145 décibels !

Ces sons, chez toutes les espèces, ont pour fonction d’attirer les femelles. Ils peuvent également être produits chez certaines espèces pendant l’accouplement. Mais qu’on entende ces bruits à l’oreille ou à l’aide d’appareils, ils ne sont émis que durant une courte période de la vie de l’animal. Durant l’immense majorité de leur existence, les cigales sont invisibles et inaudibles pour celui qui veut l’observer.

Où sont-elles, alors ?

S. P. : Sous terre ! C’est là qu’elles passent l’essentiel de leur vie. Cela étonne souvent les gens, qui les associent au soleil. Mais les jeunes cigales restent sous terre où elles se nourrissent de la sève des racines des plantes. Elles y passent un an, deux ans pour les espèces de petites tailles. Pour les grandes espèces emblématiques du sud de la France, comme Cicada orni, ce sera quatre ans, cinq ans en moyenne, mais cela peut fluctuer entre deux ans et dix ans.

Il y a aussi les cas célèbres des cigales périodiques du genre Magicicada, qu’on trouve en Amérique du Nord et qui passent typiquement treize ans ou dix-sept ans sous terre, mais parfois aussi plus de vingt ans pour certaines populations.

Les Magicicada septendecim passent dix-sept ans sous terre. ARS Information Staff, CC BY

Toujours aux États-Unis, mais plutôt dans la moitié sud du pays cette fois, Okanagana synodica est une cigale également capable de passer une vingtaine d’années sous terre.

Après ces années passées sous terre, que ce soit deux ans ou vingt de plus, les cigales finissent par sortir pour se reproduire. C’est là qu’on peut donc les voir et les entendre, mais pour une très courte période de temps au regard de leurs années souterraines, car la durée de vie d’un spécimen n’est alors plus que d’une semaine ou deux, à la suite de quoi, les cigales, mâles et femelles, meurent. La femelle, juste avant, aura pondu des œufs sur les végétaux environnants. Ces œufs une fois éclos, les jeunes cigales se laisseront tomber à terre où elles s’enfonceront dans le sol, et où un nouveau cycle recommencera.

Tout cela pour dire que, si la cigale naît et meurt dans les arbres, elle passera l’essentiel de sa vie sous terre, ce qui fait qu’elle reste très difficile à observer, surtout pour certaines espèces qui ne sont visibles que deux à trois semaines dans l’année. Il faut donc bien les connaître et être réactif pour les étudier.

Quand on est cicadologue, est-il fréquent de découvrir aussi de nouvelles espèces ?

S. P. : Je pense qu’il doit y avoir peut-être trois à cinq fois plus de cigales dans le monde que celles qu’on connaît actuellement, même si cela reste difficile à évaluer.

Lorsque nous prospectons, en tant que spécialistes, il n’est pas si rare que cela de trouver de nouvelles espèces pour la science, surtout lorsque nous menons des recherches de terrain dans des zones qui n’ont encore jamais été prospectées par un spécialiste du groupe. Ça peut paraître excitant, mais parfois cela devient éprouvant. On déblaie sans cesse dans le champ de l’inconnu. On pense avoir gravi une montagne et puis, quand on est au sommet, on découvre une nouvelle chaîne de monts derrière, puis encore une autre… Cela montre finalement à quel point la vie sur terre reste méconnue, il reste tant à découvrir !

Je reviens ainsi cet été d’une mission dans le nord-ouest de l’Espagne avec un collègue suisse et un autre collègue français, spécialistes du genre Cicadetta, qui sont des petites cigales. Nous sommes partis une quinzaine de jours et tous les deux ou trois jours, de nouvelles découvertes apportaient leur lot de surprises.

Les espèces de Cicadetta sont généralement des cigales de moins de deux centimètres, qui émettent des fréquences parfois à la limite des ultrasons, qui sont très farouches et sont souvent endémiques à la région où on les trouve.

Du coup, comment fait-on pour les trouver et les étudier ?

S. P. : Lors de cette mission en Espagne, j’ai notamment utilisé une technique qui m’a été apprise par des collègues néo-zélandais et australiens pour entrer en communication avec l’animal et l’amener à se rapprocher. Car ces cigales peuvent parfois se trouver à plus de 10 mètres ou 15 mètres au sommet des arbres.

Imaginez donc, une cigale à peine plus grosse qu’une mouche, farouche, très mobile et qui émet une cymbalisation à la limite des ultrasons au sommet des arbres ! L’observer et l’enregistrer s’avère presque mission impossible, il faut a minima des outils et certaines techniques pour cela. Une de ces techniques, donc, c’est le snapping ou « claquement de doigts », en français.

Cela permet d’imiter le battement d’ailes que font théoriquement les femelles dans ce groupe de cigales. Par ce procédé, elles indiquent aux mâles là où elles se situent. Quand on trouve le rythme que feraient ces femelles en réponse aux émissions sonores des mâles, généralement en claquant des doigts au moment qui semble être accentué dans la cymbalisation du mâle, on va pouvoir amener ces derniers à se rapprocher de nous. Pour cela, bien sûr, il faut entendre les mâles et ceci n’est possible que si l’on est équipé de détecteurs d’ultrasons avec amplificateur.

C’est comme cela qu’on peut réussir à capturer des spécimens qui deviendront des « types » si l’espèce s’avère être nouvelle pour la science. Ces « types » sont des spécimens de référence qui seront déposés dans une collection scientifique d’un Muséum national d’histoire naturelle. Cette démarche scientifique rigoureuse est dictée par le code international de nomenclature zoologique lorsqu’il s’agit de décrire et nommer une nouvelle espèce.

Je sais aussi que vous avez pu décrire une espèce de cigale assez unique, la cigale marteau. Qu’est-ce qui la singularise ?

S. P. : Elle se distingue, car elle a, comme le requin marteau, une tête avec des yeux sur pédoncules assez énigmatiques. On a du mal d’ailleurs à comprendre les causes de cette évolution si singulière.

Tête de la cigale-marteau (Cicadmalleus micheli). Stéphane Puissant, Fourni par l'auteur

C’est une cigale relativement petite, moins de deux centimètres, qui est extrêmement mystérieuse, car rarissime et unique par l’aspect de sa tête dans toute la famille des Cicadidae du globe. Ses caractéristiques morphologiques sont tellement singulières que cette espèce constitue à elle seule une tribu nouvelle pour la science que nous avons été amenés à décrire à l’époque avec Michel Boulard, éminent spécialiste mondial des cigales.

Son environnement, dans le sud de la Thaïlande, a été très détruit. On a seulement pu observer quelques individus dans les amples dépendances, non entretenues de longue date, d’un vieux temple bouddhiste. Malgré sa morphologie tout à fait unique, elle est aussi passée inaperçue pendant des siècles, on a du mal à savoir pourquoi.

En France hexagonale, découvre-t-on encore de nouvelles cigales ?

S. P. : Actuellement, il y a 22 cigales différentes connues : 21 espèces recensées, dont deux espèces représentées par des sous-espèces géographiquement délimitées : Tibicina corsica corsica, en Corse, Tibicina corsica fairmairei dans le nord des Pyrénées-Orientales jusque dans le sud de l’Hérault.

Cicadetta brevipennis litoralis
Cicadetta brevipennis litoralis. Stéphane Puissant, Fourni par l'auteur

Il y a également Cicadetta brevipennis litoralis que j’ai décrite avec un collègue suisse, Thomas Hertach, dans les Pyrénées-Orientales et qui est une cigale d’arrière-dune. Elle se rencontre dans des milieux parfois partiellement inondés, une certaine partie de l’année, qu’on appelle les sansouïres.

Cette sous-espèce du littoral, endémique des Pyrénées-Orientales, est d’ailleurs très menacée, car dépendante d’environnements locaux qui le sont également, par la pression touristique sur le littoral et par tous les bouleversements majeurs de son milieu fragile de reproduction.

Hormis ces sous-espèces récemment décrites, le nombre total d’espèces de cigales en France n’a plus tellement évolué ces dernières années, mais il est possible qu’il y ait encore des espèces inconnues à trouver, notamment dans des zones où les entomologistes spécialistes sont encore peu allés, dans certains massifs montagneux par exemple.

Lorsqu’on pense cigale, on pense immédiatement au sud de la France, mais peut-on en trouver également dans la moitié nord de l’Hexagone ?

S. P. : Bien sûr ! Il y a par exemple Cicadetta montana qu’on rencontre en Bretagne et même plus au nord en Europe, mais il faut avoir l’ouïe fine pour détecter sa présence. En 2007, avec mon confrère Jérôme Sueur, nous avons également pu décrire une nouvelle espèce pour la Science présente en région parisienne, elle aussi difficile à entendre. Nous l’avons d’ailleurs appelée la « cigale fredonnante », car elle émet un son à peine audible, très haché et très court.

Cicadetta montana et Cicadetta cantilatrix
Cicadetta montana et Cicadetta cantilatrix. T. Hertach et F. Geller-Grimm, CC BY

Enregistrement des cymbalisations du mâle Cicadetta montana. M. G., CC BY923 ko (download)

Enregistrement des cymbalisations du mâle Cicadetta cantilatrix. T. Trilar, CC BY451 ko (download)

Récemment, plusieurs médias locaux français se sont étonnés que l’on entende des cigales dans des régions où l’on ne les aurait pas entendues avant, à Lyon par exemple ou bien en région parisienne, et beaucoup sont tentés d’expliquer cela du fait du changement climatique. Est-ce la réalité ?

S. P. : Pas vraiment, car les cigales ne bougent presque jamais de l’endroit où elles sont nées. Mes collègues scientifiques portugais et espagnols ont étudié les capacités de déplacement des individus de diverses populations de cigales. Ils ont constaté que les capacités de déplacements des individus d’une population étaient très faibles et d’autant plus réduites que les milieux étaient perturbés.

Dans d’autres groupes d’insectes, il y a bien sûr des spécimens qui migrent, et qui, par le déplacement, peuvent nous indiquer qu’ils sont capables de coloniser de nouvelles zones parce que les conditions y sont plus propices, mais ce n’est pas le cas des cigales. Parfois, certains spécimens peuvent profiter des ascendances thermiques en montagne pour gagner des altitudes plus élevées via les courants d’air chaud. Seul l’avenir dira si une population pérenne pourra alors se maintenir.

Alors comment expliquer ces observations dans le nord de la France ?

S. P. : Déjà, il faut se rappeler que les espèces de cigales les plus faciles à entendre passent plusieurs années sous terre avant de sortir, d’être visibles et audibles pour l’humain, et qu’elles vont très vite mourir une fois la reproduction achevée.

Parfois, les gens peuvent donc avoir oublié qu’ils avaient entendu, y a quatre ou cinq ans, des cigales autochtones comme Tibicina haematodes, la cigale rouge. Car, il y a des années où il est possible d’entendre plus de cigales, ceci est intrinsèque au cycle de vie des populations de l’espèce. Certaines années, très peu de spécimens sortiront du sol en un milieu donné alors que, deux ou trois ans plus tard, ils seront nombreux. C’est une dynamique naturelle à l’espèce qui est très nettement influencée par la ressource alimentaire disponible, soit la sève des plantes, et les conditions hygrothermiques de la période de l’année où les jeunes cigales émergent du sol.

Cigale rouge (Tibicina haematodes). Michael Knapp, CC BY

Enregistrement des cymbalisations du mâle Tibicina haematodes. M.G., CC BY333 ko (download)

Il y a aussi un phénomène plus inquiétant. Certaines personnes dans des régions nord aiment avoir un olivier ou une plante du sud de la France ou d’Espagne en pot chez elles. Dans ces pots, il peut y avoir de jeunes cigales encore sous terre qui, un été, vont se décider à sortir. Cela arrive ainsi avec Cicada orni dans la moitié nord de la France mais aussi avec la présence avérée et sporadique de Cicada barbara en France. C’est une cigale dont l’aire de répartition d’origine s’étend du nord Maghreb jusque dans la moitié sud du domaine ibérique. Sa présence en France n’est donc pas naturelle. Lorsqu’on recherche les causes de sa présence, on peut souvent noter, non loin de l’endroit où se fait entendre l’espèce, la présence d’une serre, d’une pépinière ou encore d’une plantation récente.

En général, ces espèces ne vont pas réussir à s’adapter. C’est ce que j’ai pu observer par exemple avec Cicada orni. Il y a quelques années, j’ai entendu plusieurs mâles cymbalisant dans les grands platanes de mon lieu de travail, au Jardin de l’Arquebuse du Muséum d’Histoire naturelle de Dijon. Je me suis demandé si l’espèce allait pouvoir se maintenir, mais trois ans après, elle avait disparu. Sous le climat de la Bourgogne, elles n’ont soit pas pu se reproduire, soit leurs œufs n’ont pas réussi à éclore.

D’autres médias, cette fois-ci du sud de la France, ont pu s’inquiéter parfois de cigales qu’on n’entendait plus certains jours, ou du moins certains étés. À quoi est-ce dû ?

S. P. : Les cigales vont sortir de terre et se mettre à cymbaliser lorsqu’il fait une certaine température, entre 19 et 22 °C pour les petites espèces, plus autour de 24 °C ou 25 °C chez les grandes. Mais une fois au grand air, elles ne vont pas pour autant cymbaliser sans discontinuer. S’il pleut, s’il vente trop, elles vont s’arrêter. Les très fortes chaleurs inhibent également leur activité, tout du moins durant une partie de la journée, lors des pics de températures.

Au sein des populations, il y a aussi des mâles qui ne cymbalisent pas systématiquement, comme c’est le cas par exemple chez Tibicina haematodes. On les appelle les mâles satellites. Ils vont en gros se positionner à côté d’un autre mâle qui, en cymbalisant, va lui attirer les femelles. Positionné non loin, le mâle satellite va alors à la rencontre de la femelle qui s’approche, en restant silencieux. Le mâle qui a fait des efforts n’en récoltera donc pas les fruits.

Pour l’oreille humaine, cela semble très difficile de localiser une cigale précisément, on entend plutôt le brouhaha environnant que font divers mâles qui cymbalisent. La femelle cigale a-t-elle l’ouïe plus fine pour pouvoir localiser précisément un individu mâle en particulier ?

S. P. : Le mâle et la femelle ont bien sûr un système d’audition optimal pour la perception du message codant propre à leur espèce. Cela peut compenser, chez certaines espèces, une vue pas toujours précise. J’ai ainsi parfois vu des cigales mâles tenter de s’accoupler avec mon pouce quand je l’approchais d’eux.

Pour localiser le mâle avec son ouïe, donc, la femelle va d’abord géolocaliser l’endroit où il y a un ou plusieurs mâles avec les basses fréquences de leur cymbalisation. Ce sont ces basses fréquences qui portent le plus loin, notamment à travers le feuillage des arbres.

Elle va ensuite pouvoir beaucoup plus précisément localiser un individu avec les hautes fréquences que, nous, nous n’entendons guère. Certaines espèces vont donc alterner ces deux types de fréquences ou les émettre simultanément.

Parfois, chez certaines espèces, lorsque la femelle a localisé un ou plusieurs mâles, elle va se mettre à claquer des ailes, ce qui va inciter le mâle qui l’entend à changer son répertoire d’émissions sonores. Il pourra dans ce cas émettre une cymbalisation de cour, incitant la femelle à le rejoindre pour s’accoupler.

N’oublions pas que chaque espèce de cigale à une cymbalisation d’appel nuptial qui lui est propre. Il est donc possible d’identifier l’espèce à partir de ses émissions sonores.

Le brouhaha qu’on entend serait donc en réalité un chœur très organisé ?

S. P. : Oui, tout à fait ! Mais l’organisation complexe des cymbalisations est souvent difficile à entendre à l’oreille humaine. Certaines cigales, par exemple, semblent émettre leur cymbalisation en continu, comme Tibicina haematodes déjà évoquée précédemment. Cela nous paraissait étonnant, car il est important aussi pour les mâles de prêter attention aux autres mâles, aux femelles qui pourraient claquer des ailes, aux potentiels prédateurs… Or, si un mâle cymbalise sans s’arrêter, comment peut-il entendre ?

Mais en se penchant vraiment sur leur cymbalisation, on peut détecter des microcoupures, parfois de moins d’une seconde. À l’oreille, il faut s’entraîner pour les percevoir, mais à l’enregistrement, c’est très net lorsqu’une cymbalisation est analysée à l’aide d’un logiciel acoustique. On pense donc que c’est pendant ces microcoupures que les mâles se jaugent mutuellement ou, par exemple, mesurent la distance à laquelle ils se trouvent les uns des autres.

Il y a aussi parfois, dans un même environnement, plusieurs espèces de cigales différentes. Mon confrère Jérôme Sueur a montré, pendant sa thèse dans le cadre de ses recherches menées au Mexique, que les espèces pouvaient répartir leur activité durant des heures différentes de la journée, ou bien ne pas émettre aux mêmes fréquences pour que les femelles conspécifiques puissent les localiser.

On a aussi pu parfois noter au sein d’une même espèce que les individus mâles situés en périphérie de l’aire de répartition cymbalisent de façon différente de ceux présents au cœur de l’aire. Avec la distance et le temps, les émissions des mâles peuvent devenir suffisamment différentes au point qu’une femelle née à quelques centaines de kilomètres de là, et mise en leur compagnie peut ne pas systématiquement s’accoupler avec ces mâles. La communication sonore chez les cigales est en effet un des mécanismes puissants de la spéciation.

Et puis enfin, il y a, pour le genre Cicadetta par exemple, des comportements qui sont tout à fait différents : les mâles de certaines espèces vont voler en groupe pour chercher les femelles. Mais, comme beaucoup d’autres choses cela reste à être précisément étudié, car c’est encore très mal connu.



Propos recueillis par Gabrielle Maréchaux.

The Conversation

Stéphane Puissant ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

18.08.2025 à 16:49

Marie Tharp, la cartographe qui a changé la face des fonds marins

Suzanne OConnell, Harold T. Stearns Professor of Earth Science, Wesleyan University

La géologue et cartographe américaine Marie&nbsp;Tharp (1920-2006) a révolutionné la conception scientifique du fond océanique, en montrant que ce n’était pas une surface plane ni uniforme.
Texte intégral (3827 mots)
Tharp, entre 1948 et 1950, avec une carte sous-marine sur son bureau. Des profils sonar enroulés du fond océanique sont posés sur l’étagère derrière elle. Observatoire terrestre Lamont-Doherty et succession de Marie Tharp

La géologue et cartographe américaine Marie Tharp (1920-2006) a révolutionné la conception scientifique du fond océanique. En démontrant que les fonds marins ne sont pas une surface plane ni uniforme, l’océanographe a joué un rôle crucial dans le développement de la théorie de la tectonique des plaques.


Malgré toutes les expéditions en eaux profondes et tous les échantillons prélevés des fonds marins au cours des cent dernières années, les profondeurs de l’océan restent encore pleines de mystères. En savoir davantage pourrait pourtant nous être bien utile.

Et ce, pour plusieurs raisons. La plupart des tsunamis, par exemple, sont provoqués par des tremblements de terre sous le, ou près du, fond océanique. Les abysses abritent aussi des poissons, des coraux et des communautés complexes de microbes, de crustacés et d’autres organismes encore très méconnus. Enfin, les fonds marins contrôlent les courants qui répartissent la chaleur, contribuant ainsi à réguler le climat terrestre.


À lire aussi : Les premières images d’un calamar colossal dans les fonds marins prises par des scientifiques


Carte montrant les caractéristiques géographiques des océans du monde
Représentation peinte à la main de la carte World Ocean Floor (Fond océanique mondial), de Heinrich Berann (1977), d’après Heezen et Tharp. Library of Congress, Geography and Map Division, CC BY-ND

L’étude de ces fonds marins mystérieux doit beaucoup à une femme, née en 1920 (et décédée en 2006, ndlr), nommée Marie Tharp. Les cartes créées par cette géologue et océanographe ont changé la façon dont les gens imaginent les mers et les océans qui recouvrent plus des deux tiers de notre planète bleue. À partir de 1957, Tharp et son partenaire de recherche Bruce Heezen ont commencé à publier les premières cartographies complètes montrant les principales caractéristiques du fond océanique : monts, vallées et fosses.

En tant que géoscientifique, je pense que Tharp devrait être aussi célèbre que Jane Goodall ou Neil Armstrong. Voici pourquoi.

Traverser l’Atlantique

Jusqu’au milieu des années 1950, de nombreux scientifiques pensaient que les fonds marins étaient uniformes. Tharp a démontré qu’au contraire, ils comportaient des reliefs accidentés et qu’une grande partie d’entre eux étaient disposés de manière systématique.

Ses illustrations ont joué un rôle essentiel dans le développement de la théorie de la tectonique des plaques, selon laquelle les plaques, ou grandes sections de la croûte terrestre, interagissent pour générer l’activité sismique et volcanique de la planète. Des chercheurs antérieurs, en particulier Alfred Wegener, avaient déjà remarqué à quel point les côtes de l’Afrique et de l’Amérique du Sud s’emboîtaient parfaitement et avaient émis l’hypothèse que les continents avaient autrefois été reliés.

Tharp a identifié des monts et une vallée de fracture au centre de l’océan Atlantique, là où les deux continents auraient pu se séparer.

Esquisse du profil sous-marin
Profils est-ouest de Tharp à travers l’Atlantique Nord. The Floors of the Ocean, 1959

Grâce aux représentations du fond océanique dessinées à la main par Marie Tharp, je peux imaginer une promenade au fond de l’océan Atlantique, de New York (côte est des États-Unis) à Lisbonne (Portugal). Le voyage m’emmènerait le long du plateau continental. Puis vers le bas, en direction de la plaine abyssale de Sohm. Je devrais alors contourner des reliefs, appelées monts sous-marins. Ensuite, je commencerais une lente ascension de la dorsale médio-atlantique, une chaîne de montagnes submergée orientée nord-sud.

Après avoir gravi 2 500 mètres sous le niveau de la mer jusqu’au sommet de la crête, je descendrais de plusieurs centaines de mètres, traverserais la vallée centrale de la crête et remonterais par le bord est de celle-ci. Je redescendrais ensuite vers le fond océanique, jusqu’à ce que je commence à remonter le talus continental européen vers Lisbonne. Au total, le trajet représenterait environ 6 000 kilomètres, soit près de deux fois la longueur du sentier des Appalaches.

Cartographier l’invisible

Rien ne prédestinait pourtant Mary Tharp à cartographier ainsi l’invisible. Née en 1920 à Ypsilanti, dans le Michigan, elle étudie l’anglais et la musique à l’université. Mais, en 1943, elle s’inscrit à un programme de maîtrise de l’université du Michigan destiné à former des femmes au métier de géologue pétrolier pendant la Seconde Guerre mondiale.

« On avait besoin de filles pour occuper les postes laissés vacants par les hommes partis au combat », se souvient Tharp, dans « Connect the Dots: Mapping the Seafloor and Discovering the Mid-ocean Ridge » (1999), chapitre 2 de Lamont-Doherty Earth Observatory of Columbia. Twelve Perspectives on the First Fifty Years 1949-1999.

Après avoir travaillé pour une compagnie pétrolière en Oklahoma, Tharp a cherché un emploi dans le domaine de la géologie à l’université Columbia en 1948. Les femmes ne pouvaient pas monter à bord des navires de recherche, mais Tharp savait dessiner et a été embauchée pour assister les étudiants diplômés masculins.

Tharp a ainsi travaillé avec Bruce Heezen, alors étudiant de second cycle qui lui confie des profils du fond marin à dessiner. Il s’agit de longs rouleaux de papier qui indiquent la profondeur du fond marin le long d’un trajet linéaire mesurée depuis un navire à l’aide d’un sonar.

Esquisses des caractéristiques sous-marines basées sur les données sonar
Illustration du processus de cartographie de Marie Tharp : (a) montre la position de deux traces de navires (A, B) se déplaçant à la surface ; (b) représente les enregistrements de profondeur sous forme de profils, en exagérant leur hauteur afin de faciliter la visualisation des caractéristiques ; (c) esquisse les caractéristiques représentées sur les profils. The Floors of the Ocean, 1959, Fig. 1

Sur une grande feuille de papier vierge, Tharp a ainsi tracé des lignes de latitude et de longitude. Elle a ensuite soigneusement marqué les endroits où le navire avait navigué. Puis elle a inscrit la profondeur à chaque endroit à partir du sonar, l’a marquée sur la trajectoire du navire et a créé des profils bathymétriques, indiquant la profondeur du fond océanique par rapport à la distance parcourue par le navire.

L’une de ses innovations importantes a été de créer des croquis représentant l’aspect du fond marin. Ces vues ont facilité la visualisation de la topographie du fond océanique et la création d’une carte physiographique.

Le tracé minutieux par Tharp de six profils est-ouest à travers l’Atlantique Nord a révélé quelque chose que personne n’avait jamais décrit auparavant : une faille au centre de l’océan, large de plusieurs kilomètres et profonde de plusieurs centaines de mètres. Tharp a suggéré qu’il s’agissait d’une vallée de fracture, ou vallée de rift, un type de longue dépression dont l’existence était connue sur terre.

Heezen a qualifié cette idée de « discussion entre filles » et a demandé à Tharp de refaire ses calculs et de réécrire son rapport. Lorsqu’elle s’est exécutée, la vallée de fracture était toujours là.

Un autre assistant de recherche traçait les emplacements des épicentres sismiques sur une carte de même taille et à la même échelle. En comparant les deux cartes, Heezen et Tharp se rendirent compte que les épicentres sismiques se trouvaient à l’intérieur de la vallée de fracture. Cette découverte fut déterminante pour le développement de la théorie de la tectonique des plaques : elle suggérait que des mouvements se produisaient dans la vallée de fracture et que les continents pouvaient en fait être en train de s’éloigner les uns des autres.

Cette perspicacité était tout bonnement révolutionnaire. Lorsque Heezen, fraîchement diplômé, donne une conférence à Princeton en 1957 et montre la vallée du rift et les épicentres, le directeur du département de géologie Harry Hess assure :

« Vous avez ébranlé les fondements de la géologie. »

Résistance tectonique

Deux ans plus tard, en 1959, la Société de géologie des États-Unis publie The Floors of the Oceans: I. The North Atlantic (les Fonds océaniques, Première partie : L’Atlantique Nord), sous la signature de Heezen, Tharp et Doc Ewing, directeur de l’observatoire Lamont, où ils travaillent. Cet ouvrage contient les profils océaniques de Tharp, ses idées et l’accès à ses cartes physiographiques.

Certains scientifiques trouvèrent ce travail brillant, mais la plupart ne voulurent pas y croire. L’explorateur sous-marin Jacques Cousteau, par exemple, était déterminé à prouver que Tharp avait tort. À bord de son navire de recherche, le Calypso, il traversa délibérément la dorsale médio-atlantique et descendit une caméra sous-marine. À la grande surprise de Cousteau, ses images montrèrent qu’une vallée de fracture existait bel et bien.

« Il y a du vrai dans le vieux cliché qui dit qu’une image vaut mille mots et que voir, c’est croire », fit remarquer Tharp dans son essai rétrospectif de 1999.

Qu’est-ce qui a pu créer cette faille ? Harry Hess, de Princeton, a proposé quelques idées dans un article de 1962. Il a émis l’hypothèse que du magma chaud s’était élevé depuis l’intérieur de la Terre au niveau de la faille, s’était dilaté en refroidissant et avait écarté davantage les deux plaques adjacentes. Cette idée a largement contribué à la théorie de la tectonique des plaques, mais Hess n’a pas mentionné les travaux essentiels présentés dans The Floors of the Oceans, l’une des rares publications dont Marie Tharp était co-auteure.

Portrait de Marie Tharp en 2001
Marie Tharp, en juillet 2001. Bruce Gilbert, Observatoire terrestre Lamont-Doherty

Des études toujours en cours

Tharp a ensuite continué à travailler avec Heezen pour donner vie au fond océanique. Leur collaboration a notamment abouti à une carte de l’océan Indien, publiée par National Geographic en 1967, et à une carte du fond océanique mondial(1977), aujourd’hui conservée à la bibliothèque du Congrès.

Après la mort de Heezen, en 1977, Tharp a poursuivi son travail jusqu’à son décès en 2006. En octobre 1978, Heezen (à titre posthume) et Tharp ont reçu la médaille Hubbard, la plus haute distinction de la Societé états-unienne de géographique, rejoignant ainsi les rangs d’explorateurs et de découvreurs tels qu’Ernest Shackleton, Louis et Mary Leakey et Jane  Goodall.

Aujourd’hui, les navires utilisent une méthode appelée « cartographie par sondeur multifaisceau », qui mesure la profondeur sur un tracé en forme de ruban plutôt que le long d’une seule ligne. Les rubans peuvent être assemblés pour créer une carte précise du fond marin.

À gauche, détail des îles Canaries tiré de la carte physiographique de l’Atlantique Nord réalisée par Marie Tharp. À droite, représentation cartographique moderne de la même zone. Les couleurs indiquent la profondeur. Vicki Ferrini, Lamont-Doherty Earth Observatory

Mais comme les navires se déplacent lentement, il faudrait deux cents ans à un seul navire pour cartographier complètement les fonds marins.

Une initiative internationale visant à cartographier en détail l’ensemble des fonds marins d’ici 2030 est cependant en cours, à l’aide de plusieurs navires, sous la direction de la Nippon Foundation et du General Bathymetric Chart of the Oceans.

Ces informations sont essentielles pour commencer à comprendre à quoi ressemble le fond marin à l’échelle locale. Marie Tharp a été la première personne à montrer la riche topographie du fond océanique et ses différentes zones.

The Conversation

Suzanne OConnell ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

18.08.2025 à 16:48

Apprendre aux étudiants à mieux manger avec l’IA ?

Pascale Ezan, professeur des universités - comportements de consommation - alimentation - réseaux sociaux, Université Le Havre Normandie

Maxime David, Maître de conférences - Marketing, Université Le Havre Normandie

Les étudiants n’utilisent pas l’IA que pour réviser à l’université&nbsp;; ils s’en servent aussi de plus en plus pour obtenir des conseils d’alimentation.
Texte intégral (1977 mots)

On parle beaucoup des usages de l’intelligence artificielle générative dans le cadre universitaire. Mais les étudiants s’en servent aussi dans leur quotidien pour résoudre des questions pratiques et, par exemple, pour mieux équilibrer leur alimentation. Enquête sur leurs objectifs et les risques éventuels liés à ces nouveaux comportements de consommation.


En écho aux messages de santé publique auxquels ils sont exposés dès leur enfance, les jeunes adultes cherchent à adopter une alimentation saine et durable. Pourtant, leurs aspirations se heurtent aux réalités du quotidien. Perception d’un temps contraint, tensions financières, manque d’idées ou de matériel, déficit de confiance en leurs compétences culinaires sont des obstacles au bien manger, qu’ils évoquent fréquemment.

Les étudiants décohabitants (qui quittent le domicile parental) sont particulièrement concernés par ces questions. Ces freins apparaissent d’autant plus marqués que leurs profils sont hétérogènes en termes de compétences culinaires et de connaissances en matière d’équilibre alimentaire.

Beaucoup vont se tourner vers des produits industriels, peu qualitatifs sur le plan nutritionnel. Mais le décalage entre leurs souhaits d’alimentation et la composition réelle de leurs repas peut accroître un sentiment de fragilité, pouvant conduire à des troubles du comportement alimentaire chez certains.

Pour contourner ces freins et accéder à une alimentation plus saine et plus durable, certains s’emparent désormais de l’intelligence artificielle (IA). C’est ce qui ressort des entretiens de recherche que nous menons avec eux. Nous nous intéressons plus particulièrement aux usages de l’IA générative, à travers des agents conversationnels comme ChatGPT, Gemini ou Claude, que les étudiants mobilisent pour obtenir des conseils pratiques, rapides et personnalisés en matière d’alimentation.

Ainsi, l’alimentation devient pour eux une situation d’usage de l’IA, qu’ils plébiscitent pour sa simplicité et l’aide concrète qu’elle leur apporte, au-delà des recours dans le cadre des travaux académiques, plus médiatisés et interrogés par le monde enseignant.

Faciliter l’accès à une alimentation plus équilibrée

En anticipant leurs repas, les étudiants ont le sentiment de disposer d’une grande autonomie dans leurs choix alimentaires. Le recours aux agents conversationnels d’IA générative, via des prompts, les conduit à orienter leurs menus vers des alternatives qu’ils considèrent comme plus saines, ce qui selon eux est une source de satisfaction personnelle.

En effet, la dichotomie qu’ils ressentent parfois entre plaisir et alimentation équilibrée est alors moins marquée. Ils peuvent sélectionner des produits qu’ils aiment tout en respectant les recommandations des professionnels de santé. Ils planifient ainsi leurs menus hebdomadaires selon leurs goûts, et s’y tiennent d’autant plus facilement que leurs préférences sont prises en compte.


À lire aussi : Et si les youtubeurs pouvaient aider les ados à manger sain ?


Grâce à l’IA, ils considèrent que les tensions qu’ils vivaient auparavant pour composer un menu équilibré se réduisent, car ils intègrent en amont leurs contraintes de matériel, de disponibilité des denrées, de prix… Enfin, les étudiants interrogés soulignent la facilité avec laquelle ils accèdent à des conseils nutritionnels quasi individualisés, en fonction de leurs profils, pour atteindre leurs objectifs corporels.

La réalisation de recettes est considérée chez certains d’entre eux comme un écueil qui vient s’ajouter aux difficultés de leur nouveau statut social. Ils recherchent prioritairement des « bons plans », car, au-delà de la pratique culinaire, ce sont souvent les idées qui manquent pour réaliser des menus à la fois sains, gourmands et faciles à répliquer.

L’IA contribue, selon eux, à stimuler la curiosité en les invitant à tester de nouveaux produits, à expérimenter de nouveaux plats, tout en tenant compte de leurs savoir-faire.

Organiser et planifier ses repas

Dans cette génération, la cuisine est assimilée à une activité chronophage qui prend sur un temps consacré aux études ou aux loisirs. Ceci la conduit à ne pas se projeter et à préparer des « repas de la flemme », consistant à manger ce qu’elle a sous la main. Pour eux, l’IA apparaît comme une solution pour « éviter la junk food » au cours des repas et pour limiter le risque de grignotage d’aliments gras et sucrés tout au long de la journée.

Même lorsque les étudiants utilisent des applications nutritionnelles pour mieux anticiper leurs repas, ils restent nombreux à manquer de repères pour composer leurs plats au quotidien. En somme, pour eux, l’IA générative est une ressource qui limite leur charge cognitive liée à l’anticipation des menus. Elle permet non seulement de proposer des menus pour la semaine, mais également de préparer sa liste de course avec une attention apportée à la variété des produits à acheter.

De même, avec l’IA, les étudiants accèdent à des informations claires leur permettant de localiser les points de vente situés dans leur zone d’habitation ou d’études. Or, l’accessibilité des produits est une condition importante pour bien manger. Cette accessibilité s’accompagne de conseils leur permettant d’optimiser leur budget tout en achetant des denrées de bonne qualité.

De nombreux étudiants sont en situation de précarité et c’est en particulier en fin de mois, quand le budget dédié à l’alimentation est épuisé, que les choix les moins équilibrés s’imposent pour eux. L’IA peut alors les aider à mieux répartir leurs achats sur le mois et leur suggérer des aliments équivalents moins chers, en valorisant les produits en promotion, en aidant à composer des menus à partir de ce qu’ils ont déjà dans leurs placards ou leur réfrigérateur.

Des risques, liés à l’usage de l’IA, à prendre en compte

Si les propos des étudiants suggèrent une meilleure prise en charge de leur alimentation grâce à l’IA, ils mettent aussi en évidence un certain nombre de risques. Le premier concerne un risque de répétition et de monotonie.

Un autre porte sur le fait que l’IA amplifie la tendance à privilégier une individualisation excessive des repas. Or, les chercheurs et les professionnels de santé soulignent que manger, c’est aussi créer du lien social et que manger ensemble limite notamment les risques de surpoids et d’obésité.

Le programme de recherche ALIMNUM que nous menons actuellement auprès des étudiants montre que les réseaux sociaux font la promotion d’une alimentation fonctionnelle avec des visées de transformation corporelle.

L’usage de l’IA générative semble renforcer ces aspirations autour de dimensions performatives de l’alimentation. En croisant données nutritionnelles, préférences, antécédents ou objectifs, l’IA peut favoriser des logiques d’optimisation de soi, parfois sources de dérives sanitaires.


À lire aussi : Les influenceurs fitness : nouveaux relais d’opinion pour interpeller les pouvoirs publics sur la santé des jeunes ?


Enfin, un dernier risque identifié porte sur le fait que certains étudiants se servent de l’IA pour perdre du poids et qu’ils considèrent que les conseils qu’ils recueillent en quelques secondes leur permettent de se dispenser de consulter des professionnels de santé, difficilement accessibles à court terme.

Une prévention nécessaire pour limiter ces risques

Face aux obstacles que rencontrent de nombreux étudiants, l’IA peut devenir un outil précieux pour mieux manger. Leur appétence pour le numérique, conjuguée à un quotidien souvent contraint, justifie pleinement l’exploration de ces solutions par les jeunes adultes. En somme, en rendant l’information nutritionnelle plus claire et plus engageante, l’IA peut contribuer à réduire les inégalités de santé et redonner de l’autonomie alimentaire à cette génération.

Il s’avère donc pertinent que les acteurs de santé publique s’inspirent des usages actuels de l’IA générative et qu’ils les intègrent, de manière encadrée, dans leurs dispositifs de prévention et d’éducation nutritionnelle. Par exemple, des programmes pensés avec les professionnels de santé et par les étudiants eux-mêmes pourraient proposer des conseils fiables, personnalisés et adaptés à leurs budgets comme à leurs habitudes de vie.

L’omniprésence de l’IA dans la vie des jeunes bouscule également la manière dont les professionnels de santé doivent aborder la question de l’alimentation. Il semble nécessaire de les inviter à mieux comprendre ces technologies, à en saisir les atouts, mais aussi les limites.

Cela suppose également de les former à repérer les situations à risques, à informer et à accompagner les étudiants vers un usage plus éclairé de ces innovations numériques.

Dans le prolongement de ce que nous réalisons dans le cadre de la recherche participative MEALS, il s’agit plus globalement de stimuler l’esprit critique des jeunes et de mettre en œuvre une approche collective qui prenne en compte les cultures alimentaires, le plaisir, le partage et la diversité de leurs parcours.

Enfin, si les outils issus de l’IA générative offrent de réelles perspectives pour accompagner les jeunes dans leurs pratiques alimentaires, ils ne peuvent se substituer ni à la présence humaine, ni à la variété des expériences, ni à l’éducation au goût. Leur utilité dépendra de la manière dont ils seront intégrés à un cadre réflexif et bienveillant. Ces évolutions rappellent que, même avec la démocratisation de l’IA, l’accompagnement humain et le lien social doivent rester au cœur d’une alimentation saine et durable.


Les projets Alimentation et numérique – ALIMNUM et Manger avec les réseaux sociaux – MEALS sont soutenus par l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.

The Conversation

Pascale Ezan a reçu des financements de l'Agence Nationale de la recherche .

Maxime David a reçu des financements de l'Agence Nationale de la Recherche.

PDF

18.08.2025 à 16:48

Les banques nationales de développement sont indispensables au financement du développement

Florian Léon, Chargé de recherche, Fondation pour les Etudes et Recherches sur le Développement International (FERDI); Chercheur associé au CERDI (UMR UCA-CNRS-IRD), Université Clermont Auvergne (UCA)

Méconnues et peu mobilisées pour le moment, les banques nationales de développement pourraient jouer un plus grand rôle dans l’aide publique au développement.
Texte intégral (1630 mots)

Méconnues et peu mobilisées pour le moment, les banques nationales de développement pourraient jouer un plus grand rôle dans le financement de l’aide publique au développement. Pour cela, il faudrait mieux coordonner leur action avec celle des acteurs spécialisés internationaux.


La dissolution de l’Agence américaine pour le développement international (USAID), décidée par Donald Trump, combinée aux réductions budgétaires drastiques dans l’aide au développement, notamment en France, a accru les tensions sur le financement du développement. Dans ce contexte troublé, la quatrième conférence des Nations unies sur le financement du développement, qui s’est tenue à Séville (Espagne), du 30 juin au 3 juillet, en l’absence de la délégation américaine, revêtait une importance particulière.

Cette conférence visait à repenser la structure du financement du développement afin de mobiliser les milliers de milliards nécessaires pour atteindre les objectifs de développement durable d’ici à 2030.

Le communiqué final a souligné la nécessité de mobiliser toutes les ressources et institutions financières disponibles. Pour la première fois, ce texte a aussi mis l’accent sur le rôle central des banques nationales de développement.

Les banques nationales de développement, au cœur du financement du développement

Les banques de développement sont des institutions financières publiques qui investissent dans des projets à vocation de développement tout en veillant à avoir une rentabilité suffisante pour être viables financièrement. Il est possible de distinguer les banques multilatérales de développement (comme la Banque mondiale ou les banques continentales) qui sont issues de plusieurs États et les banques nationales de développement qui appartiennent à un seul pays.


À lire aussi : Aide au développement et ONG : quelles articulations, quelles recompositions ?


Les banques nationales de développement sont longtemps restées en dehors des discussions internationales en étant vues comme des actrices mineures dans le financement du développement (au mieux), mais plus souvent comme des structures dispendieuses et inefficaces. Pourtant, il existe près de 500 banques nationales de développement dans le monde, et ce modèle connaît un retour en grâce ces dernières années, après que ces institutions ont été souvent considérées comme inefficaces et placées au service des intérêts politiques.

Les banques nationales de développement opèrent sur tous les continents, aussi bien dans les pays industrialisés que dans les pays à faible revenu. Les banques nationales de développement jouent un rôle crucial pour le financement de projets de développement à l’échelle locale.

Des banques qui doivent être mieux insérées à leur communauté

La conférence de Séville a remis sur le devant de la scène les banques nationales de développement à la suite de précédentes conférences comme le Pacte financier mondial de 2023. Cet éclairage est essentiel, mais ne résout pas la question de savoir comment ces banques peuvent pleinement jouer leur rôle, notamment lorsqu’elles peinent à se financer.

Une solution est que les banques de développement agissent comme un système unifié en intervenant ensemble et en se soutenant mutuellement. Des initiatives en ce sens existent, notamment à travers la communauté « Finance en commun », qui cherche à unir, sous un même toit, toutes les banques de développement, en particulier les grandes banques multilatérales de développement (comme la Banque mondiale ou les banques régionales) et les banques nationales, notamment issues de pays en développement.

Travailler ensemble est, en effet, une solution pertinente. Les banques nationales de développement sont les mieux placées pour mettre en œuvre des projets de développement en raison de leur connaissance approfondie des contextes locaux. Elles comprennent les besoins spécifiques et les défis des communautés qu’elles servent et elles peuvent aussi trouver plus aisément les acteurs capables de mettre en œuvre les projets sur le terrain. Cependant, ces banques font souvent face à des difficultés financières.

Manque de financements

Rares sont les banques nationales de développement qui peuvent lever des fonds sur les marchés financiers. Elles manquent souvent de financements adéquats pour mener à bien leurs missions. C’est là que les banques multilatérales de développement entrent en jeu, avec leurs ressources financières substantielles et leur capacité à mobiliser des fonds à grande échelle. Elles peuvent relâcher la contrainte financière des banques nationales. Dans le même temps, ces banques multilatérales ne sont pas les plus aptes à assurer la mise en œuvre des projets à moindre coût.

L’engagement de Séville invite

« les banques multilatérales de développement et les partenaires de développement à renforcer l’appui financier et technique qu’ils donnent aux banques publiques nationales de développement de sorte que celles-ci puissent fournir des financements à long terme et à moindre coût en faveur du développement durable ».

Des soutiens croissants mais inégaux

S’il existe une véritable volonté de renforcer la coopération entre les banques multilatérales de développement et les banques nationales de développement, il existe peu de données sur les relations existantes entre ces acteurs. Afin de combler ce manque, nous avons réalisé une étude visant à recenser les soutiens financiers fournis par les dix principales banques multilatérales de développement aux autres banques de développement sur la dernière décennie.

Note de lecture : L’Afrique a reçu 12,8 % du montant total cumulé et représente 15,8 % des projets.

Cette étude fournit plusieurs enseignements utiles. Nous avons identifié 644 projets pour un total de 108 milliards de dollars, avec une augmentation notable des financements depuis la crise du Covid-19.

L’Amérique latine et l’Europe sont les principales bénéficiaires de ces programmes.

Les projets financés ciblent principalement les petites et moyennes entreprises, suivis par l’énergie, les infrastructures et les initiatives environnementales. Il y a une augmentation du nombre de projets consacrés aux questions environnementales au cours de la période.

(*) Sommes en millions de dollars US.

Note de lecture :

  • 65 banques de développement, soit presque 40 % des bénéficiaires, n’ont bénéficié que d’un seul soutien pour un volume total représentant 7,6 % du montant total déboursé ;

  • 14 banques ont reçu plus de 19 soutiens (8,6 % des bénéficiaires) pour un montant total cumulé de 43,6 % du total déboursé.

Concentration des financements

Cependant, un des résultats principaux de cette étude est la très forte concentration des financements. Sur l’ensemble des banques nationales de développement opérant dans le monde, à peine un tiers (163) ont reçu un financement de la part d’une banque multilatérale.

En outre, ces financements sont très concentrés même au sein des bénéficiaires. À peine 20 banques nationales de développement (soit 5 % de l’ensemble des banques opérant dans le monde) ont bénéficié de la moitié des fonds déboursés par les banques multilatérales de développement.

Ces banques sont principalement localisées en Europe et en Asie. Il s’agit souvent de banques nationales de développement dont on peut douter des difficultés à lever des fonds.

France 24, 2025.

Vers une coopération renforcée

Cette concentration des financements soulève des questions sur l’équité et sur l’efficacité de la distribution des ressources. Pour que les banques nationales de développement puissent pleinement jouer leur rôle, une coopération renforcée avec les banques multilatérales de développement est essentielle. Cela implique de développer davantage les collaborations avec de nouvelles banques nationales de développement.

Nous présentons quelques pistes pour y parvenir, comme la nécessité de favoriser les interactions croissantes entre les banques nationales opérant de manière isolée et les banques multilatérales de développement, la simplification des procédures (surtout pour les petits projets) ou, encore, un soutien technique aux équipes des banques nationales de développement.

Élargir le réseau des soutiens des banques multilatérales de développement est une étape nécessaire pour parvenir à atteindre les promesses ouvertes à Séville.

The Conversation

La Ferdi, pour laquelle travaille Florian Léon, a reçu des financements de Finance en Commun (FiCS) pour la réalisation de cette étude. Néanmoins, ni le FiCS ni d'autres structures ne sont intervenus au cours de la rédaction de cette étude.

PDF

18.08.2025 à 16:47

Spirus Gay, l’acrobate anarchiste qui a fait de sa vie et de son corps une œuvre politique

Sylvain Wagnon, Professeur des universités en sciences de l'éducation, Faculté d'éducation, Université de Montpellier

Acrobate et anarchiste, Spirus Gay mêlait performance artistique, engagement politique et pédagogie radicale dans une vie en résistance aux normes établies.
Texte intégral (2223 mots)
Spirus&nbsp;Gay, figure oubliée de l’anarchisme (revue _L’Artiste lyrique_, mai 1910). Gallica

Spirus Gay (1865-1938), artiste de cirque et militant anarchiste, incarne une figure rare du début du XXe siècle : celle d’un engagement total, mêlant art, corps, éthique et politique. À rebours des catégories figées, sa vie dessine une radicalité joyeuse, cohérente, où acrobatie rime avec pédagogie, naturisme avec syndicalisme, pamphlet avec solidarité.


Comment définir Spirus Gay ? Acrobate, jongleur, équilibriste, anarchiste, syndicaliste, libre penseur, pamphlétaire, naturiste, franc-maçon, mais aussi pédagogue… Joseph Jean Auguste Gay, dit Spirus Gay (1865-1938), échappe à toute tentative de classification. Son parcours foisonnant incarne une figure rare de l’engagement total, où corps, esprit, art et pensée politique s’entrelacent pour questionner et subvertir les normes établies.

C’est dans cette articulation cohérente entre action physique, engagement intellectuel et militantisme radical que se dessine un itinéraire véritablement singulier.

Notre société, cloisonnée et fragmentée, laisserait-elle encore aujourd’hui une place à un Spirus Gay ?

Pourquoi écrire sur Spirus Gay ?

Pour un historien, écrire sur un tel personnage est un défi. Au premier abord, peu de traces. Il n’a pas laissé d’œuvre majeure ou de manifeste célèbre. Il n’a pas dirigé de journal influent ni fondé de courant théorique. Et pourtant, il est là, en creux, dans les marges et les interstices de l’histoire de l’anarchisme français. En militant, il participe aux luttes, combats, expérimentations et utopies de la fin du XIXe siècle et du début du XXe.

Sa trajectoire incarne une manière de vivre l’anarchisme : dans les corps, dans les gestes, dans l’harmonie entre vie personnelle et engagement individuel et collectif. Parce qu’il illustre cette cohérence rare entre les idées que l’on défend et la vie que l’on mène. Parce qu’il force à repenser les catégories : artiste ou militant ? Intellectuel ou manuel ? Penseur ou pédagogue ?

À l’image du travail biographique sur l’histoire des femmes, l’enjeu est de sortir d’un genre convenu, d’éviter la tentation de simplifier, de linéariser, de trahir une vie foisonnante. A contrario, il ne s’agit pas de construire une légende, mais de comprendre, par les sources et la rigueur historique, ce que cette vie singulière peut nous dire aujourd’hui. De reconstituer un puzzle à partir d’archives éparses et de journaux oubliés, d’aphorismes et d’articles de Spirus Gay, de traces ténues (plus de 600 mentions dans la presse de l’époque, une quinzaine de textes signés tout de même). D’écrire sans gommer les contradictions, les zones d’ombre et les silences.

Un artiste accompli

Figure du music-hall parisien de la fin du XIXe siècle, Spirus Gay incarne une forme d’artiste polyvalent : équilibriste, jongleur de force, illusionniste, ventriloque et prestidigitateur, il monte sur les scènes parisiennes, des Folies-Belleville aux Folies Bergère, à Paris. Entre marginalité et culture de masse, derrière le prestige des affiches et les titres de « roi des équilibristes » ou de « champion du monde » de culturisme, se cache une réalité bien plus âpre.

Comme beaucoup d’artistes de variétés, Spirus Gay vit dans une instabilité constante, suspendu aux cachets, exposé aux blessures, aux accidents de scène, et aux coups durs de la vie. À plusieurs reprises, la communauté militante et artistique doit organiser des collectes pour subvenir à ses besoins, réparer ses outils détruits, ou l’aider à faire face à la maladie.

Cette précarité ne l’empêche pas d’être de nombreux combats pour la reconnaissance des artistes de « l’art vivant ». Spirus Gay s’engage avec ferveur dans la défense des droits des artistes, qu’il considère comme pleinement intégrés à la condition ouvrière.

Dès 1893, il siège au conseil syndical du Syndicat des artistes dramatiques, puis devient, en 1898, secrétaire de l’Union artistique de la scène, de l’orchestre et du cirque. Ce rôle lui permet d’organiser des actions collectives, mêlant concerts et solidarité militante. Porte-parole, il défend les artistes lyriques et revendique l’action directe face aux abus patronaux.

Spirus Gay en 1910
Spirus Gay en 1910. Revue « L’Artiste lyrique », mai 1910/Gallica

Autodidacte, Spirus Gay publie également dans le journal le Parti ouvrier, organe du Parti socialiste révolutionnaire, une dizaine d’articles qui esquissent sa vision de la société et du monde. Ces écrits, des aphorismes pour la plupart, un genre littéraire singulier qui interroge sur sa propre éducation et formation. L’étonnement apparent face à cette union du corps et de l’esprit repose, encore aujourd’hui, sur des préjugés profondément ancrés qui établissent une frontière entre l’artiste de divertissement et l’engagement politique profond et continu, mais aussi une hiérarchie entre les fonctions intellectuelles et manuelles.

L’éducation intégrale comme projet révolutionnaire

Spirus Gay est aussi un pédagogue, héritier direct des principes éducatifs défendus par le pédagogue libertaire Paul Robin à partir de 1869. Pour ce dernier, l’éducation intégrale repose sur un principe simple mais profondément subversif : refuser la dissociation entre l’intellect, le corps et l’affectif. Développer « la tête, la main et le cœur » de manière harmonieuse, ce serait libérer l’individu de l’aliénation produite par une école jugée autoritaire, par l’usine, par l’Église ou par l’État.

Spirus Gay applique ce principe dans sa vie comme dans ses pratiques éducatives. Son gymnase qu’il fonde à Paris en 1903, le Végétarium, devient un espace d’expérimentation pédagogique et de formation à la liberté, où culture physique, végétarisme, éducation « cérébro-corporelle » et hygiène de vie s’articulent comme autant d’outils d’émancipation. Chez lui, l’acrobatie devient un acte politique, le mouvement une philosophie de résistance. L’éducation, envisagée comme un processus permanent, tout au long de la vie, s’inscrit autant dans le développement de l’esprit que dans celui du corps. En tant que militant naturien libertaire et naturiste, il participe à la fondation de la première communauté naturiste à Brières-les-Scellés, dans l’actuel département de l’Essonne, et milite pour la lutte contre les ravages de l’alcool.

Un penseur de l’altruisme politique

Libre-penseur, anticlérical, athée et franc-maçon, Spirus Gay incarne aussi un engagement intellectuel humaniste, nourri par les idéaux de la liberté de conscience et de l’émancipation individuelle et collective. « Je crois en la divine égalité dans une société sans religion ni maître », écrit-il en 1894.

Ses écrits tracent les contours d’une philosophie éthique, engagée et radicale. Il y défend une société fondée sur l’égalité, la justice, le refus de l’autorité et une lutte acharnée contre l’égoïsme capitaliste.

Pour lui, l’altruisme n’est pas une posture morale, mais une arme politique : une manière de désarmer la violence d’un monde fondé sur l’exploitation et la compétition. Une notion que l’on retrouve dans le concept « d’altruisme efficace », défini par le philosophe Peter Singer.

La puissance subversive d’une vie

Spirus Gay ne se résume pas. Il échappe aux classifications, refuse les cadres. Tant mieux, car il faut se méfier des panthéons : ils figent ce qu’ils célèbrent.

Sa trajectoire est finalement une proposition : celle d’une radicalité incarnée et cohérente. Sa vie oppose une résistance constante aux cloisonnements, aux hiérarchies et aux assignations identitaires. Elle articule le geste esthétique, la rigueur intellectuelle et l’engagement.

Spirus Gay interroge en profondeur nos façons de vivre nos idées : comment ne pas dissocier nos convictions de notre quotidien, notre politique de notre manière de vivre, de manger, de respirer. Son parcours constitue une invitation à penser, à lutter, à vivre.

The Conversation

Sylvain Wagnon ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

18.08.2025 à 16:46

Rayons X et ondes radio dévoilent un objet astronomique qui n’avait jamais encore été observé

Ziteng Wang, Associate Lecturer, Curtin Institute of Radio Astronomy (CIRA), Curtin University

Cet objet, ASKAP&nbsp;J1832, ne ressemble à rien de connu dans la Voie lactée.
Texte intégral (2247 mots)
La région du ciel où ASKAP&nbsp;J1832 a été détecté. Z. Wang/ICRAR, Fourni par l'auteur

Dans le cosmos, certains objets émettent des pulsations plutôt qu’une lumière continue. Cette année, les astronomes ont découvert ASKAP J1832, un objet dans la Voie lactée qui émet à la fois des rayons X et des ondes radio, et qui ne ressemble à rien de connu.


Dans une étude publiée dans Nature au mois de mai, nous rapportons la découverte d’un nouveau phénomène transitoire à longue période – et, pour la première fois, qui émet également régulièrement des sursauts de rayons X.

Les transitoires à longue période sont une classe d’objets cosmiques récemment identifiés qui émettent d’intenses flashs d’ondes radio toutes les quelques minutes, voire à plusieurs heures d’intervalle, ce qui est beaucoup plus long que les émissions pulsées très rapides que nous détectons généralement chez les pulsars, qui sont issus de l’explosion d’une étoile massive en fin de vie.

La nature de ces objets transitoires à longue période et la manière dont ils génèrent leurs signaux inhabituels restent un mystère.

Notre découverte ouvre une nouvelle fenêtre sur l’étude de ces sources énigmatiques. Mais elle renforce également le mystère : l’objet que nous avons trouvé ne ressemble à aucun type d’étoile ou de système connu dans notre galaxie ni au-delà.

Une image du ciel montrant la région autour d’ASKAP J1832-0911. Le cercle jaune marque la position de la source nouvellement découverte. Cette image combine les rayons X détectés par Chandra, observatoire X de la Nasa, ainsi que les données radio du radiotélescope sud-africain MeerKAT et les données infrarouges du télescope spatial Spitzer de la Nasa. Fourni par l’auteur

À l’affût des scintillements radio dans le ciel

Le ciel nocturne recèle de nombreux éléments invisibles à l’œil nu, mais détectables à d’autres longueurs d’onde, comme les ondes radio.

Notre équipe de recherche scrute régulièrement le ciel radio à l’aide du SKA Pathfinder australien (ASKAP), exploité par le CSIRO dans la région de Wajarri Yamaji, dans l’ouest de l’Australie. Notre objectif est de trouver des objets cosmiques qui apparaissent et disparaissent – que l’on appelle « transients » en anglais, « objets transitoires », en français.

Les objets transitoires sont souvent liés à certains des événements les plus puissants et les plus spectaculaires de l’Univers, tels que la mort explosive d’étoiles.

Fin 2023, nous avons repéré une source extrêmement brillante, baptisée ASKAP J1832-0911 (d’après sa position dans le ciel), dans le plan de notre galaxie. Cet objet est situé à environ 15 000 années-lumière… c’est loin, mais toujours dans la Voie lactée.

Vue aérienne de grandes antennes radio blanches sous un ciel bleu clair parsemé de nuages et d’une terre rouge en contrebas
Des antennes du réseau ASKAP, situées à Inyarrimanha Ilgari Bundara, l’observatoire radioastronomique de Murchison, dans l’ouest de l’Australie. CSIRO

Un événement spectaculaire

Après la découverte initiale, nous avons commencé des observations de suivi à l’aide de télescopes situés dans le monde entier dans l’espoir de capter d’autres impulsions. Grâce à une surveillance continue, nous avons constaté que les impulsions radio provenant d’ASKAP J1832 arrivaient régulièrement, toutes les quarante-quatre minutes. Cela a confirmé qu’il s’agissait d’un nouveau membre du groupe peu fourni des transitoires à longue période.

Nous avons également fouillé les anciennes données provenant de la même partie du ciel, mais nous n’avons trouvé aucune trace de l’objet avant sa découverte en 2023. Ceci suggère qu’un événement spectaculaire s’est produit peu avant notre première détection, un événement suffisamment puissant pour « allumer » soudainement notre objet transitoire atypique.

Puis, en février 2024, ASKAP J1832 est devenu extrêmement actif. Après une période calme en janvier, la source s’est considérablement intensifiée : moins de 30 objets dans le ciel ont jamais atteint une telle luminosité dans le domaine radio… À titre de comparaison, la plupart des étoiles que nous détectons en radio sont environ 10000 fois moins lumineuses qu’ASKAP J1832 lors de cette flambée.

Un coup de chance

Les rayons X sont une forme de lumière que nous ne pouvons pas voir avec nos yeux. Ils proviennent généralement d’environnements extrêmement chauds et énergétiques. Bien qu’une dizaine d’objets similaires émettant des ondes radio (celles que nous avons détectées initialement) aient été découverts à ce jour, personne n’avait jamais observé d’émission X de leur part.

En mars, nous avons tenté d’observer ASKAP J1832 en rayons X. Cependant, en raison de problèmes techniques avec le télescope, l’observation n’a pas pu avoir lieu.

Puis, coup de chance ! En juin, j’ai contacté mon ami Tong Bao, chercheur postdoctoral à l’Institut national italien d’astrophysique, pour vérifier si des observations précédentes aux rayons X avaient capté la source. À notre grande surprise, nous avons trouvé deux observations antérieures provenant de l’observatoire à rayons X Chandra de la Nasa, bien que les données soient encore dans une période de diffusion limitée (et donc non encore rendues publiques en dehors d’un cercle restreint de chercheurs et chercheuses).

Nous avons contacté Kaya Mori, chercheur à l’université Columbia et responsable de ces observations. Il a généreusement partagé les données avec nous. À notre grande surprise, nous avons découvert des signaux X clairs provenant d’ASKAP J1832. Plus remarquable encore : les rayons X suivaient le même cycle de 44 minutes que les impulsions radio.

Ce fut un véritable coup de chance. Chandra était pointé vers une cible complètement différente, mais par pure coïncidence, il a capté ASKAP J1832 pendant sa phase inhabituellement brillante et active.

Un tel alignement fortuit est extrêmement rare, c’est comme trouver une aiguille dans une botte de foin cosmique.

Illustration d’un télescope tubulaire dans l’espace avec de grands panneaux solaires à une extrémité
L’observatoire à rayons X Chandra de la Nasa est le télescope à rayons X le plus puissant au monde, en orbite autour de la Terre depuis 1999. NASA/CXC & J. Vaughan

Toujours un mystère

La présence simultanée d’émissions radio et de sursauts X est une caractéristique commune des étoiles mortes dotées de champs magnétiques extrêmement puissants, telles que les étoiles à neutrons (étoiles mortes de grande masse) et les naines blanches (étoiles mortes de faible masse).

Notre découverte suggère qu’au moins certains objets transitoires à longue période pourraient provenir de ce type de vestiges stellaires.

Mais ASKAP J1832 ne correspond à aucune catégorie d’objet connue dans notre galaxie. Son comportement, bien que similaire à certains égards, reste atypique.

Nous avons besoin de plus d’observations pour vraiment comprendre ce qui se passe. Il est possible qu’ASKAP J1832 soit d’une nature entièrement nouvelle pour nous, ou qu’il émette des ondes radio d’une manière que nous n’avons jamais observée auparavant.

The Conversation

Ziteng Wang ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

18.08.2025 à 11:55

Loi Duplomb, transition énergétique… et si les citoyens reprenaient la main ? Leçons du succès de la campagne « Décarbonons la France »

Sophie Renault, Professeur des Universités en Sciences de Gestion et du Management, Université d’Orléans

Avec une campagne dépassant les 4,6&nbsp;millions d’euros, «&nbsp;Décarbonons la France&nbsp;» signe la reconnaissance du crowdfunding comme instrument de mobilisation citoyenne.
Texte intégral (1526 mots)
La campagne «&nbsp;Décarbonons la France&nbsp;» a été lancée à l’initiative du Shift Project. ©Jérémy Garcia–Zubialde, Fourni par l'auteur

En résonance avec la récente mobilisation citoyenne contre la loi Duplomb, la campagne de financement participatif « Décarbonons la France » révèle une autre forme d’engagement, tournée vers l’élaboration de solutions et la mise en œuvre d’un projet collectif. Elle témoigne des mutations à l’œuvre dans les modalités de participation citoyenne et du rôle croissant des plateformes numériques. Décryptage du succès record de cette campagne.


Lancée le 13 mai 2025, la campagne « Décarbonons la France » portée par le think tank The Shift Project a suscité une mobilisation exceptionnelle sur la plateforme Ulule. En l’espace de quelques semaines ont été récoltés 4 634 968 euros (sur un objectif de 300 000 euros) de la part de 36 552 contributeurs. Il s’agit de la campagne de financement participatif de don avec contreparties (reward-based crowdfunding) la plus soutenue de l’histoire européenne. Ce record était précédemment détenu par le youtubeur Tev – Ici Japon avec le projet Odyssée ayant pour ambition d’ouvrir le plus grand musée du jeu vidéo.

L’objectif de la campagne « Décarbonons la France » est clair : formuler des propositions concrètes pour organiser la transition énergétique et peser sur l’agenda politique en vue de l’élection présidentielle de 2027. Il s’agit plus précisément de répondre à l’urgence climatique « en planifiant une sortie progressive, mais déterminée des énergies fossiles ».


À lire aussi : Crowdfunding : 10 ans plus tard, vous aussi, financez votre salade de pommes de terre !


Cette campagne interroge les clés de réussite et les enjeux du financement participatif. Loin de se limiter à un simple mode de levée de fonds, elle témoigne d’une évolution vers un crowdfunding citoyen, orienté vers l’activation d’un engagement collectif.

Soutien citoyen à un projet de transition

Alors que le financement participatif est régulièrement associé aux projets créatifs, culturels ou entrepreneuriaux, son évolution vers des finalités civiques est de plus en plus manifeste. Le cas « Décarbonons la France » en est la parfaite illustration. Il s’agit ici de contribuer à la diffusion d’un projet de société et d’alimenter la réflexion individuelle et collective sur la transition énergétique.

Les sources de motivation des contributeurs vont, dès lors, bien au-delà de l’intérêt personnel ou symbolique. Il ne s’agit pas simplement de recevoir une contrepartie, parmi lesquelles un exemplaire du livre présentant le programme d’action du Shift Project pour 2027 ou l’invitation à un webinaire en présence de Jean-Marc Jancovici ou bien encore de bénéficier du dispositif de défiscalisation.

L’analyse qualitative des commentaires collectés sur la plateforme Ulule témoigne de la volonté des contributeurs de s’associer à un projet perçu comme nécessaire, lucide et porteur de sens collectif. Comme le formule l’un des contributeurs :

« On sort enfin des débats idéologiques et dogmatiques pour aborder les problèmes liés au changement climatique de manière plus factuelle et scientifique. »

Ce soutien financier s’accompagne ainsi d’une adhésion à une démarche qu’ils considèrent comme rigoureuse, pédagogique et émancipatrice. Un autre contributeur exprime en ces termes les raisons de son implication :

« Pour un réel projet instruit, construit et initié par des citoyens conscients. »

L’acte de contribuer devient une manière de prendre part à un effort de clarification du débat public autour de la transition écologique.

Un levier d’organisation collective

La réussite de cette campagne repose également sur la cohérence entre le fond du projet et ses modalités de déploiement. Les contributeurs ne sont pas seulement des financeurs. Ils sont sollicités comme relais, médiateurs, participants à une dynamique collective.

Cette dimension collective est renforcée par les supports mis à disposition de chacun au sein d’un kit de communication. La pluralité des contreparties permettant d’accéder aux statuts de citoyen « solidaire » (20 euros), « enchanté » (50 euros), « investi » (100 euros), « mobilisé » (300 euros), « déterminé » (1 000 euros) ou bien encore « conquis » (2 000 euros) témoigne d’une volonté d’engager les contributeurs dans une logique d’essaimage.

La campagne s’ouvre également aux entreprises, dont la participation contribue à élargir l’impact de cette mobilisation collective. La plateforme Ulule devient alors un dispositif de coordination horizontale, où l’adhésion passe par l’appropriation du message et sa transmission au sein des cercles respectifs des contributeurs, particuliers ou entreprises.

The Shift Project 2025.

À travers ces différentes formes, le financement participatif tend à devenir un outil de mobilisation de la foule, susceptible de contourner certains blocages institutionnels ou économiques en donnant aux citoyens la possibilité de financer directement des projets jugés socialement ou politiquement nécessaires.

Ce mode d’engagement n’est ni un substitut aux institutions représentatives ni une simple alternative aux canaux classiques de financement. Le succès de la campagne « Décarbonons la France » ne repose pas seulement sur une stratégie de communication efficace. Il révèle une disposition sociale croissante à soutenir des projets à forte valeur collective, dès lors qu’ils sont porteurs de sens et offrent une lisibilité sur leurs objectifs et une transparence sur l’usage des ressources.

Alors que la pétition contre la loi Duplomb cristallise une prise de conscience face aux reculs environnementaux, la campagne « Décarbonons la France » montre que les citoyens peuvent aussi investir les plateformes pour proposer, pour structurer et pour financer une trajectoire écologique alternative.

Plus qu’un levier technique, le crowdfunding citoyen apparaît comme une forme renouvelée de participation démocratique, ancrée dans le soutien éclairé à des projets porteurs de transformations sociales. En cela, il offre un espace pour articuler don, engagement et diffusion d’une vision collective.

The Conversation

Sophie Renault ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

18.08.2025 à 11:54

La dynastie Wendel : onze générations d’acier, de 1704 à aujourd’hui

Hervé Joly, Directeur de recherche histoire contemporaine, CNRS, Laboratoire Triangle, Université Lumière Lyon 2

Durant trois siècles, les Wendel ont été les plus puissants «&nbsp;barons de l’acier&nbsp;» de France. Quelle continuité peut-on leur accorder depuis 1704&nbsp;? Peut-on encore à ce stade parler de famille&nbsp;?
Texte intégral (2712 mots)
Buste de Charles de Wendel de 1873 par Anatole de Vasselot (1840-1904), devant la mairie de Stiring-Wendel, près de Forbach, en Moselle. Wikimediacommons

Durant trois siècles, les Wendel ont été les plus puissants barons de l’acier en France. Cette famille incarne, au-delà de la prétendue loi des trois générations – « la première crée, la deuxième développe, la troisième la ruine » –, la quintessence de la réussite du capitalisme familial. Quelle continuité peut-on leur accorder depuis 1704 ? Une chose est certaine, les 1 300 descendants se partagent 1,5 milliard d’euros en 2025.


L’entreprise Wendel fait remonter son histoire à 1704, avec l’acquisition par Jean-Martin Wendel (1665-1737) des forges d’Hayange – et de la seigneurie associée qui a permis son anoblissement. Elle est ainsi, après Saint-Gobain, l’une des plus anciennes grandes firmes françaises.

Encore plus rare, la firme est toujours contrôlée par la famille fondatrice, qui détient, à travers sa société de portefeuille Wendel-Participations SE, 39,6 % du capital. Avec 1,5 milliard d’euros, elle est la 89ᵉ fortune professionnelle française.

Si elle n’est plus présente à la direction opérationnelle de Wendel, la famille détient toujours, aux côtés de deux représentants des salariés et de quatre administrateurs indépendants, la moitié des sièges au conseil de surveillance. Ce dernier est présidé par un représentant de la dixième génération des descendants de Jean-Martin, Nicolas ver Hulst ; l’un des membres s’appelle même Humbert de Wendel.

Dans « La survivance d’une dynastie familiale sans la sidérurgie : les Wendel (1977-2017) » (in l’Industrie entre Méditerranée et Europe, édité par Mauve Carbonell, Presses universitaires de Provence, 2019, pp.65-77), j’ai retracé l’histoire singulière des dernières générations, en la complétant par le travail de l’historien Jacques Marseille, Les Wendel, 1704-2004 (éditions Perrin, 2004), sur les premières.

Famille d’acier

Le groupe Wendel est sorti en 1978 de son activité traditionnelle, la sidérurgie lorraine. L’État a pris le contrôle, à travers des banques publiques, de son principal actif, Sacilor, la nationalisation formelle n’intervenant qu’après l’arrivée de la gauche au pouvoir, en 1982.

La diversification, que la société fait remonter à 1977, est en fait bien plus ancienne.

Le 8 mai 1704, Jean-Martin Wendel, ancien officier de Louis XIV, achète pour une faible somme une forge en mauvais état, la Rodolphe, à Hayange, en Lorraine, qu’il a bien relancé avec d’autres acquisitions. Le fils Charles (1708-1784) développe l’affaire, encore modeste, héritée de son père avec cinq forges en Lorraine et double les actifs industriels. Le petit-fils François-Ignace (1741-1795) constitue un groupe considérable, qui intégrait par fusion la fonderie du Creusot (Saône-et-Loire) et celle d’Indret (Loire-Atlantique), des mines de fer et même la cristallerie royale de Sèvres (aujourd’hui dans les Hauts-de-Seine).

Une page s’ouvre avec Marguerite de Wendel, surnommée « la dame du fer », de 1718 à 1802, qui traverse les crises grâce à un caractère aussi trempé que l’acier.

Guerres franco-allemandes

La famille Wendel symbolise les guerres franco-prusiennes puis allemandes de 1870, de 1914-1918 et de 1939-1945.

En 1834, elle est la 9e entreprise française par sa production. En 1870, elle est devenue la première. La défaite militaire la divise entre Lorraine française et allemande, mais la famille Wendel conserve le contrôle, avec des sociétés distinctes, dans les deux parties. L’essentiel de la famille reste français, mais Henri (1844-1906), demeuré à Hayange annexée, devient député de Thionville au Reichstag. Les activités sont beaucoup développées en Lorraine française, du côté de Jœuf, mais la famille emploie, à la veille de la Grande Guerre, 20 000 personnes en Lorraine allemande, ce qui nourrit des accusations de trahison nationale.

François de Wendel (1874-1949). Wikimediacommons

Un autre François de Wendel (1874-1949), devenu chef de la famille et élu député de Meurthe-et-Moselle en 1914, rétablit l’équilibre. Il devient président du puissant Comité des forges en 1918 et assure la reconstitution de l’ensemble après le retour de la Moselle à la France. En 1929, la Maison de Wendel emploie 40 000 personnes. Elle est au premier rang des entreprises françaises par capitaux propres en 1932. La Seconde Guerre mondiale constitue une nouvelle épreuve, mais, privée par les Allemands du contrôle de ses affaires lorraines, la famille échappe aux accusations de collaboration.

Investissements et participations

Les Wendel détiennent des participations dans des sociétés métallurgiques en aval de la production d’acier. Les entreprises : J. J. Carnaud et Forges de Basse-Indre, fabricants de boîtes de conserve dans la région nantaise, Creusot-Loire, Bourgogne, les Forges de Gueugnon, fabricants de tôles inoxydables, et, en Dauphiné, les Forges d’Allevard, producteurs d’aciers spéciaux pour ressorts ou aimants.

La huitième génération rassemble toutes ces participations dans la Compagnie générale d’industrie et de participations (CGIP) restée à l’écart de la nationalisation. Elles ont toutes entre-temps été cédées, la dernière avec Allevard en 2005. La CGIP, redevenue Wendel en 2002, n’est plus présente ensuite dans la métallurgie. Comme toute société d’investissements, même si elle se veut un « investisseur pour le long terme », il s’agit de participations minoritaires non consolidées. Elle n’apparaît pas dans les classements des grandes entreprises françaises, mais elle pèse économiquement.

Pas de synergie industrielle

La famille Wendel s’est engagée dans de grandes firmes de services informatiques avec Cap Gemini (1982-2003), d’équipement automobile avec Valeo (1986-2005), de la pharmacie avec BioMérieux (1989-2004), de la construction électrique avec Legrand (2002-2013), de l’édition avec Éditis (2004-2008) ou des matériaux avec Saint-Gobain (2007-2019). Elle a connu quelques mauvaises affaires comme la compagnie aérienne AOM-Air Liberté (2000-2001) qui a déposé le bilan.

Il n’existe aucune logique de spécialisation ou de synergie industrielle. Aujourd’hui, à côté de « gestion d’actifs privés pour compte de tiers », sont citées en « gestion pour compte propre » huit participations minoritaires ou majoritaires dans des entreprises plus pointues : Bureau Veritas, « leader mondial de l’inspection et de la certification », depuis 1995, Stahl, « leader mondial des revêtements de spécialité et traitements de surface » depuis 2006, Tarkett, « leader mondial des revêtements de sol et surfaces sportives » depuis 2021, ou encore Globeducate, « un des principaux groupes d’écoles bilingues de la maternelle au secondaire » depuis 2024.

Ernest-Antoine Seillière de Laborde

Ernest-Antoine Seillière est, de 1998 à 2005, président de la principale organisation patronale française, le Conseil national du patronat français (CNPF), devenu sous sa présidence le Mouvement des entreprises de France (Medef). Wikimediacommons

Les actionnaires de la famille Wendel sont des cousins au cinquième ou sixième degré. Liés par un intérêt économique et mémoriel, ils font le choix de préserver l’unité, sous l’impulsion de l’un d’entre eux, Ernest-Antoine Seillière de Laborde. Cet énarque quitte l’administration du Quai d’Orsay en 1978 pour rejoindre la CGIP.

Il en devient le PDG en 1987 et la rebaptise Wendel en 2002. Entre-temps, il prend la présidence du Conseil national du patronat français (CNPF) qu’il transforme en Mouvement des entreprises de France (Medef). Resté président non opérationnel de Wendel jusqu’en 2013, il est confronté à une crise au sein de la famille. Des plaintes successives pour abus de biens sociaux et fraude fiscale sont déposées par une cousine, contre un montage qui lui a permis, avec d’autres cadres dirigeants, de recevoir des montants considérables d’actions gratuites. Si la première plainte est classée sans suite, la seconde débouche en 2022 sur sa condamnation, contre laquelle il n’a pas fait appel, à trois ans de prison avec sursis.

Gotha français

La famille n’a pas pour autant perdu son unité. La dissidente est restée isolée et les autres héritiers ont considéré que le tout continuait, malgré les déboires boursiers, de valoir plus que la somme des parties.

Si l’on ne compte plus, par le jeu des descendances féminines, qu’une seule branche, les deux fils de Henri (1913-1982) et leurs enfants, à porter le nom de Wendel, la famille Wendel est devenue, par le jeu des multiples alliances au fil des générations, un extraordinaire Gotha. On y croise de nombreuses autres grandes familles de l’aristocratie comme les Rohan-Chabot, Cossé-Brissac ou Bourbon-Busset, ou de la bourgeoisie d’affaires comme les Schneider ou les Peugeot.

Ces dernières années, l’action Wendel n’a pas été qu’une bonne affaire pour ses actionnaires. Après une chute, comme toutes les autres valeurs, consécutive à la crise de 2008, le titre s’était redressé pour atteindre un maximum de 151 euros en 2018. Depuis, il est beaucoup retombé pour stagner autour de 90 euros. Cette baisse a été compensée par une hausse du dividende annuel, que la société a toujours versé, porté en 2025 à 4,7 euros, ce qui maintient une bonne rentabilité autour de 5 %. Les actionnaires familiaux, qui ont hérité de leurs titres, ont pu toucher ces dividendes.

Cours de l’action Wendel depuis le 20 novembre 1992. Google finance

Qui sont ces descendants aujourd’hui ? À la 10e ou 11e génération, ils seraient 1 300 à se partager cet actif de 1,5 milliard. Cela représente 1,2 million d’euros par descendant en moyenne qui peut, selon la démographie des différentes branches, cacher d’importants écarts.

The Conversation

Hervé Joly ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

17.08.2025 à 19:22

Rosalind Franklin : la scientifique derrière la découverte de la structure de l’ADN, bien trop longtemps invisibilisée

Coralie Thieulin, Enseignant chercheur en physique à l'ECE, docteure en biophysique, ECE Paris

Rosalind Franklin est l’oubliée du prix Nobel de médecine 1962. Découvrez son histoire et tous ses exploits scientifiques, notamment en virologie.
Texte intégral (2631 mots)

*En 1962, le prix Nobel de physiologie ou médecine est attribué à Watson, Crick et Wilkins pour la découverte de la structure de l’ADN. Rosalind Franklin n’est pas mentionnée, elle est pourtant à l’origine de cette découverte majeure. Découvrez son histoire et tous ses exploits scientifiques, notamment en virologie. *


« La science et la vie quotidienne ne peuvent pas et ne doivent pas être séparées. »

Cette phrase de Rosalind Franklin éclaire sa vision singulière : pour elle, la science n’était pas une abstraction, mais un chemin concret vers une meilleure compréhension du monde. Tout au long de sa vie, elle a su allier une rigueur scientifique sans faille à un engagement discret, dans un univers où les femmes peinaient encore à obtenir la reconnaissance qu’elles méritaient.

Ni figure publique ni militante affichée, Rosalind Franklin travaillait dans l’ombre, avec une exigence et une méthode implacables. Et pourtant, c’est grâce à son expertise que la lumière a traversé la molécule d’ADN, révélant sa fameuse forme en double hélice.

À une époque où la place des femmes en science restait fragile, elle imposa sa voie avec précision et détermination, convaincue que la véritable beauté réside dans la structure profonde des choses.

Une détermination née dès l’enfance

Le 25 juillet 1920, au cœur du quartier londonien de Notting Hill, naît Rosalind Elsie Franklin, deuxième enfant d’une fratrie de cinq. Issue d’une famille juive britannique aisée et cultivée, elle grandit dans un environnement où la rigueur intellectuelle et l’engagement social sont des piliers. Son père, Ellis Arthur Franklin, banquier passionné de physique, rêvait d’être scientifique mais a vu ses ambitions fauchées par la Première Guerre mondiale. Sa mère, Muriel Waley, militait activement pour l’éducation des femmes. Ce mélange d’idéalisme, de savoir et de devoir allait profondément façonner Rosalind.

Dès l’enfance, elle fait preuve d’une intelligence hors norme. À six ans, elle passe ses journées à résoudre des problèmes d’arithmétique, sans jamais faire d’erreur, selon sa tante. À neuf ans, elle se lance un défi personnel : finir chaque semaine première de sa classe. Elle tiendra ce pari pendant deux ans. Déjà se dessine une personnalité exigeante, compétitive et intensément tournée vers la connaissance. Mais dans la société britannique des années 1920, une telle ambition, chez une fille, suscite autant d’admiration que de réticence, dans un contexte où la place des femmes restait largement cantonnée à la sphère domestique.

Une vocation affirmée dès l’adolescence

Rosalind Franklin poursuit ses études au prestigieux St Paul’s Girls’ School, l’un des rares établissements à enseigner les sciences aux jeunes filles. Elle y brille, notamment en physique et en mathématiques. En 1938, elle entre au Newnham College de l’Université de Cambridge, l’un des deux collèges féminins de l’époque. Son choix de se spécialiser en chimie et en physique n’est pas encore courant chez les femmes.

En 1941, en pleine guerre mondiale, elle obtient son diplôme. Tandis que beaucoup de femmes sont orientées vers des rôles d’assistante, Rosalind refuse tout compromis et intègre un laboratoire du British Coal Utilisation Research Association (Association britannique pour la recherche sur l’utilisation du charbon). Elle y étudie la microstructure du charbon par diffraction des rayons X, technique qui deviendra sa spécialité.

Ces recherches, bien que menées dans un contexte de guerre, auront des retombées industrielles majeures, notamment pour la fabrication de masques à gaz et de matériaux isolants.

En 1945, Rosalind Franklin obtient un doctorat de Cambridge – un exploit pour une femme à cette époque. En effet, à cette période, Cambridge ne délivrait pas officiellement de diplômes aux femmes, ce qui rend cet accomplissement d’autant plus remarquable, car Franklin fait partie des premières à obtenir un doctorat dans un contexte universitaire encore très fermé aux femmes.

Un interlude heureux à Paris

En 1947, une nouvelle étape marque sa vie : elle rejoint le Laboratoire Central des Services Chimiques de l’État, à Paris, sur invitation de Jacques Mering. Elle y perfectionne ses compétences en cristallographie par rayons X et découvre un environnement de travail plus ouvert, où sa parole est écoutée et ses idées respectées.

Elle se lie d’amitié avec des chercheurs, découvre la culture française, et adopte un mode de vie simple mais libre. Elle parcourt les Alpes à pied, discute dans les bistrots, s’immerge dans la langue et la gastronomie. Elle confiera plus tard :

« Je pourrais vagabonder en France pour toujours. J’adore le pays, les gens et la nourriture. »

Pour une femme qui a toujours ressenti le poids du sexisme britannique, la France offre alors un souffle de liberté. En effet, l’université britannique, en particulier Cambridge et King’s college, reste encore profondément patriarcale : les femmes sont exclues des clubs et réunions informelles et ne reçoivent officiellement des diplômes à Cambridge qu’à partir de 1947.

La « Dark Lady » de la double hélice

Mais la science l’appelle ailleurs. En 1951, elle retourne en Angleterre avec une bourse prestigieuse (Turner and Newall Fellowship). Elle rejoint le King’s College de Londres, au département de biophysique, pour travailler sur une mystérieuse molécule encore peu comprise : l’ADN. On sait, depuis Avery (1944), qu’elle joue un rôle dans l’hérédité, et Chargaff (1950) a établi que les bases azotées se répartissent selon des proportions constantes (A=T, G=C), mais la structure tridimensionnelle demeure inconnue. C’est là que son destin scientifique se joue.

Franklin apporte au projet son expertise pointue en diffraction X. En quelques mois, elle améliore considérablement les images de l’ADN, et capture l’une des photographies les plus célèbres de l’histoire de la biologie : le « cliché 51 ». Cette image révèle, avec une clarté inédite, la forme hélicoïdale de la molécule d’ADN. On y voit des taches disposées en forme de X, révélant que la molécule forme une double hélice régulière. L’espacement des taches renseigne sur la distance entre les bases (A, T, C et G), et leur symétrie suggère une structure très ordonnée.

Rosalind Franklin identifie également deux formes distinctes de l’ADN selon l’humidité (forme A et B), et démontre que les groupements phosphate sont orientés vers l’extérieur.

Mais derrière cette réussite, l’ambiance au laboratoire est tendue. Franklin est la seule femme scientifique du département, et ses collègues masculins, notamment Maurice Wilkins, voient son indépendance comme de l’insubordination. En effet, Wilkins pensait que Franlkin arrivait au laboratoire comme assistante sous sa direction. De son côté, Rosalind pensait avoir été recrutée pour diriger ses propres recherches sur l’ADN,de manière indépendante. Cette incompréhension institutionnelle a été exacerbée par une communication défaillante de la part de John Randall, directeur du laboratoire, qui n’a pas informé Wilkins de l’autonomie accordée à Franklin. Wilkins n’a appris cette décision que des années plus tard, ce qui a contribué à des tensions professionnelles. Ce dernier, persuadé qu’elle est son assistante, se heurte à son refus catégorique de toute hiérarchie injustifiée. Leur relation devient glaciale. Dans ce climat conservateur et misogyne, Franklin se heurte à un plafond de verre invisible, mais solide.

C’est dans ce contexte qu’un événement aux lourdes conséquences se produit. Sans son consentement, Wilkins montre le cliché 51 à James Watson, jeune chercheur de Cambridge. Ce dernier, avec Francis Crick, travaille lui aussi sur l’ADN, mais sans données expérimentales directes. En découvrant la photographie, Watson est stupéfait :

« Ma mâchoire s’est ouverte et mon pouls s’est emballé. »

La photographie de Franklin devient la pièce manquante qui leur permet de construire leur célèbre modèle de la double hélice. En avril 1953, trois articles fondamentaux sur l’ADN paraissent dans la revue Nature. Le premier, signé par Watson et Crick, propose le célèbre modèle en double hélice, fondé sur des raisonnements théoriques et des données expérimentales issues d’autres laboratoires – notamment le cliché 51, transmis à leur insu par Maurice Wilkins. Le second article, coécrit par Wilkins, Stokes et Wilson, présente des résultats de diffraction des rayons X qui confirment la présence d’une structure hélicoïdale, en cohérence avec le modèle proposé. Le troisième, rédigé par Rosalind Franklin et Raymond Gosling, expose avec rigueur leurs propres données expérimentales, parmi les plus décisives, mais sans que Franklin ait été informée de leur utilisation préalable par Watson et Crick. Bien que sa contribution soit déterminante, elle n’est mentionnée que brièvement dans les remerciements.

Watson la surnomme plus tard dans ses mémoires « Rosy », un diminutif qu’elle n’a jamais utilisé et qu’elle détestait. Il la décrit comme austère, inflexible, difficile – un portrait injuste qui trahit davantage les préjugés de l’époque que la réalité de sa personne. Ses collègues masculins l’appellent la « Dark Lady » de l’ADN.

Blessée, fatiguée par ce climat toxique, Franklin quitte le King’s College dès la fin 1953. Mais loin d’abandonner, elle rebondit immédiatement.

La renaissance scientifique : les virus

Elle rejoint alors le Birkbeck College, un établissement de l’Université de Londres situé à Bloomsbury, sur l’invitation du physicien John Bernal qui la qualifie de « brillante expérimentatrice ». Elle y obtient un poste de chercheuse senior, à la tête de son propre groupe de recherche, financé par l’Agricultural Research Council. Là, elle applique ses compétences en diffraction X à un nouveau domaine : les virus. Elle se lance dans l’étude du virus de la mosaïque du tabac, un petit virus végétal très étudié. Avec son équipe, les doctorants Kenneth Holmes et John Finch, le jeune chercheur postdoctoral Aaron Klug, futur prix Nobel, ainsi que l’assistant de recherche James Watt, elle démontre que l’ARN du virus est situé à l’intérieur d’une coque protéique hélicoïdale. Cette découverte est essentielle car elle montre la forme en 3D du virus, explique comment l’ARN est protégé à l’intérieur, et crée les bases pour mieux comprendre les virus. Cela a aidé à progresser dans la recherche pour trouver des traitements contre les infections virales.

Entre 1953 et 1958, elle publie plus de 15 articles majeurs, établissant les bases de la virologie moléculaire. Elle travaille également sur la structure du virus de la polio, en collaboration avec le futur prix Nobel Aaron Klug, récompensé en 1982 pour son développement de la microscopie électronique cristallographique et l’élucidation des complexes biologiques entre acides nucléiques et protéines. Elle est enfin dans un environnement où elle est écoutée, respectée, et même admirée.

Un destin interrompu

Mais en 1956, le destin frappe cruellement. Au cours d’un séjour aux États-Unis, Franklin ressent de fortes douleurs abdominales. Le diagnostic tombe : cancer des ovaires. Elle a 36 ans. La maladie est probablement liée à son exposition répétée aux rayons X, à une époque où les protections étaient rudimentaires, voire absentes.

Malgré plusieurs opérations et de lourds traitements, elle continue de travailler, fidèle à sa discipline et à sa passion. Jusqu’à ses derniers mois, elle écrit, corrige, encourage, dirige. Elle meurt le 16 avril 1958, à l’âge de 37 ans.

Un prix Nobel sans elle

Quatre ans après sa mort, en 1962, le prix Nobel de physiologie ou médecine est attribué à Watson, Crick et Wilkins pour la découverte de la structure de l’ADN. Rosalind Franklin n’est pas mentionnée. Officiellement, le prix ne peut être attribué à titre posthume. Officieusement, elle n’a jamais été sérieusement envisagée comme co-lauréate, car son nom ne circulait pas dans les cercles masculins du pouvoir scientifique.

Une reconnaissance restaurée

Il faudra attendre les années 1970 pour que sa contribution soit pleinement reconnue. D’abord par Anne Sayre, amie de Franklin, journaliste américaine et amie proche de Franklin rencontrée à Londres dans les années 1950 grâce à leur cercle social commun lié au monde scientifique, qui publie Rosalind Franklin and DNA en 1975 pour rétablir les faits. Puis, bien après, en 2002, avec la biographie The Dark Lady of DNA, écrite par Brenda Maddox et qui rencontre un grand écho international.

Aujourd’hui, son nom est inscrit sur des bâtiments universitaires, des bourses, des prix scientifiques. En 2020, elle est sélectionnée par le magazine Nature parmi les plus grandes scientifiques du XXe siècle. En 2021, la mission spatiale européenne vers Mars, nommée Rosalind Franklin Rover, a été lancée pour chercher des traces de vie passée dans le sous-sol martien. Ce nom rend hommage à Franklin, dont les travaux sur la structure de l’ADN symbolisent la recherche des bases moléculaires du vivant.

Rosalind Franklin, longtemps éclipsée par ses pairs, incarne aujourd’hui bien plus qu’une figure oubliée de la science. Elle est devenue un symbole de ténacité, d’éthique scientifique, et de justice. Une pionnière dont l’éclat posthume inspire chercheuses et chercheurs à persévérer malgré les obstacles, les discriminations et les injustices qu’ils peuvent rencontrer.

The Conversation

Coralie Thieulin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

17.08.2025 à 17:15

Quand Donald Trump déroule le tapis rouge pour Vladimir Poutine

Matthew Sussex, Associate Professor (Adj), Griffith Asia Institute; and Fellow, Strategic and Defence Studies Centre, Australian National University

Ce qui importe à Trump, c’est pouvoir affirmer qu’une paix a été mise en œuvre, quelles qu’en soient les modalités et la durée de vie.
Texte intégral (2430 mots)
Donald Trump salue Vladimir Poutine à l’aéroport d’Anchorage, en Alaska, le 15&nbsp;août 2025. Site officiel du Kremlin, CC BY-NC

La rencontre tenue en Alaska entre le président des États-Unis et celui de la Russie s’est soldée par un triomphe symbolique et diplomatique pour Vladimir Poutine. Les propositions de paix pour l’Ukraine qui semblent devoir en ressortir vont entièrement dans le sens des volontés du maître du Kremlin, et ne pourront sans doute pas être acceptées par Kiev et ses alliés européens. Trump, pour sa part, estime de toute évidence que toute paix, même injuste, temporaire et susceptible de déboucher sur une nouvelle attaque d’envergure menée par la Russie, serait souhaitable, car cela lui permettrait de se présenter comme l’artisan d’une solution.


L’étrange sommet entre Donald Trump et Vladimir Poutine qui vient de se tenir en Alaska devrait finir de convaincre ceux qui en doutaient encore que, aux yeux de la Maison Blanche, il importe plus d’entretenir des relations amicales avec le dictateur russe que d’instaurer une paix durable en Ukraine.

Le programme initial ayant été raccourci, les deux dirigeants ont pu conclure la réunion plus tôt que prévu. Ils se sont ensuite mutuellement félicités lors d’une conférence de presse à l’issue de laquelle ils n’ont pas répondu aux questions des journalistes présents.

Il ressort de cette séquence que Trump ne voit aucun inconvénient à offrir des victoires symboliques à Poutine et qu’il refuse d’exercer à son encontre la moindre pression réelle.

Les victoires symboliques de Poutine

Le choix du lieu où s’est déroulée la rencontre n’avait rien d’anodin. En effet, la Russie affirme régulièrement que l’Alaska, qu’elle a vendu aux États-Unis dans les années 1860, lui appartient toujours de droit. Avant la réunion, les porte-parole du Kremlin ont pris plaisir à affirmer que Poutine et son équipe avaient emprunté un « vol intérieur » pour se rendre à Anchorage – des propos rappelant des panneaux d’affichage installés en Russie en 2022 et proclamant « L’Alaska est à nous ! ». Des prétentions russes sur l’Alaska que Trump a alimentées par une nouvelle gaffe avant la réunion lorsqu’il a déclaré que si les discussions ne prenaient pas le tour qu’il souhaitait… il « repartirait aux États-Unis ».

Lorsque l’avion de Poutine a atterri, des militaires américains se sont mis à genoux pour dérouler un tapis rouge sur lequel le président russe allait faire ses premiers pas sur le sol des États-Unis, comme un leader respecté plutôt que comme un criminel de guerre inculpé par la Cour pénale internationale. Poutine a ensuite été invité à rejoindre le bâtiment de la réunion non pas dans son propre véhicule, mais dans la limousine de Trump, en compagnie de celui-ci.

Au-delà de ces images marquantes, Trump a offert à Poutine plusieurs autres victoires qui ne peuvent que renforcer l’image du président russe dans son pays et confirmer au monde entier que les relations entre les États-Unis et la Russie se sont normalisées.

L’organisation d’un sommet est généralement perçue comme une faveur de la part du pays qui l’accueille, comme le signe d’une volonté sincère d’améliorer les relations bilatérales. En l’invitant en Alaska, Trump a traité Poutine sur un pied d’égalité. Il n’a exprimé aucune critique à propos des violations flagrantes des droits de l’homme commises par la Russie, de ses tentatives de plus en plus violentes visant à fragmenter l’alliance transatlantique ou de sa volonté de multiplier les conquêtes territoriales.

Au lieu de cela, Trump a, une fois de plus, cherché à présenter Poutine et lui-même comme des victimes. Il a notamment déploré que l’un comme l’autre aient été contraints, depuis des années, de supporter « le mensonge “Russie, Russie, Russie” » selon lequel Moscou aurait interféré dans l’élection présidentielle américaine de 2016.

Il a ensuite offert à Poutine une victoire supplémentaire, en rejetant la responsabilité d’accepter les conditions russes pour mettre fin à la guerre en Ukraine sur le gouvernement ukrainien et sur l’Europe, affirmant que « au bout du compte, c’est à eux de décider ».

Poutine a obtenu tout ce qu’il pouvait espérer. Outre le gain symbolique qu’ont constitué ses séances photo avec le président américain, il a pu, sans être contredit, déclarer que la guerre en Ukraine ne pourrait se terminer qu’à la condition que soient réglées ses « causes profondes » – ce qui, dans sa bouche, signifie que c’est l’OTAN qui est responsable du conflit, et non pas l’agression impérialiste non provoquée qu’il mène depuis des années à l’encontre du pays voisin.

Il a également évité d’aborder le sujet d’éventuelles sanctions américaines supplémentaires, menace que Trump avait vaguement brandie dans les semaines précédentes avant de déclarer, comme il l’a si souvent fait par le passé qu’il avait besoin de « deux semaines » pour y réfléchir davantage.

Puis, ayant empoché ces victoires symboliques et diplomatiques, Poutine a rapidement repris son avion pour rentrer chez lui, emportant probablement la statue de bureau de l’aigle à tête blanche, emblème des États-Unis, que Trump lui avait offerte.

Quelles conséquences pour l’avenir ?

Après l’appel téléphonique passé par Trump aux dirigeants européens à l’issue du sommet pour les informer de la teneur de ses échanges avec Poutine, des détails concernant le plan de paix abordé par les deux hommes ont commencé à fuiter.

Poutine serait prêt à fixer les lignes de front actuelles dans les régions de Kherson et de Zaporijia en Ukraine, à condition que Kiev accepte de céder l’ensemble des régions de Lougansk et de Donetsk, y compris les territoires que la Russie ne contrôle pas actuellement. Il n’y aurait pas de cessez-le-feu immédiat (ce que souhaitent l’Europe et l’Ukraine), mais une évolution vers une paix permanente, ce qui correspond aux intérêts du Kremlin.



Qu’on ne s’y trompe pas : il s’agit d’un piège à peine déguisé. Poutine et Trump soumettent à l’Ukraine et à l’Europe une proposition inacceptable, et une fois que celles-ci s’y seront opposées, ils les accuseront de refus d’aller de l’avant et de bellicisme.

D’une part, l’Ukraine contrôle toujours une partie importante de la région de Donetsk. Abandonner les régions de Donetsk et de Lougansk reviendrait non seulement à céder à Moscou les réserves de charbon et de minerais qu’elles recèlent, mais aussi à renoncer à des positions défensives vitales que les forces russes n’ont pas réussi à prendre depuis des années.



Cela permettrait également à la Russie de lancer plus aisément d’éventuelles incursions futures, ouvrant la voie vers Dnipro à l’ouest et vers Kharkiv au nord.

L’apparent soutien de Trump aux exigences de la Russie qui demande à l’Ukraine de céder des territoires en échange de la paix – ce que les membres européens de l’OTAN rejettent – signifie que Poutine a réussi à affaiblir encore davantage le partenariat transatlantique.

De plus, rien ou presque n’a été dit sur qui garantirait la paix, ni sur la façon dont l’Ukraine pourrait être assurée que Poutine ne profiterait pas de ce répit pour se réarmer et tenter à nouveau d’envahir la totalité du pays.

Étant donné que le Kremlin s’oppose systématiquement à l’adhésion de l’Ukraine à l’OTAN, accepterait-il vraiment que des forces européennes ou américaines assurent la sécurité de la nouvelle ligne de contrôle ? Quant à l’Ukraine, serait-elle autorisée à se réarmer, et dans quelle mesure ?

Et même si dans une future ère post-Trump les États-Unis adoptaient une ligne plus ferme, Poutine aura tout de même réussi à s’emparer de territoires qu’il sera impossible de lui reprendre. Voilà qui renforce l’idée selon laquelle conquérir des parties d’un pays voisin est une stratégie payante.

Il existe toutefois un élément à première vue plus encourageant pour l’Ukraine : les États-Unis seraient prêts à lui offrir des garanties de sécurité « hors OTAN ».

Mais là aussi, la plus grande prudence est de mise. L’administration Trump a déjà exprimé publiquement son rapport pour le moins ambigu quant aux engagements des États-Unis à défendre l’Europe en vertu de l’article 5 de l’OTAN, ce qui a remis en question la crédibilité de Washington en tant qu’allié. Les États-Unis se battraient-ils vraiment pour l’Ukraine en cas de future invasion russe ?

Il faut reconnaître que les dirigeants européens ont réagi avec fermeté aux transactions de Trump avec Poutine.

Tout en saluant la tentative de résolution du conflit, ils ont déclaré au président ukrainien Volodymyr Zelensky qu’ils continueraient à le soutenir si l’accord était inacceptable. Zelensky, qui doit rencontrer Trump à Washington lundi, a déjà rejeté l’idée de céder la région du Donbass (Donetsk et Lougansk) à la Russie.

Mais l’Europe se retrouve désormais face à une réalité qu’elle ne peut nier : non seulement elle doit faire plus, mais elle doit également assurer un leadership durable sur les questions sécuritaires, plutôt que se contenter de réagir à des crises qui ne cessent de se répéter.

Les motivations profondes de Trump

En fin de compte, le sommet de l’Alaska montre que la paix en Ukraine n’est qu’une partie du tableau d’ensemble aux yeux de l’administration Trump, qui s’efforce d’établir des relations plus cordiales avec Moscou, si ce n’est de s’aligner complètement sur le Kremlin.

Trump se soucie peu de la manière dont la paix sera obtenue en Ukraine, ou du temps que cette paix durera. Ce qui lui importe, c’est qu’il en retire le mérite, voire obtienne grâce à cette paix précaire le prix Nobel de la paix auquel il aspire ouvertement.

Et bien que la vision de Trump consistant à éloigner la Russie de la Chine relève de la fantaisie, il a néanmoins décidé de s’y accrocher. Cela oblige les partenaires européens des États-Unis à réagir en conséquence.

Il existe déjà de nombreux signes indiquant que, ayant échoué à gagner la guerre commerciale avec la Chine, l’administration Trump choisit désormais de s’en prendre aux alliés des États-Unis. On le constate à travers son obsession pour les droits de douane ; son désir étrange de punir l’Inde et le Japon ; et, plus globalement, la destruction du soft power américain.

Plus inquiétant encore : les initiatives diplomatiques de Trump continuent de le faire passer pour un jouet entre les mains des dirigeants autoritaires.

Cela enseigne une leçon plus large aux amis et partenaires des États-Unis : leur sécurité future dépend peut-être des bons offices américains, mais il serait naïf de croire que cela garantit automatiquement que Washington leur donnera la priorité s’ils se trouvent menacés par des puissances ennemies…

The Conversation

Matthew Sussex a reçu des financements de l'Australian Research Council, de l'Atlantic Council, de la Fulbright Foundation, de la Carnegie Foundation, du Lowy Institute et de divers ministères et agences gouvernementaux australiens.

PDF

17.08.2025 à 11:58

Conflit Cambodge-Thaïlande : cinq jours de combats, des siècles de tensions

David Camroux, Senior Research Associate (CERI) Sciences Po; Professorial Fellow, (USSH) Vietnam National University, Sciences Po

Les cinq&nbsp;jours de combats entre la Thaïlande et le Cambodge ravivent des questions intérieures et extérieures restées en suspens dans les deux pays.
Texte intégral (2286 mots)

Cinq jours d’escarmouches entre le Cambodge et la Thaïlande en juillet 2025 ont fait près de 40 morts et déplacé environ 300 000 personnes, révélant l’ampleur des tensions frontalières et nationalistes entre les deux pays. Derrière ce conflit, vieux de plusieurs siècles, se mêlent calculs politiques internes, rivalités irrédentistes et enjeux économiques cruciaux, tandis que l’Asean tente de contenir la crise et d’éviter un nouveau bras de fer régional.


Le 7 août 2025, le Cambodge et la Thaïlande se sont mis d’accord pour renforcer le cessez-le-feu conclu le 28 juillet à Kuala Lumpur entre le premier ministre cambodgien Hun Manet et le premier ministre thaïlandais par intérim Phumtham Wechayachai. Dans l’attente du déploiement officiel de la mission d’observation de l’Asean, des attachés de défense d’autres États membres seront envoyés le long de la frontière disputée.

Malgré des incidents impliquant des mines antipersonnels, qui a blessé quatre soldats thaïlandais, la trêve a mis fin à cinq jours d’escarmouches ayant fait environ 35 morts et déplacé près de 300 000 personnes. L’implication de l’Asean rappelle son rôle dans la résolution d’affrontements similaires en 2011.

Le 22 août, Thaksin Shinawatra, de retour après quinze ans d’exil, connaîtra le verdict d’une affaire de lèse-majesté, suivi le 9 septembre par la décision de la Cour suprême sur sa détention en hôpital. Ces affaires judiciaires, liées à Hun Sen et aux anciennes alliances, se mêlent aux tensions frontalières, reflétant d’anciennes rivalités nationalistes et irrédentistes.

Dynamiques irrédentistes croisées

Le drapeau cambodgien, représentant Angkor Wat, évoque un âge d’or impérial. Adopté lors du retour de la monarchie en 1993, il reprend presque à l’identique celui de 1863, lorsque le roi Norodom demanda la protection française pour se prémunir des ambitions siamoises. Unique au monde, il arbore un monument existant comme élément central, symbole des gloires de l’Empire khmer (IXe–XIIIe siècles).

Le Trairong thaïlandais, quant à lui, date de 1917, adopté par décret royal et porté fièrement par le corps expéditionnaire siamois lors du défilé de la victoire à Paris en 1919, puis à Genève lorsque le Siam rejoignit la Société des Nations. Il célèbre la modernité et le statut unique de la Thaïlande, seul État d’Asie du Sud-Est à n’avoir jamais été colonisé.

Au fil de mes voyages et de mes échanges dans ces deux pays, j’ai eu l’impression, de manière anecdotique, que ces symboles reflètent des visions du monde opposées : les Cambodgiens, attachés à leur grandeur passée, considèrent les Thaïlandais comme des parvenus, tandis que ces derniers perçoivent leurs voisins comme soumis à l’influence étrangère et en retard sur le plan de la modernité.

Les différends frontaliers remontent aux traités franco-siamois de 1904 et 1907. Sur les 817 km de frontière terrestre, 195 km restent non délimités. Des désaccords sur les échelles cartographiques – projection Mercator pour le Cambodge, sinusoïdale pour la Thaïlande – bloquent toute avancée.

Les tensions de 2025 trouvent leur origine dans divers incidents, comme celui de février, lorsque des soldats cambodgiens ont entonné leur hymne national au temple Ta Muen Thom (situé à la frontière entre les deux pays), provoquant des protestations thaïlandaises.

Les différends maritimes jouent aussi un rôle, notamment autour de l’île de Koh Kood, cédée au Siam en 1907 mais toujours revendiquée par des nationalistes cambodgiens, y compris dans la diaspora. Les négociations sur la zone de revendications superposées dans le golfe de Thaïlande (27 000 km2 riches en gaz) ont par le passé déclenché une réaction hostile des conservateurs thaïlandais, contribuant à la chute de Thaksin en 2006. Début 2025, sa fille, la Première ministre Paetongtarn, a tenté de relancer les discussions avec Hun Manet, ravivant des tensions similaires.

Cinq jours de démonstrations de force

Les combats de juillet ont impliqué l’artillerie cambodgienne et des frappes aériennes et de drones thaïlandaises, avec peu d’engagements au sol. Les forces cambodgiennes, moins précises, semblaient chercher à forcer des négociations, tandis que les Thaïlandais visaient à « les remettre à leur place ». Des images satellites montrent que le Cambodge se préparait depuis février. L’étincelle du conflit a été l’explosion d’une mine à la mi-juillet, qui a blessé huit soldats thaïlandais. Les affrontements ont duré cinq jours, entraînant moins de 40 morts et le déplacement temporaire d’environ 300 000 personnes le long de la frontière.

Sur le plan diplomatique, Hun Manet a sollicité l’arbitrage de la CIJ sur les sites disputés, bien que la Thaïlande refuse sa compétence obligatoire. Plus provocateur encore, Hun Sen a divulgué un appel téléphonique de Paetongtarn au ton jugé déférent, entraînant sa suspension politique. La police thaïlandaise a ensuite ciblé des réseaux d’arnaques liés au Cambodge, menaçant des flux financiers illicites cruciaux pour l’élite au pouvoir à Phnom Penh. Ces opérations ont cessé après le cessez-le-feu, le Cambodge se contentant de quelques actions internes limitées.


À lire aussi : La Thaïlande en crise politique et diplomatique


Manœuvres politiques convergentes

Le régime autoritaire cambodgien, dépendant des revenus issus de la cybercriminalité, a utilisé le conflit pour détourner l’attention de ses activités illicites, réprimer l’opposition de la diaspora via des modifications de la loi sur la nationalité, et renforcer ses références nationalistes.

Selon certaines estimations, la cybercriminalité représenterait entre 12,5 et 19 milliards de dollars par an, soit jusqu’à 60 % du PIB, surpassant largement le secteur formel le plus important du pays, celui du textile. Jacob Sims décrit le parti au pouvoir comme une « entreprise criminelle sophistiquée drapée dans un drapeau », où « la gouvernance passe par la criminalité »**

En Thaïlande, l’establishment conservateur-militaire, jamais vraiment réconcilié avec l’accession de Paetongtarn au pouvoir, a exploité la crise pour l’affaiblir. La configuration politique thaïlandaise combine un Parlement partiel élu, un Sénat puissant non élu en partie désigné par l’armée, une monarchie influente, un pouvoir judiciaire complaisant et un establishment politico-économique conservateur. L’armée thaïlandaise, qui a réalisé douze coups d’État depuis la fin de la monarchie absolue en 1932, conserve des instruments historiques de pouvoir, notamment les régiments de la Garde royale récemment réorganisés sous le contrôle personnel du roi. Cette structure a limité les risques de coups, mais permet à l’armée et aux élites conservatrices de peser fortement sur la scène politique. L’exploitation de la crise frontalière par ces acteurs pourrait conduire à l’éviction du clan Shinawatra, même si les revendications pour une réforme démocratique restent importantes.

Et maintenant ?

Il existe des raisons objectives pour que les deux pays cherchent une solution durable. Selon Nikkei Asia (6 août 2025), le conflit a provoqué en Thaïlande des dommages directs d’au moins 10 milliards de baht, soit environ 300 millions de dollars. Si les points de passage frontaliers restent fermés, le commerce annuel pourrait chuter de 1,85 milliard de dollars. Entre 1 et 1,2 million de travailleurs cambodgiens se trouvent en Thaïlande, dont 400 000 sont déjà rentrés au Cambodge, ce qui risque de provoquer des pénuries de main-d’œuvre dans des secteurs exigeants tels que la construction et l’agriculture. Du côté cambodgien, les transferts d’argent en provenance de Thaïlande, estimés entre 1,4 et 1,9 milliard de dollars, constituent une ressource essentielle pour l’économie formelle. Moins médiatisée, l’intervention discrète du gouvernement japonais visait à mettre fin au conflit : pour Tokyo, comme pour Pékin, sa poursuite aurait représenté une menace pour les chaînes de production régionales fortement intégrées.

Les récentes taxes américaines de 19 % risquent de fragiliser encore davantage ce secteur, poussant au chômage et au retour à l’économie informelle et illicite. Les touristes thaïlandais, qui représentent environ un tiers des visiteurs étrangers au Cambodge, ne devraient pas revenir de sitôt.

Politiquement, chaque camp a atteint certains de ses objectifs : l’armée thaïlandaise a renforcé son rôle incontournable, tandis que le leadership cambodgien a mobilisé le soutien nationaliste. Cependant, les dynamiques sous-jacentes, notamment en Thaïlande, restent intactes : le mouvement générationnel incarné par le parti Move Forward (rebaptisé People’s Party) pourrait raviver les demandes pour une monarchie constitutionnelle plus classique, un pouvoir judiciaire indépendant et un parlement représentatif. Au Cambodge, l’avenir après Hun Sen demeure incertain : Hun Manet pourrait se heurter à des rivalités au sein de son propre appareil, et toute pression internationale, y compris chinoise, pour fermer les centres de cybercriminalité risquerait d’affaiblir l’élite dirigeante, offrant à l’opposition en exil une opportunité de mobiliser le nationalisme.


À lire aussi : Au Cambodge, une base militaire comme outil d’influence pour Pékin


Et la communauté internationale ?

La Commission mixte de délimitation des frontières, créée en 1997, a peu progressé. Après sa cinquième réunion en 2012, il a fallu treize ans pour convoquer une sixième réunion en 2024, au cours de laquelle les responsables ont indiqué que la démarcation n’était achevée que dans 13 zones et que 11 autres faisaient encore l’objet de désaccords.

En théorie, les différends frontaliers relèvent d’une arbitrage international neutre. La partie la plus faible, le Cambodge, a déjà sollicité par le passé l’arbitrage de la Cour internationale de justice, qui a statué en 1962 et 2013 que le temple de Preah Vihear appartenait au Cambodge. L’appel de Hun Manet à un nouvel arbitrage de la CIJ avait peu de chances de succès, mais il a attiré l’attention des États-Unis. Quelques jours avant une hausse tarifaire annoncée de 36 %, Donald Trump a appelé les deux dirigeants, s’attribuant le mérite du cessez-le-feu et réduisant la hausse à 19 %.

La médiation de l’Asean offre une lueur d’espoir. Les deux parties sont sous pression pour montrer qu’elles sont des membres responsables de la « famille Asean » et respectent la « voie Asean » fondée sur la souveraineté et le consensus. L’Asean, éventuellement avec l’appui technique d’autres partenaires régionaux, pourrait jouer le rôle d’arbitre indépendant, jusque-là absent. Toutefois, sans engagement durable, les différends irrédentistes resteront une menace récurrente pour la stabilité régionale, et leur résolution dépendra en grande partie de la capacité des dirigeants à dépasser les enjeux politiques immédiats et les rivalités historiques.

The Conversation

David Camroux ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

16.08.2025 à 18:23

La technologie, carburant du surtourisme… et possible frein ?

Adrian Palmer, Professor of Marketing, University of Reading

TikTok, Airbnb… L’influence néfaste d’Internet amplifie les effets du tourisme. Mais l’IA pourrait également faire partie de la solution.
Texte intégral (1456 mots)

C’est un facteur qu’on oublie souvent pour expliquer le développement du tourisme de masse. Plutôt que de pointer des groupes sociaux, il peut être intéressant d’analyser l’influence du progrès technologique sur le développement du voyage pour tous – ou pour presque tous. Quel impact la technologie pourrait-elle avoir dans les années à venir ?


Le touriste n’est plus toujours le bienvenu parmi les habitants des lieux que beaucoup d’entre nous rêvent de visiter. Si un nombre important de visiteur peut apporter des avantages économiques, il peut aussi avoir un coût pour les locaux et causer des dommages environnementaux.

Airbnb est visé du doigt par certains. D’autres accusent les opérateurs de navires de croisière, les baby-boomers désormais à la retraite ou les classes moyennes en pleine croissance à travers le monde, avec leurs revenus disponibles et leur appétit insatiable pour les selfies. Reste un élément souvent négligé : le rôle de la technologie.

Déjà à Bournemouth ou Blackpool

En effet, historiquement, les nouveaux modes de transport ont été un moteur important de l’industrie du tourisme. Au Royaume-Uni, par exemple, l’expansion des chemins de fer au XIXe siècle a produit le tourisme de masse dans les villes côtières, notamment dans les villes de Bournemouth (comté de Dorset, côte sud de l’Angleterre) et de Blackpool (Lancashire, nord-ouest de l'Angleterre). Dans les années 1960, les voyages aériens moins chers ont fait de même pour les destinations à l’étranger. Des endroits comme Majorque et la Costa del Sol en Espagne sont alors devenus accessibles à des masses de nouveaux visiteurs.


À lire aussi : Un tourisme durable est-il possible ?


Mais les nouveaux modes de transport ne sont plus le principal facteur pour expliquer la croissance actuelle et future du tourisme de masse. À court terme, de nouvelles façons de voyager par terre, air ou mer qui alimenteraient la croissance comme le firent le train ou l’avion, ne sont pas anticipées.

Un impact plus subtil

Aujourd’hui, les effets de la technologie sont plus subtils : le monde en ligne transforme la façon dont nous voyageons dans le monde réel. Ainsi, Internet a rendu plus floue la distinction entre résidents et touristes. L'essor du télétravail, rendu possible par Internet, permet à certaines personnes de vivre là où elles aiment passer leur temps libre, plutôt que de privilégier la proximité de leur lieu de travail ou des transports en commun.

À cette catégorie s’ajoutent les « nomades numériques » qui poussent plus loin le concept de télétravail : dès lors qu’ils ont une connexion Internet décente, ils peuvent vivre (et travailler) n’importe où dans le monde.

Quand TikTok nuit à la tranquillité d’un lieu

L’essor des réseaux sociaux a également eu un impact considérable sur le tourisme, en diffusant des récits et des images sur des attractions jusqu’alors peu connues. Quelques vidéos virales peuvent rapidement transformer des coins perdus en destinations touristiques très prisées. Il suffit de demander aux habitants de la station de ski italienne de Roccaraso, autrefois tranquille. Depuis janvier 2025, ils sont submergés par un afflux de visiteurs, à la suite de vidéos TikTok de l’influenceuse italienne Rita De Crescenzo.

Le monde en ligne a également comblé un fossé qui existait auparavant entre les destinations touristiques et leurs clients éloignés. Avant l’avènement d’Internet, l’industrie mondiale du tourisme dépendait des agences de voyage et de la presse écrite. Aujourd’hui, tous les hôtels et complexes touristiques sont accessibles en quelques clics, avec des plateformes comme Airbnb (qui a accueilli 5 millions de locations en 2024) transformant en profondeur le secteur.

Des vacances virtuelles ?

Les effets de l’intelligence artificielle (IA) sur le tourisme sont moins certains pour le moment. Mais elle pourrait peut-être faire partie de la solution. L’IA pourrait être utilisée pour aider à créer des expériences touristiques personnalisées dans des endroits qui ont vraiment besoin de touristes, réduisant ainsi les dommages causés aux sites surpeuplés ou aux écosystèmes fragiles.

L’industrie du voyage pourrait également l’utiliser pour faire des prédictions plus précises sur les habitudes de voyage, aidant ainsi des villes comme Barcelone et Venise à gérer leur nombre de visiteurs.

La réalité virtuelle améliorée par l’IA a également le potentiel de permettre aux gens de vivre des expériences de destinations touristiques à distance. Des études suggérent que les « vacances virtuelles » pourraient bouleverser le secteur du tourisme.

France 24, 2025.

Après tout, nous sommes nombreux à avoir troqué d'autres expériences réelles, comme le shopping ou les réunions de travail, contre des activités que nous pratiquons désormais sur un écran. Il y a même des preuves d’une préférence émergente pour la pratique de sports en ligne par rapport aux versions réelles.

Quelle attractivité pour le tourisme virtuel ?

Mais le tourisme virtuel pourrait-il devenir assez attrayant pour réduire sensiblement le tourisme réel ? Les touristes du futur se contenteront-ils vraiment d’une version virtuelle d’un chef d’œuvre ou d’un lieu exceptionnel, au lieu de faire la queue pendant des heures pour une expérience au sein d’une foule ?

La question a été posée dans des termes assez similaires lorsque la télévision couleur s’est développée dans les années 1960. Par exemple, certains estimaient que la représentation vivante de la faune sauvage dans les réserves africaines réduirait la nécessité pour les touristes de s’y rendre. Qui se donnerait la peine de dépenser de l’argent pour aller au Kenya ou au Botswana, alors qu'il est possible de voir ces animaux de près, en restant confortablement assis dans son canapé ?

Le résultat a toutefois été exactement le contraire. Il est prouvé que les programmes consacrés à la faune sauvage ont en fait stimulé la demande pour voir les animaux « en vrai ». De même, les films et les séries télévisions populaires tournés dans des lieux magnifiques donnent envie aux gens de les visiter. L’anticipation et l’attente de la « vraie » visite ajoutent même de la valeur à l’expérience touristique finale.

Ainsi, bien que nous puissions être à peu près sûrs que l’IA affectera le tourisme – comme elle le fera pour toutes les industries –, nous ne savons pas encore si son impact global réduira la pression sur les lieux les plus populaires du monde ou stimulera davantage la demande. Et ce n’est peut-être pas la technologie qui aura le dernier mot. Les préoccupations concernant le changement climatique et les pressions économiques pourraient influencer les habitudes de voyage mondiales avant tout. Mais une chose est sûre : la fin du surtourisme n’est pas pour demain.

The Conversation

Adrian Palmer a reçu un financement de la British Academy pour une étude sur le rôle des médias sociaux dans les visites touristiques. Il est membre non rémunéré du Collège d'experts du ministère britannique de la Culture, des Médias et des Sports, un organisme de recherche consultatif non politique.

PDF

15.08.2025 à 16:21

Nouvelle-Calédonie : les indépendantistes du FLNKS rejettent l’accord de Bougival. Et maintenant ?

Pierre-Christophe Pantz, Enseignant-chercheur à l'Université de la Nouvelle-Calédonie (UNC), Université de Nouvelle Calédonie

Le FLNKS a rejeté l’accord de Bougival visant à relancer le dialogue et accroître l’autonomie de la Nouvelle-Calédonie, divisant le camp indépendantiste.
Texte intégral (1914 mots)

Le FLNKS, le principal regroupement de mouvements indépendantistes, a officiellement désavoué le 13 août dernier l’accord de Bougival, qui devait renouer le dialogue avec l’État et permettre à la Nouvelle-Calédonie d’accéder à davantage d’autonomie. Qu’adviendra-t-il de ce texte, toujours soutenu par une partie du camp indépendantiste ?


Quelques semaines à peine après la ratification inespérée d’un accord politique entre l’État et dix-huit représentants politiques néocalédoniens – indépendantistes et non-indépendantistes – les voix dissonantes s’amplifient et contestent parfois avec virulence un compromis politique qu’elles considèrent comme « mort-né ».

Dans un premier temps, l’Union Calédonienne (UC), l’un des principaux partis indépendantistes de l’archipel, a vivement réagi en reniant la signature de ses trois représentants. Logiquement, le Front de libération nationale kanak et socialiste (FLNKS) – coalition de 7 groupes de pression dont l’UC est le principal membre – a suivi, en actant le 13 août son rejet de ce projet d’accord en raison de son « incompatibilité avec les fondements et acquis de sa lutte ». Il réclame par ailleurs des élections provinciales en novembre 2025. Face à cette levée de boucliers, l’accord de Bougival, qualifié d’« historique » par le ministre des Outre-mer Manuel Valls, a-t-il encore des chances d’aboutir ?


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Le rejet de l’UC et du FLNKS condamne-t-il l’accord ?

Dans ce contexte tendu, certains signataires – notamment ceux du FLNKS – se retrouvent désormais contestés par leur propre parti politique et leurs militants. Quelques jours après les signatures et la publication in extenso de l’accord, l’Union Calédonienne et le FLNKS avaient rapidement précisé que la délégation de signataires ne disposait pas du mandat politique pour signer un tel document au nom de leur parti. Sous la pression des militants, ce sont essentiellement de nouveaux responsables politiques qui ont contribué à l’ampleur de la contestation contre l’accord, puis à sa remise en cause. Rappelons tout de même que les trois signataires de l’UC occupent des rôles fondamentaux dans la gouvernance du parti, ce qui les rendait a priori légitimes à le représenter.

Après le rejet formel de l’Union Calédonienne (UC), principale composante du Front, l’organisation a précisé lors de son comité directeur que « le mandat des signataires et des équipes tombe de fait » : une nouvelle équipe devrait donc prendre le relais. Dans la continuité, le congrès extraordinaire du FLNKS du 9 août dernier a entériné cette position. L’organisation annonce désormais une mobilisation active contre le projet : « Nous utiliserons toutes nos forces et toutes les formes de lutte à notre disposition pour que ce texte n’aille pas au vote », affirme ainsi le président du FLNKS, Christian Tein.

Si le FLNKS considère désormais comme acté la mort de l’Accord de Bougival, il se positionne néanmoins pour la poursuite du dialogue, à condition toutefois de n’aborder que « les modalités d’accession à la pleine souveraineté » avec « le colonisateur ».

Si un consensus global autour de l’accord de Bougival semble désormais s’éloigner, qu’en est-il de la viabilité de cet accord, au regard notamment des 5 autres délégations de signataires – l’Union Nationale pour l’Indépendance (UNI), l’Éveil Océanien (EO) et les partis non indépendantistes – qui continuent de défendre et de soutenir ce compromis politique ? Au regard du paysage politique actuel, dont le Congrès de la Nouvelle-Calédonie est l’émanation représentative, et en considérant l’hypothèse d’une unanimité au sein des groupes, ceux en faveur de l’accord de Bougival représenteraient 40 membres sur 54 (12 membres de l’UNI, 3 pour l’EO et 25 pour les non-indépendantistes), contre 13 élus du groupe UC-FLNKS et nationalistes et 1 non-inscrit.

Si ce calcul théorique représente une majorité significative au Congrès de la Nouvelle-Calédonie, il ne tient pas compte d’une crise de légitimité qui frappe les élus territoriaux, dont le mandat de cinq ans a expiré en mai 2024. Il avait à l’époque été prolongé jusqu’en novembre 2025, en raison d’une situation politique particulièrement tendue résultant des émeutes en cours à l’époque.

Un rejet qui clarifie la fragmentation dans le camp indépendantiste

En parallèle du rejet de l’UC et du FLNKS, le soutien renouvelé de l’UNI (rassemblant les partis indépendantistes Palika et UPM – Union progressiste en Mélanésie) à l’accord de Bougival confirme la scission au sein du camp indépendantiste. En effet, durant les émeutes de 2024, l’unité du FLNKS avait déjà été fragilisée avec la mise en retrait des deux partis de l’UNI (Palika et UPM), qui faisaient auparavant partie du Front.

L’une des conséquences de cette fragilisation du Front indépendantiste a été une recomposition institutionnelle : alors que le FLNKS détenait auparavant les présidences des deux principales institutions du Territoire (le Gouvernement et le Congrès), la combinaison des divisions en son sein et de la prise de distance de l’Éveil Océanien, un parti non aligné détenant une position de pivot, a entraîné un recul politique et institutionnel des indépendantistes. Ils ont ainsi perdu successivement la présidence du congrès en août 2024 et celle du gouvernement en décembre 2024.

Au sein du camp indépendantiste, cette recomposition du paysage politique s’apparente à une guerre d’influence entre UC et UNI, notamment sur la question de la stratégie et de la méthode à adopter en vue d’obtenir l’indépendance. L’UNI privilégie ainsi la voie du compromis politique pour parvenir à une souveraineté partagée à moyen terme. L’UC actuelle, quant à elle, se montre plus intransigeante et défend un rapport de force visant une pleine souveraineté immédiate.

Le FLNKS dans sa configuration actuelle se retrouve désormais sous domination de l’UC, marquée depuis août 2024 par la présidence de Christian Tein. Ce dernier s’est d’abord démarqué comme leader de la Cellule de coordination des actions de terrain (CCAT), mise en place par l’UC le 18 novembre 2023 pour lutter contre le projet de dégel du corps électoral. Le FLNKS se revendiquant comme seul mouvement légitime de libération du peuple kanak, son retrait vaudrait donc retrait de ce peuple de l’accord politique, le rendant mécaniquement caduc. L’UNI de son côté assume désormais son soutien au « compromis politique » de Bougival, prévoyant un statut que le parti estime évolutif, et qui permettrait in fine à la Nouvelle-Calédonie d’accéder à une « souveraineté partagée avec la France ».

Cette division risque d’être accélérée par le rejet en bloc de l’accord de Bougival par le FLNKS, qui marginalise en interne une ligne plus consensuelle, incarnée par les trois signataires qui sont désormais désavoués par leur propre camp. Des sanctions disciplinaires sont désormais réclamées par une partie des militants, contribuant à rendre intenable une ligne favorable au compromis politique.

L’État parviendra-t-il à poursuivre le processus tout en maintenant le dialogue ?

Face au rejet catégorique exprimé par une partie du camp indépendantiste, la réaction de l’État, notamment par la voix du ministre des Outre-mer Manuel Valls, n’a pas tardée. Il a insisté sur le fait que l’accord représente un « compromis » et que son rejet risquerait de ramener le territoire au « chaos ». Il précise également qu’un « non-accord » aurait des conséquences sociales et économiques délétères, ce qui a pu être perçu par certains comme un chantage néocolonial.

Le ministre des Outre-mer a également réaffirmé sa disponibilité permanente au dialogue, annonçant se rendre en août une quatrième fois sur le territoire calédonien pour la mise en place d’un comité de rédaction chargé d’affiner les textes, de lever les ambiguïtés et de clarifier l’esprit de l’accord, sans toutefois en altérer l’équilibre. Toutes les forces politiques, y compris l’UC et le FLNKS, sont conviées à ce travail. Mais il y a peu de chances que ces deux organisations, en boycott actif du processus, y participent.

Malgré cette main tendue, Manuel Valls reste déterminé à tenir le calendrier prévisionnel de l’accord : report des élections provinciales à mai-juin 2026, adoption des réformes constitutionnelles et organiques à l’automne 2025, et surtout consultation populaire visant à adopter définitivement l’accord en février 2026.

Interrogé par la chaîne publique Nouvelle-Calédonie la Première peu de temps après le rejet de l’accord par l’UC, Manuel Valls continuait à défendre l’application de ce « compromis politique ».

Deux fragilités majeures pèsent sur ce processus : au plan national, l’instabilité politique et l’incertitude pour le gouvernement d’obtenir la majorité des 3/5e au Congrès, nécessaire à l’adoption finale de l’accord qui implique une révision constitutionnelle ; au plan local, la contestation de la légitimité des signataires, les divisions internes du camp indépendantiste et la menace d’une mobilisation active de l’UC-FLNKS qui compte fermement bloquer la consultation populaire.

Dans un contexte post-émeutes et marqué par de profondes fractures politiques, cette consultation populaire en forme de nouveau référendum interrogera la capacité des signataires à rallier une large majorité de Calédoniens, et conditionnera la viabilité durable de l’accord de Bougival.

The Conversation

Pierre-Christophe Pantz ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

15.08.2025 à 16:00

George P. Marsh, pionnier de la protection de l’environnement au XIXᵉ siècle

Hans Schlierer, Professeur et coordinateur RSE, EM Lyon Business School

Aujourd’hui, redécouvrons la figure de George P.&nbsp;Marsh, diplomate et savant américain du XIXᵉ&nbsp;siècle, précurseur du concept de durabilité.
Texte intégral (2146 mots)

Cet été, « The Conversation » vous emmène à la rencontre de figures de pionnières, mais souvent méconnues, en matière d’écologie. Aujourd’hui, redécouvrons la figure de l’Américain George Perkins Marsh, diplomate, savant du XIXe siècle et précurseur du concept de durabilité.


Pionnier de l’écologie oublié des universitaires comme du grand public, George Perkins Marsh (1801–1882) est un diplomate et savant américain du XIXe siècle, mais aussi l’un des premiers environnementalistes, qui a marqué le début de la réflexion moderne sur l’impact de l’industrialisation.

Bien avant que le terme de durabilité ne s’impose, George P. Marsh a reconnu les effets destructeurs des actions humaines sur la Terre. Il est un des premiers à avoir identifié les menaces que le développement du capitalisme faisait peser sur les dynamiques écologiques. Son livre Man and Nature, publié en 1864, a été l’un des premiers à discuter de la gestion des ressources naturelles et de la conservation.

Initialement philologue, c’est-à-dire spécialiste des langues, Marsh parlait couramment une vingtaine de langues, dont le suédois, l’allemand ou encore l’italien. Ce polymathe a été membre de l’Académie américaine des arts et des sciences, de la Royal Society, de l’American Antiquarian Society et de l’Académie américaine des sciences. Il a également enseigné à l’Université Columbia (New York) et écrit de nombreux articles pour des encyclopédies et des revues scientifiques.

Des forêts du Vermont à la Méditerranée

Né en 1801 dans le Vermont rural, le jeune George P. Marsh se révèle vite grand lecteur, autodidacte et intéressé par de nombreux sujets. À l’âge de six ans, il apprend tout seul le grec ancien et le latin pour devenir, plus tard, spécialiste de l’islandais. Contraint cependant d’abandonner la lecture durant plusieurs années à cause de problèmes de vue – il devient presque aveugle –, George P. Marsh se réfugie dans la nature.

George Perkins Marsh entre 1843 et 1849. Library of Congress

Très jeune, il apprend de son père à distinguer les essences d’arbres et à comprendre la dynamique des eaux dans les montagnes du Vermont. Lui-même se déclare « porté sur les forêts ». Tous ses souvenirs montrent à quel point ce contact direct, sensible et accompagné a été fondateur pour toute sa pensée environnementale.

Ces observations précoces du paysage serviront de socle à sa future et riche réflexion sur les relations entre l’humain et la nature, notamment lorsqu’il constate que la déforestation dans le Vermont entraîne une érosion des sols, une perte de biodiversité et conduit à une désertification du paysage en seulement quelques années.

Il complète plus tard ses propres observations par la lecture d’ouvrages scientifiques et historiques. Ce sont ses années en tant qu’ambassadeur des États-Unis dans l’Empire ottoman (1849–1854) et en Italie (de 1861 jusqu’à sa mort) qui lui permettent de lier observations et analyse historique du bassin méditerranéen.

Il constate en particulier que la perte de productivité agricole des sols érodés peut rendre la terre infertile pendant des siècles, entraînant maladies et famines pour les populations et l’affaiblissement du pouvoir des nations. C’est d’ailleurs ce problème qui aurait contribué, selon lui, à mettre l’Empire romain à genoux – une hypothèse qui figure aujourd’hui parmi celles retenues par les historiens comme élément déterminant de la chute de Rome.

Dans son livre Man and Nature, il ne cesse de multiplier les exemples historiques pour renforcer sa thèse centrale : l’avenir du monde dépend des décisions que prendra l’humanité quant à l’utilisation et à la conservation de ses ressources naturelles. L’essentiel du livre illustre la dégradation environnementale, avec quatre chapitres principaux consacrés à des exemples spécifiques parmi les plantes et les animaux, les forêts, les eaux et les sables.

George P. Marsh s’intéresse, d’abord et avant tout, aux forêts, car, pour lui, leur destruction est la « première violation par l’humanité des harmonies de la nature inanimée », non seulement dans le temps, mais aussi en termes d’importance.

Déjà, au XIXᵉ siècle, un lien entre forêts et climat

Le chapitre sur les forêts commence par une description méticuleuse de l’influence de la forêt sur l’ensemble de l’environnement, des variations de température locales aux propriétés électriques et chimiques de l’air, en passant par les schémas climatiques régionaux. Mais le plus important, ce sont ses effets sur les précipitations et l’humidité du sol.

Les forêts, selon lui, rendent des services inestimables à l’humanité par leur effet modérateur sur le cycle hydrologique. Elles protègent le sol des pluies violentes, réduisant ainsi l’érosion. Les feuilles et les végétaux morts permettent au sol d’absorber d’énormes quantités d’humidité et de les libérer lentement, ce qui non seulement réduit les inondations, mais maintient également le débit des cours d’eau et des sources pendant les saisons sèches. Leur évapotranspiration, enfin, rafraîchit l’air et apporte la pluie à des terres qui en seraient autrement dépourvues.


À lire aussi : Éloge des feuilles mortes, carburant indispensable des écosystèmes


Mais lorsque les êtres humains font disparaître les forêts, ces avantages cessent. Le sol est emporté par les pluies, des rivières placides se transforment en torrents dévastateurs et les terres s’assèchent lorsque les pluies disparaissent. Les coûts humains, poursuit-il, pourraient être énormes.

Son travail a influencé de nombreux penseurs et décideurs dans le domaine de la conservation et de la protection environnementales. Il a notamment inspiré Gifford Pinchot (1865–1946), un des pères philosophiques et politiques du mouvement environnementaliste aux États-Unis, qui a joué un grand rôle dans la protection des forêts et, plus généralement, des ressources naturelles.

Il a été aussi une référence importante pour John Muir (1838–1914), le chef de file d’un courant qui vise à préserver une nature non affectée par l’activité humaine (« wilderness »). Ce mouvement a aussi initié la création des parcs nationaux aux États-Unis. George P. Marsh lui-même a joué un rôle clé dans la création de l’Adirondack Park (dans l’État de New York), l’un des premiers parcs forestiers aux États-Unis.

Des analyses visionnaires

Au-delà de la réception historique de ses travaux, les constats de George P. Marsh sont d’une actualité brûlante.

Les feux de forêt récurrents l’été, en France et ailleurs dans le monde, causés par des sécheresses elles-mêmes amplifiées par l’activité humaine, le rappellent encore. De même la déforestation en Amazonie et en Indonésie entraîne-t-elle aujourd’hui une érosion massive des sols, affectant la productivité agricole et les écosystèmes locaux.

Bien que Marsh n’ait pas utilisé le terme de « changement climatique », il a compris que la disparition des forêts pouvait modifier les régimes climatiques locaux.

Aujourd’hui, nous savons que la déforestation contribue au réchauffement climatique en libérant le carbone stocké dans les arbres et en réduisant la capacité des forêts à absorber le CO₂. La réduction des émissions provenant du déboisement et de la dégradation des forêts, ainsi que la gestion durable des forêts, la conservation et l’amélioration des stocks de carbone forestier sont des éléments essentiels des efforts mondiaux visant à atténuer le changement du climat.

Avec ses observations et ses conclusions, Marsh s’est forgé la conviction que l’humanité dépend de son environnement, et non l’inverse. Une position qui ébranle la certitude de la suprématie de l’être humain sur la nature, très répandue à son époque. Il arrive finalement à la conclusion que l’être humain « possède un pouvoir bien plus important sur ce monde que n’importe quel autre être vivant », position qui s’apparente à celle plus moderne qui fonde le concept d’anthropocène.

Un héritage toujours d’actualité

La modernité de son approche se manifeste aussi dans sa conception globale des phénomènes naturels. George P. Marsh combine une véritable géographie environnementale à une vue historique et à une approche déambulatoire et paysagère. Cela lui permet de relier entre eux des phénomènes épars afin d’aboutir à une compréhension globale des relations entre l’être humain et la nature.

Au moment de la première industrialisation, Marsh a le mérite de débuter la réflexion sur les dépassements et les limites d’une modernité balbutiante. Les sujets de ses observations que sont le sable, la déforestation, l’utilisation des sols ou la question de l’eau font tous partie des neuf limites planétaires que l’humanité a dépassées depuis.

Alors que la conférence des Nations unies sur les océans à Nice, en juin 2025, ne s’est pas conclue par des déclarations suffisamment fortes en faveur de leur protection et que le retard sur la décarbonation nous approche dangereusement du seuil de +1,5 °C par rapport à l’ère préindustrielle, il est urgent de reconsidérer les analyses de George P. Marsh.

The Conversation

Hans Schlierer ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

14.08.2025 à 17:33

Irregular migrants in Europe face obstacles to exercising legal rights – where they have them

Clare Fox-Ruhs, Part-Time Assistant Professor, Robert Schuman Centre for Advanced Studies, European University Institute

There are various social and labour rights for irregular migrants in the different EU member states and the UK. But the costs of enjoying these rights can be daunting.
Texte intégral (1499 mots)

It is said that a true measure of any society is how it treats its most vulnerable members. To what extent, however, does this litmus test extend to the irregular migrants among us – namely, those who live and/or work in host communities without the legal right to reside? What does it take to be a “member” of society to whom protection is owed?

These are key questions facing all major migrant-receiving countries. Moreover, the choices our national governments make in relation to regulating the rights of irregular migrants matter for all of us. These choices affect our schools, our workplaces, our healthcare and eldercare settings, and our streets. Everyone is implicated, for this is what it means to live in society.

The first step in problem-solving around the issues related to irregular migration is to better understand the conditions of irregular migrants and the current responses of national governments. To this end, we at the European University Institute, Uppsala University and the University of Zagreb developed IRMIGRIGHT – Europe’s first database of the social and labour rights of irregular migrants. Unrestricted public access to the database will be available in the second half of 2026.

Using the data we compiled, we constructed a novel set of indicators that allow us to measure and compare the nature of irregular migrants’ rights in 16 different social and labour fields across the 27 EU member states and the UK. Our recently published results of this analysis reveal important differences in the types of rights that irregular migrants can claim by law in European countries, and they show significant variation in the quality of those rights cross-nationally.


A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!


Our research shows that European governments typically legislate to provide irregular migrants with a small set of basic rights. On the social side, these rights include access to emergency healthcare, maternity care and compulsory education for children. In labour terms, irregular migrants most commonly enjoy the right to recover a portion of unpaid wages (the UK and Bulgaria are the only countries in which they do not) and to be assured basic health and safety standards in the workplace. The range of services or benefits included in these rights is, in most cases, equal to those of citizens.

By contrast, it is only in a small minority of European countries that irregular migrants can exercise rights to emergency subsistence-level income support and temporary shelter – even in cases of extreme need. Routine income support payments and access to long-term social housing are virtually non-existent for irregular migrants under national laws.

The more established EU member states (the “EU 15”) typically offer better protections than the newer, post-enlargement member states. However, Denmark, Greece, Ireland and the UK break with this trend by providing weaker rights protections for irregular migrants.

Obstacles to meaningful rights

Amid the patchwork of protection and exclusion of irregular migrants in the rights frameworks of European countries, perhaps the bigger story is the widespread presence of obstacles to meaningful rights enjoyment. What our research shows is that it is one thing for an irregular migrant to have a right by law in a host country, but quite another to have a right that is provided in terms that enable the migrant to freely exercise that right.

Our findings show that even among the “best-performing” European countries such as Spain, France, Finland, Belgium and Sweden, irregular migrants face multiple “cost” barriers to enjoying their rights. Some of these costs are financial. Irregular migrants might have access to a variety of healthcare and education rights, but where the user costs of services associated with these rights exceed costs charged to citizens, irregular migrants might be priced out of services altogether.

User costs for irregular migrants vary cross-nationally: for instance, the UK charges 150% of National Health Service costs for certain maternity and specialised treatments, whereas the Netherlands treats irregular migrants on the same basis as citizens in regard to all healthcare for which these migrants are eligible. Costs may be waived, but the very presence of high costs can be enough to stop individuals from seeking even emergency or medically necessary care.

Prohibitive financial costs can also deter irregular migrants from exercising rights that they ought to be able to enjoy by law. There is no right without a remedy, yet our research finds that only around 50% of legal “rights” for irregular migrants are accompanied by some form of legal aid for them to exercise those rights.

Arguably, the cost that weighs most heavily on irregular migrants in exercising their legal rights is that of becoming visible to law enforcement authorities and facing potential immigration detention and deportation.

This rights obstacle can be reduced by “firewalls” – laws or policies that prevent service providers and state officials from reporting to immigration enforcement authorities those irregular migrants who, for example, use hospitals, schools and social services, or seek labour justice. It is striking, however, that only a handful of European countries offer such firewalls in regard to social rights (mostly healthcare), and that no country provides a firewall for irregular migrants to pursue their labour rights following workplace exploitation, abuse or injury.

Defining our societies

All in all, the picture of irregular migrants’ rights across Europe suggests that we have some way to go in guaranteeing fundamental and realisable rights that apply to all persons regardless of immigration status. The comparative country data we have compiled provide a new opportunity for European societies to hold up a mirror to themselves and ask if they are satisfied with the reflection. Do the rights that irregular migrants enjoy under the law speak to the values, norms and aspirations of host societies, or is it time for a health check?

Irregular migrants will inevitably remain of our societies, however well national governments succeed in limiting immigration and however we choose to set the boundaries of societal membership. By promoting and protecting irregular migrants’ core rights to necessary healthcare, emergency subsistence-level income and shelter, freedom from labour exploitation, and compulsory education for children, countries can realise their shared European ideals while simultaneously building healthier communities for all.


Our development of IRMIGRIGHT is part of the international “PRIME” project that analyses the conditions of irregular migrants in Europe. PRIME is funded by the European Union Horizon Europe programme.

The Conversation

Clare Fox-Ruhs ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

14.08.2025 à 15:16

Pour Montesquieu, seul le pouvoir arrête le pouvoir

Spector Céline, Professeure des Universités, UFR de Philosophie, Sorbonne Université, Sorbonne Université

Notre démocratie est en crise, comment la réinventer&nbsp;? Pour Montesquieu (1689-1755) la tripartition des pouvoirs de l’État – législatif, exécutif et judiciaire – est la condition de la liberté politique.
Texte intégral (1991 mots)

Notre démocratie est en crise, comment la réinventer ? Que nous enseignent ceux qui, au cours des âges, furent ses concepteurs ? Sixième volet de notre série consacrée aux philosophes et à la démocratie avec Montesquieu (1689-1755). Précurseur de l’approche constitutionnelle moderne, ce dernier définit des conditions de la liberté politique par la tripartition des pouvoirs de l’État – législatif, exécutif et judiciaire.


Comment Montesquieu peut-il nous aider à cerner l’esprit de la démocratie moderne ? Dans De l’esprit des lois (1748), paru de manière anonyme à Genève, le philosophe distingue la démocratie antique, dont le lieu d’origine est Athènes et Rome, et la république moderne, qui se dissimule encore sous la forme monarchique. Cette république nouvelle ne recourt plus au tirage au sort pour permettre aux citoyens de choisir leurs édiles ; elle privilégie le système représentatif en conférant au peuple – ou du moins à une partie du peuple – le droit d’élire ses députés à la Chambre.

Montesquieu inspiré par la Glorious Revolution anglaise

C’est dans l’Angleterre postérieure à la Glorious Revolution (1689) que Montesquieu va chercher les principes de la liberté politique. Si cette nation est dotée d’un statut singulier, c’est qu’au terme de sanglantes guerres civiles, le prince y a été apprivoisé. Magistrat et juriste de formation, le philosophe de la Brède a observé la vie politique anglaise lors de son séjour sur l’île pendant plus de 18 mois (novembre 1729-avril 1731). Au livre XI de L’Esprit des lois, il brosse un tableau inédit des conditions de la liberté politique, en partant de la tripartition des pouvoirs de l’État : la puissance législative, la puissance exécutive ou exécutrice, la puissance judiciaire. C’est seulement si par la « disposition des choses », « le pouvoir arrête le pouvoir » que la Constitution pourra protéger la liberté, redéfinie de manière originale comme opinion que chacun a de sa sûreté, à l’abri de l’arbitraire et de l’abus de pouvoir. Montesquieu fournit ainsi à la postérité une interprétation subtile et profonde des institutions de la liberté.

La question de l’attribution des pouvoirs est d’abord essentielle : afin de faire fonctionner l’État, le pouvoir exécutif doit certes être confié à un seul homme – le monarque – en raison de la rapidité nécessaire des décisions à prendre. Mais la liberté politique suppose d’autres exigences : afin d’éviter la formation d’une caste de juges potentiellement tyrannique, l’autorité judiciaire doit être attribuée pour l’essentiel à des jurys populaires tirés au sort. Quant au pouvoir législatif, il doit être confié, dans un grand État, aux représentants du peuple. Toutefois, il ne faut pas se faire d’illusions : les députés ne sont pas toujours mandataires de l’intérêt général. Telle est la raison pour laquelle le Parlement doit être constitué par deux Chambres – House of Commons et House of Lords. Si le bicaméralisme s’avère nécessaire, c’est que l’élite tente toujours d’opprimer le peuple et le peuple, de nuire à l’élite. Comme Machiavel, Montesquieu considère que les gens « distingués par la naissance, les richesses ou les honneurs » ne doivent pas être confondus avec ceux qui en sont dénués, sans quoi « la liberté commune serait leur esclavage et ils n’auraient aucun intérêt à la défendre ». L’État n’est pas une personne morale constituée en amont de la société et transcendant ses clivages : chaque groupe social dispose au sein du pouvoir législatif d’un organe partiel pour défendre ses intérêts, et se trouve par là même « constitué » avec ses droits et, le cas échéant, avec ses privilèges.

Néanmoins, l’exécutif lui-même n’est pas laissé sans secours face aux risques d’atteinte à sa prérogative : dans le sillage de certains publicistes anglais comme le Vicomte Bolingbroke, Montesquieu reconnaît le droit de véto du roi dans une monarchie limitée. Grâce à cette opposition de forces et de contre-forces, la constitution est un système dynamique qui se conserve par une forme d’autorégulation. Cet équilibre, sans doute, reste précaire : l’Angleterre perdra sa liberté au moment où le pouvoir législatif deviendra plus corrompu que l’exécutif. Mais contrairement aux théoriciens absolutistes de la souveraineté, l’auteur de L’Esprit des lois ne craint pas la paralysie des pouvoirs divisés, pas plus qu’il ne redoute l’impuissance associée à la nécessité d’un compromis politique et social. Tant que l’équilibre est maintenu, la préservation des droits résulte de la négociation et de la tension entre intérêts divergents. Dans le mouvement nécessaire des choses, les pouvoirs antagonistes finissent par « aller de concert ».

Séparer ou distribuer les pouvoirs ?

Comment interpréter la Constitution libre ? Dans un article classique, le juriste Charles Eisenmann a réfuté l’interprétation selon laquelle Montesquieu défendrait une véritable « séparation des pouvoirs ». L’interprétation séparatiste soutenue par la plupart des juristes consiste à affirmer que le pouvoir de légiférer, le pouvoir d’exécuter et le pouvoir de juger doivent être distribués à trois organes absolument distincts, pleinement indépendants, et même parfaitement isolés les uns des autres. Elle exclut pour chaque organe le droit de donner des instructions aux autres, et même tout droit de contrôle sur leur action.

Or cette conception stricte de la séparation des pouvoirs est intenable : en réalité, le philosophe-jurisconsulte ne remet pas le pouvoir législatif au Parlement seul, mais au Parlement et au monarque. Le Parlement élabore et vote les lois dont ses membres ont pris l’initiative ; mais ces lois n’entrent en vigueur que si le monarque y consent. Le monarque prend part à la législation par son droit de veto ; la puissance exécutrice, de ce point de vue, « fait partie de la législative ». En second lieu, si Montesquieu condamne le cumul intégral du pouvoir législatif et du pouvoir de juger, il n’exclut pas que la Chambre des Lords puisse juger les nobles. Enfin, il ne préconise pas davantage l’indépendance de chaque organe dans l’exercice de sa fonction ; il assigne au Parlement, dans un État libre, le droit et même le devoir de contrôler l’action exécutive du gouvernement.

De ce point de vue, la séparation des pouvoirs relève d’un « mythe ». Montesquieu l’affirme de façon explicite : « Dans les monarchies que nous connaissons, les trois pouvoirs ne sont point distribués et fondus sur le modèle de la Constitution dont nous avons parlé », à savoir la Constitution d’Angleterre : les pouvoirs de l’État sont distribués sans doute, mais d’une façon qui, loin de les séparer, les fond. L’État libre est un système dynamique où les parties en mouvement contribuent à l’équilibre du tout ; la distinction et l’opposition des pouvoirs est le préalable à leur coordination : « Voici donc la constitution fondamentale du gouvernement dont nous parlons : le corps législatif y étant composé de deux parties, l’une enchaînera l’autre par sa faculté mutuelle d’empêcher. Toutes les deux seront liées par la puissance exécutrice, qui le sera elle-même par la législative ». Le mécanisme constitutionnel est ici agencé de telle sorte que ses divers rouages soient en mesure de se faire opposition les uns aux autres. Or c’est précisément parce que les pouvoirs sont en mesure de s’opposer qu’ils ne peuvent être radicalement séparés. Ce point est essentiel : contre les risques de dérive despotique, le contrôle parlementaire du gouvernement permet à l’État de rester libre.

D’où l’interprétation politique et non juridique de la distribution des pouvoirs : afin d’éviter les abus de pouvoir, il ne faut pas que deux des trois pouvoirs étatiques, et à plus forte raison les trois, soient remis à un seul et homme ou à un seul corps de l’État (pas même le Parlement !). Un seul pouvoir doit être réellement séparé des deux autres, à savoir le pouvoir judiciaire. Selon le président à mortier du Parlement de Bordeaux, le juge doit se contenter d’appliquer la loi, d’être la « bouche de la loi ». Pour que le citoyen n’éprouve pas la crainte des magistrats qui caractérise les États despotiques, il faut neutraliser la puissance de juger, « si terrible parmi les hommes » : elle doit devenir, pour ainsi dire, « invisible et nulle ». En particulier, l’exécutif ne doit en aucun cas influencer ou contrôler le pouvoir judiciaire. Il faut éviter à tout prix qu’il puisse opprimer par sa « volonté générale » et mettre en péril chaque citoyen par ses volontés particulières – ce qui risque d’arriver là où la puissance est « une ». La concentration et la confusion des pouvoirs font du prince un monstre omnipotent qui légifère, exécute, et juge, quitte à éliminer ses opposants politiques et à opprimer la dissidence.

À l’origine du constitutionnalisme moderne

Cette théorie doit bien sûr être contextualisée : en luttant contre le despotisme en France, Montesquieu n’a pas inventé telle quelle la conception fonctionnelle de la séparation des pouvoirs qui s’appliquera par la suite, aux États-Unis notamment ; il n’a pas imaginé un Sénat conçu comme Chambre des États, susceptible de remplacer la Chambre des Pairs ; il n’a pas conçu de président élu se substituant au monarque. Il reste que sa vision puissante est à l’origine du constitutionnalisme moderne. Elle inspire notre conception de l’État de droit, qui associe liberté des élections et des médias, distribution des pouvoirs et indépendance du judiciaire. En influençant la formation des constitutions républicaines, elle fournit la boussole dont nous avons encore besoin, au moment où le président américain remet en cause les pouvoirs du Congrès, menace d’abolir l’indépendance de l’autorité judiciaire, torpille celle des agences gouvernementales et envoie chaque jour des salves d’executive orders en défendant une théorie de l’exécutif « unitaire », fort et immune. Que le Congrès l’accepte et que la Cour suprême avalise l’impunité présidentielle est un signe, parmi d’autres, du danger mortel qui pèse sur nos démocraties.

The Conversation

Céline Spector est membre du Conseil scientifique de l'UEF France. Elle a reçu des financements pour des projets de recherche à Sorbonne Université au titre de l'Initiative Europe.

PDF

14.08.2025 à 15:16

Soudan : deux ans de guerre et un pays dans l’abîme

Marie Bassi, Enseignante-chercheure. Maîtresse de conférences en science politique, Université Côte d’Azur

La guerre au Soudan, opposant l’armée régulière aux FSR paramilitaires, dure depuis plus de deux ans. Elle a plongé le pays dans une crise humanitaire sans précédent. Entretien.
Texte intégral (3164 mots)

Depuis plus de deux ans, le Soudan est en proie à une guerre opposant l’armée régulière à un groupe paramilitaire. Ce conflit a plongé le pays dans la plus grave crise humanitaire au monde et provoqué le déplacement de près de 13 millions de personnes depuis avril 2023, selon les Nations unies.

Quel bilan peut-on dresser aujourd’hui de ces deux années de guerre ? Éléments de réponse avec Marie Bassi, maîtresse de conférences à l’Université Côte d’Azur et coordinatrice du Centre d’études et de documentation économiques, juridiques et sociales au Soudan, basé à Khartoum mais actuellement délocalisé au Caire.


The Conversation : Pourriez-vous revenir brièvement sur les origines du conflit actuel au Soudan ?

Marie Bassi : La guerre a éclaté le 15 avril 2023 en plein cœur de Khartoum, la capitale soudanaise. Elle oppose deux acteurs ; les forces armées soudanaises (FAS), dirigées par le général Abdel Fattah al-Burhan, et un puissant groupe paramilitaire appelé les Forces de soutien rapide (FSR), représenté par Mohamed Hamdan Daglo (alias « Hemetti »). Les premiers, l’armée régulière, gouvernent le Soudan de manière presque ininterrompue depuis l’indépendance du pays, en 1956. Les deuxièmes, les FSR, sont dirigées par des chefs issus de tribus arabes de l’ouest du Soudan, au Darfour.

Ce conflit a la particularité d’avoir débuté dans la capitale, une première pour le pays. Bien que l’histoire du Soudan ait été marquée par des décennies de tensions entre le Nord et le Sud et par des conflits entre le centre et les périphéries, ceux-ci ne s’étaient jamais exportés dans la capitale. Cette fois-ci, Khartoum a été directement affectée, avec des pillages, la destruction des infrastructures (centrales électriques, conduites d’eau, hôpitaux, écoles, patrimoine culturel, archives nationales…), et des attaques de zones administratives et militaires, mais aussi de très nombreuses habitations.

C’est aussi probablement la première fois qu’autant de puissances étrangères sont directement impliquées dans le conflit. L’économie de guerre est alimentée par un réseau complexe d’alliances internationales. Les Émirats arabes unis apportent leur soutien aux FSR, ce qu’ils démentent en dépit de plusieurs enquêtes qui le prouvent. D’un autre côté, l’Égypte est un allié majeur de l’armée. La Libye, l’Ouganda, le Tchad, le Soudan du Sud, la Russie, l’Iran et bien d’autres sont également impliqués, plus ou moins directement.

Ce conflit se caractérise aussi par son extrême violence. On compte plus de 150 000 morts, des viols, des tortures, des exécutons sommaires. Les viols de masse font partie du recours généralisé aux violences sexuelles comme arme de guerre.

Ce sont 25 millions de Soudanais qui souffrent de faim aiguë avec l’augmentation drastique des prix des denrées alimentaires. La famine a été confirmée par l’ONU dans dix régions du pays. À cette crise alimentaire s’ajoute une crise sanitaire : de nombreux hôpitaux ne sont plus opérationnels et près de la moitié de la population n’a pas accès à des soins médicaux. On observe le développement d’épidémies, comme la rougeole, la dengue, le paludisme ou le choléra.

On assiste à une prolifération des armes et à une multiplication des groupes armés qui éloignent l’espoir d’une paix proche. La guerre se poursuit et les deux camps continuent de commettre des exécutions sommaires visant des civils, accusés de soutenir le camp adverse ou appartenant à des groupes ethniques perçus comme proches soit des FSR, soit de l’armée. On a également pu observer des campagnes de nettoyage ethnique menées par les FSR ou par l’armée, notamment au Darfour et dans la région de la Gezira.

Arte, 14 octobre 2024.

Quelle est actuellement la situation au Darfour ?

M. B. : Le Darfour est une région de l’ouest du Soudan, presque aussi grande que la France. Depuis 2003, le Darfour est le théâtre d’un conflit armé ayant pour origine un accès inégal aux ressources, des années de marginalisation politique, des conditions économiques difficiles et l’implication de grandes puissances qui en convoitent les richesses.

Aujourd’hui, les FSR en contrôlent la quasi-totalité. Seule la ville d’Al Fasher, capitale du Darfour du Nord, leur échappe, mais elle est actuellement en état de siège. Une famine dramatique touche la ville. Le Darfour était déjà très pauvre en infrastructures de base avant la guerre ; maintenant, l’ensemble de la région est dans une situation humanitaire catastrophique.

Il y a quelques mois, les FSR avaient annoncé leur intention de former un gouvernement parallèle à celui établi à Port-Soudan sous le contrôle de l’armée. Ce 26 juillet, les FSR ont nommé un premier ministre. Elles vont peut-être réussir à contrôler l’entièreté du Darfour et une partie du Kordofan du Sud, et on évoque un risque de partition du pays.

On dit souvent que la guerre au Soudan souffre d’une sous-médiatisation. Cela engendre-t-il une mauvaise compréhension du conflit et de ses conséquences ?

M. B. : Il est vrai que cette réalité dramatique contraste avec un silence politique et médiatique assourdissant. Les rares moments où les médias européens parlent du Soudan se comptent sur les doigts de la main. D’autre part, je pense que la mise en récit de la guerre par les belligérants, par la plupart des médias et par certains acteurs politiques repose sur des interprétations assez simplificatrices et essentialistes.

On parle souvent d’une « guerre entre généraux », d’une « guerre ethnique », d’une « guerre entre les périphéries et Khartoum » ou uniquement d’une « guerre par procuration ».

C’est un peu tout ça, mais en réalité les racines de la guerre sont bien plus complexes et celle-ci doit être étudiée sous un prisme historique.

Le conflit est lié à une longue histoire d’exploitation des ressources des périphéries du Soudan par le pouvoir central, avec une gestion militarisée et brutale de ces périphéries. La violence qui secoue le pays, depuis 2023, va bien au-delà d’une simple compétition entre généraux rivaux. Il convient de rappeler deux éléments essentiels.

Il y a effectivement une guerre de pouvoir entre les deux groupes pour s’emparer du contrôle d’un pays très riche, en or, en uranium, en terres arables, en bétail, en gaz naturel et en pétrole, et d’un territoire 800 km qui donne également accès à la mer Rouge. Cependant, il faut mentionner que cette guerre oppose des personnes issues du régime précédent et alliées de longue date.

En effet, depuis l’indépendance, le gouvernement soudanais a suivi une stratégie d’externalisation de la violence en faisant systématiquement appel à différentes milices pour se prémunir des coups d’État et pour vaincre les mouvements armés dans certaines régions, notamment au Darfour ou dans les monts Nuba (dans l’État du Kordofan, Soudan du Sud) qui luttaient pour le partage équitable des ressources du pays.

Les FSR ne portaient pas le même nom il y a quelques années. Ils sont en partie des héritiers des janjawids, des milices issues des tribus arabes du Darfour, qui étaient impliquées dans les massacres, du début des années 2000 au Darfour, qualifiés de génocide par la Cour pénale internationale.

Elles ont pris du poids au fil des années et, en 2013, l’ancien dictateur Omar al-Bachir les convertit en FSR avant de les institutionnaliser en 2017. Avec leur participation comme supplétifs dans le conflit au Yémen, leur rôle pour renforcer le contrôle aux frontières à la demande de l’Union européenne, leur implantation dans les secteurs très rentables de l’or et de l’immobilier, les FSR se sont considérablement enrichies et ont été en position de rivaliser avec l’armée. Les milices qui sévissent aujourd’hui ont donc en réalité été construites par l’armée.

Ensuite, pour comprendre cette guerre, il faut revenir au soulèvement révolutionnaire soudanais de 2019. En avril, le dictateur Omar al-Bachir est destitué du pouvoir après trente ans de règne. Débutait alors une période de transition démocratique qui devait déboucher sur un gouvernement civil.

L’ancien inspecteur de l’armée soudanaise, Abdel Fattah al-Burhan, qui avait succédé à Bachir, s’allie avec Mohamed Hamdan Daglo qui est à la tête des FSR. Ils orchestrent un coup d’État en octobre 2021 qui renverse le gouvernement de transition, évince les forces civiles et marque la reprise du pouvoir par l’armée et leurs alliés, les FSR.

Abdel Fattah al-Burhan dirige le nouveau gouvernement de transition militaire. Cependant, l’alliance entre l’armée et les FSR est fragile et leurs rivalités pour le partage du pouvoir s’exacerbent jusqu’à donner lieu au conflit d’avril 2023.

Fin mai, l’armée soudanaise a annoncé avoir libéré l’État de Khartoum des forces paramilitaires. Quel impact cette annonce a-t-elle eu auprès des diasporas soudanaises ? A-t-on pu observer des retours massifs vers la capitale ?

M. B. : Tout d’abord, il faut rappeler le nombre colossal de Soudanais contraints au déplacement forcé : on estime qu’au moins 13 millions de personnes ont quitté leur foyer, dont 4 millions dans les pays voisins. Les principaux pays d’accueil sont l’Égypte, avec plus d’un million et demi de Soudanais, le Soudan du Sud où ils sont plus d’un million, puis le Tchad (1,2 million), la Libye (plus de 210 000) et enfin l’Ouganda (plus de 70 000). Ce sont des chiffres colossaux et ils expliquent en partie pourquoi cette guerre est considérée comme la plus importante crise humanitaire au monde.

Ensuite, on observe en effet beaucoup de retours au Soudan, ces dernières semaines, bien que les chiffres annoncés restent approximatifs et soient à prendre avec précaution. La reprise de la capitale a marqué un tournant, c’était une victoire à la fois symbolique et tactique.

À l’intérieur du Soudan, le Haut-Commissariat des Nations unies pour les réfugiés (HCR) estime que près d’un million de personnes sont revenues dans leurs foyers d’origine, principalement à Khartoum et dans la région de la Gezira dont l’armée a également repris le contrôle début 2025. Près de 320 000 Soudanais seraient aussi revenus d’Égypte et du Soudan du Sud.

En Égypte, le gouvernement a mis en place une ligne de train pour faciliter le retour, et des bus entiers partent quotidiennement du Caire vers la frontière. Les gens ont envie de revenir dans leur maison, de voir s’il en reste quelque chose. Les personnes âgées ne veulent pas mourir en dehors de leur pays.

Les personnes les plus précaires, celles qui ne sont pas parvenues à scolariser leurs enfants ou à trouver des moyens de subsistance, reviennent. Par ailleurs, les autorités militaires cherchent à encourager le retour des Soudanais, en multipliant les annonces officielles. Celles-ci, toutefois, apparaissent souvent déconnectées de la situation réelle, comme lorsqu’elles affirment pouvoir reconstruire Khartoum en six mois pour retrouver son état d’avant-guerre.

Tout ceci a néanmoins un goût amer, puisque certains Soudanais se retrouvent contraints de célébrer leurs anciens ennemis, le camp de l’armée, celle-là même contre laquelle ils s’étaient mobilisés lors de la révolution de 2019, une révolution portée par l’espoir d’un gouvernement civil.

Et il faut aussi garder en tête que la guerre et les horreurs continuent dans plusieurs régions, notamment au Darfour et au Kordofan.

France 24, 4 avril 2025.

Dans vos travaux, vous abordez les formes d’engagement des diasporas soudanaises, notamment en Égypte. Quels sont les réseaux de solidarité qui existent aujourd’hui et quels sont les liens que les diasporas entretiennent avec leurs proches restés au Soudan ?

M. B. : Les transferts de fonds des membres de la diaspora vers le Soudan sont essentiels pour assurer la survie des Soudanais. C’est le cas pour les membres de la diaspora qui vivent et travaillent en Europe, au Canada, aux États-Unis ou dans les pays du Golfe.

En Égypte, pays sur lequel je travaille plus particulièrement, les familles sont en contact permanent avec leurs proches restés au Soudan. Malheureusement, les opportunités professionnelles sont réduites et les Soudanais n’ont que très peu de moyens de subsistance, ce qui réduit les possibilités d’aider leurs proches. Ceux qui possédaient des ressources financières importantes avant la guerre ou dont des membres de la famille travaillent à l’étranger réussissent généralement à mieux s’en sortir.

Par ailleurs, il faut savoir trois choses. La première, c’est que toutes les initiatives d’aide et de solidarité diasporiques sont totalement invisibilisées. Pourtant, c’est ce qui permet la survie des Soudanais au Soudan. On parle de l’aide humanitaire internationale mais, en réalité, sans les centaines de milliers de Soudanais qui envoient de l’argent à leur famille restée au pays, la situation du Soudan serait bien plus catastrophique. Ceux qui retournent au pays aujourd’hui y amènent ce qu’ils peuvent – de la nourriture, des médicaments et parfois même des panneaux solaires.

La deuxième, c'est que le système bancaire soudanais est quasiment à l’arrêt et que peu de cash circule dans le pays. Les soutiens financiers fonctionnent donc essentiellement par une digitalisation de l’aide. Les Soudanais n’ont pas accès aux liquidités bancaires ; toutes les transactions passent par des applications bancaires. Grâce à celles-ci, il est possible d’acheter un peu de nourriture et des biens de première nécessité.

La troisième, c’est qu’il existe des modalités de solidarité locale très puissantes au Soudan, en particulier les salles d’intervention d’urgence, les Emergency Rooms ou les cantines solidaires, que les réfugiés soudanais soutiennent à distance. En dépit de la répression que ces groupes subissent, ils ont continué à œuvrer tout au long de la guerre et ont été, et sont toujours, des soutiens essentiels à la survie de milliers de Soudanais.


Propos recueillis par Coralie Dreumont et Sabri Messadi.

The Conversation

Marie Bassi ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

14.08.2025 à 15:15

Ce que la famine fait au corps humain

Ola Anabtawi, Assistant Professor - Department of Nutrition and Food Technology, An-Najah National University

Berta Valente, PhD candidate in Public Health at the Faculty of Medicine, Universidade do Porto

Deux nutritionnistes décrivent les mécanismes physiologiques de dégradation du corps humain soumis à des famines comme celles qui sévissent à Gaza et au Soudan.
Texte intégral (2604 mots)

Deux spécialistes de la nutrition décrivent, sur le plan physiologique, les différentes étapes de dégradation du corps humain lorsqu’il est soumis à des famines comme celles qui sévissent à Gaza et au Soudan. Contraint de puiser dans ses réserves, l’organisme est alors de plus en plus vulnérable aux infections telles que la pneumonie ou d’autres complications.


La faim existe sous différentes formes.

Au départ, il est question d’insécurité alimentaire quand les populations sont contraintes de s’adapter à des repas en nombres insuffisants. À mesure que la nourriture se raréfie, l’organisme puise dans ses réserves. Le passage de la faim à la famine commence par une baisse du niveau d’énergie, puis le corps puise dans ses réserves de graisse, ensuite dans ses muscles. Finalement, les organes vitaux commencent à défaillir.

De la sous-alimentation à la malnutrition aiguë puis à la famine, le processus atteint un stade où l’organisme n’est plus en mesure de survivre. À Gaza aujourd’hui, des milliers d’enfants de moins de cinq ans et des femmes enceintes ou allaitantes souffrent de malnutrition aiguë. Au Soudan, les conflits et les restrictions d’accès à l’aide humanitaire ont poussé des millions de personnes au bord de la famine, et les alertes à la famine se font de plus en plus pressantes chaque jour.

Nous avons demandé aux nutritionnistes Ola Anabtawi et Berta Valente d’expliquer les mécanismes physiologiques à l’œuvre dans les situations de famine et ce qui arrive au corps humain quand il est privé de nourriture.

Quel est l’apport alimentaire minimal dont le corps a besoin pour survivre ?

Pour leur survie, les humains ne peuvent se contenter d’eau potable et de sécurité. L’accès à une alimentation qui couvre leurs besoins quotidiens en énergie, en macronutriments et en micronutriments est essentiel pour rester en bonne santé, favoriser la guérison et prévenir la malnutrition.

Selon l’Organisation mondiale de la santé (OMS), les adultes ont besoin de quantités d’énergie différentes en fonction de leur âge, de leur sexe et de leur niveau d’activité physique.

Une kilocalorie (kcal, soit 1 000 calories) est une unité de mesure de l’énergie. En nutrition, elle indique la quantité d’énergie qu’une personne tire de son alimentation ou la quantité d’énergie dont le corps a besoin pour fonctionner. Techniquement, une kilocalorie correspond à la quantité d’énergie nécessaire pour élever la température d’un kilogramme d’eau d’un degré Celsius. Le corps utilise cette énergie pour respirer, digérer les aliments, maintenir sa température corporelle et, en particulier chez les enfants, pour grandir.

Les besoins énergétiques totaux proviennent de trois sources :

  • la dépense énergétique au repos : elle correspond à l’énergie utilisée par le corps au repos pour maintenir ses fonctions vitales, comme la respiration et la circulation sanguine ;

  • l’activité physique : elle peut varier pendant les situations d’urgence en fonction de facteurs tels que les déplacements, les soins prodigués ou les tâches indispensables à la survie ;

  • la thermogenèse : on nomme ainsi l’énergie utilisée pour digérer et transformer les aliments.

La dépense énergétique au repos représente généralement la plus grande partie des besoins énergétiques, en particulier lorsque l’activité physique est limitée. D’autres facteurs, notamment l’âge, le sexe, la taille, l’état de santé, la grossesse ou les environnements froids, influencent également la quantité d’énergie dont une personne a besoin.

Les besoins énergétiques varient tout au long de la vie. Les nourrissons ont besoin d’environ 95 kcal à 108 kcal par kilogramme de poids corporel par jour pendant les six premiers mois et de 84 kcal à 98 kcal par kilogramme de six à douze mois. Pour les enfants de moins de dix ans, les besoins énergétiques sont basés sur des modèles dans une situation de croissance normale, sans distinction entre les garçons et les filles.

Par exemple, un enfant de deux ans a généralement besoin d’environ 1 000 à 1 200 kcal par jour. Un enfant de cinq ans a besoin d’environ 1 300 à 1 500 kcal et un enfant de dix ans a généralement besoin de 1 800 à 2 000 kcal par jour.

À partir de dix ans, les besoins énergétiques commencent à être différents entre garçons et filles en raison des variations de croissance et d’activité, et les apports sont ajustés en fonction du poids corporel, de l’activité physique et du taux de croissance.

Pour les adultes ayant une activité physique légère à modérée, les besoins énergétiques quotidiens moyens sont d’environ 2 900 kcal pour les hommes âgés de 19 à 50 ans, tandis que les femmes du même groupe d’âge ont besoin d’environ 2 200 kcal par jour. Ces valeurs comprennent une fourchette de plus ou moins 20 % afin de tenir compte des différences individuelles en matière de métabolisme et d’activité physique. Pour les adultes de plus de 50 ans, les besoins énergétiques diminuent légèrement, les hommes ayant besoin d’environ 2 300 kcal et les femmes d’environ 1 900 kcal par jour.

Dans les situations d’urgence humanitaire, l’aide alimentaire doit garantir l’apport énergétique minimal qui est largement recommandé pour maintenir une personne en bonne santé et assurer ses fonctions vitales de base, cet apport ayant été fixé à 2 100 kcal par personne et par jour. Ce niveau minimum vise à satisfaire les besoins physiologiques fondamentaux et à prévenir la malnutrition lorsque l’approvisionnement en aliments est limité.

Cette énergie doit provenir d’un équilibre entre les macronutriments, les glucides représentant 50 à 60 % de l’apport (sous forme de riz ou de pain), les protéines 10 à 35 % (haricots, viande maigre…) et les lipides 20 à 35 % (l’huile de cuisson ou les noix, par exemple).

Les besoins en graisses sont plus élevés chez les jeunes enfants (30 % à 40 %), ainsi que chez les femmes enceintes et allaitantes (au moins 20 %).

En plus de l’énergie, le corps a besoin de vitamines et de minéraux, comme le fer, la vitamine A, l’iode et le zinc, qui sont essentiels au fonctionnement du système immunitaire, à la croissance et au développement du cerveau. Le fer se trouve dans des aliments tels que la viande rouge, les haricots et les céréales enrichies. La vitamine A provient des carottes, des patates douces et des légumes verts à feuilles foncées. L’iode est généralement obtenu par le sel iodé et par les fruits de mer. Le zinc est présent dans la viande, les noix et les céréales complètes.

Lorsque les systèmes alimentaires s’effondrent, cet équilibre est rompu.

Que se passe-t-il physiquement lorsque votre corps est affamé ?

Sur le plan physiologique, les effets de la famine sur le corps humain se déroulent en trois phases qui se chevauchent. Chacune reflète les efforts du corps pour survivre sans nourriture. Mais ces adaptations ont un coût physiologique élevé.

Au cours de la première phase qui dure jusqu’à 48 heures après l’arrêt de l’alimentation, l’organisme puise dans les réserves de glycogène stockées dans le foie afin de maintenir un taux de sucre dans le sang stable.

(Le glycogène est un glucide complexe que l’on pourrait définir comme une réserve de glucose – donc de sucre – facilement mobilisable, ndlr).

Ce processus, appelé glycogénolyse, est une solution à court terme. Lorsque le glycogène est épuisé, la deuxième phase commence.

Le corps passe alors à la gluconéogenèse, qui correspond à une production de glucose à partir de sources non glucidiques telles que les acides aminés (provenant des muscles), le glycérol (provenant des graisses) et le lactate. Ce processus alimente les organes vitaux, mais entraîne une dégradation musculaire et une augmentation de la perte d’azote, en particulier au niveau des muscles squelettiques.

Le troisième jour, la cétogenèse devient le processus dominant. Le foie commence à convertir les acides gras en corps cétoniques. Ce sont des molécules dérivées des graisses qui servent de source d’énergie alternative lorsque le glucose vient à manquer. Ces cétones sont utilisées par le cerveau et d’autres organes pour produire de l’énergie. Ce changement permet de préserver les tissus musculaires, mais il est également le signe d’une crise métabolique plus profonde.

Les changements hormonaux, notamment la diminution de l’insuline, de l’hormone thyroïdienne (T3) et de l’activité du système nerveux, ralentissent le métabolisme afin d’économiser l’énergie. Au fil du temps, les graisses deviennent la principale source d’énergie. Mais une fois les réserves de graisses épuisées, le corps est contraint de dégrader ses propres protéines pour produire de l’énergie. Cela accélère la fonte musculaire, affaiblit le système immunitaire et augmente le risque d’infections mortelles.

Le décès, souvent dû à une pneumonie ou à d’autres complications, survient généralement après 60 jours à 70 jours sans nourriture chez un adulte qui était, au départ, en bonne santé.

Lorsque l’organisme entre dans une phase de privation prolongée de nutriments, les signes visibles et invisibles de la famine s’intensifient.

Sur le plan physique, les individus perdent beaucoup de poids et souffrent d’une fonte musculaire, de fatigue, d’un ralentissement du rythme cardiaque, d’une sécheresse cutanée, d’une perte de cheveux et d’une altération des processus de cicatrisation. Les défenses immunitaires s’affaiblissent, ce qui augmente la vulnérabilité aux infections, en particulier à la pneumonie, une cause fréquente de décès en cas de famine.

Sur le plan psychologique, la famine provoque une profonde détresse. Les personnes touchées font état d’apathie, d’irritabilité, d’anxiété et d’une préoccupation constante pour la nourriture. Les capacités cognitives déclinent et la régulation des émotions se détériore, ce qui conduit parfois à la dépression ou au repli sur soi.

Chez les enfants, les effets à long terme comprennent un retard de croissance et des troubles du développement cérébral. Ces deux effets peuvent devenir irréversibles.

Pendant la famine, l’organisme s’adapte progressivement pour survivre. Au début, il utilise les réserves de glycogène pour produire de l’énergie. À mesure que la famine se prolonge, il commence à dégrader les graisses puis les tissus musculaires. Cette transition progressive explique à la fois la faiblesse physique et les changements psychologiques tels que l’irritabilité ou la dépression.

Mais les effets de la famine ne sont pas seulement d’ordre individuel. La famine brise aussi les familles et les communautés. À mesure que leurs forces déclinent, les gens sont incapables de prendre soin des autres ou d’eux-mêmes. Dans les crises humanitaires, comme celles de Gaza et du Soudan, la famine aggrave les traumatismes causés par la violence et les déplacements, en entraînant un effondrement total de la résilience sociale et biologique.

Comment briser ce cercle vicieux ?

Après une période de famine, le corps humain se trouve dans un état de fragilité métabolique. La réintroduction soudaine d’aliments, en particulier de glucides, provoque une hausse brutale du taux d’insuline et un transfert rapide d’électrolytes tels que le phosphate, le potassium et le magnésium vers les cellules. Cela peut submerger l’organisme et entraîner un syndrome lié à la réalimentation, appelé en anglais refeeding syndrome (en français, l’expression « renutrition inappropriée » est employée quelquefois dans la littérature médicale, ndlr).

Ce syndrome peut entraîner des complications graves, telles qu’une insuffisance cardiaque, une détresse respiratoire, ou encore la mort en l’absence d’une prise en charge adéquate.

Les protocoles standard débutent par des laits thérapeutiques appelés F-75, spécialement conçus pour stabiliser les patients pendant la phase initiale du traitement de la malnutrition aiguë sévère, suivis d’aliments thérapeutiques prêts à l’emploi, d’une pâte ou de biscuits à base de beurre d’arachide (spécialement formulés pour permettre à un enfant souffrant de malnutrition de passer de l’état de mort imminente à un rétablissement nutritionnel complet en seulement quatre à huit semaines), de sels de réhydratation orale et de poudres de micronutriments.

Ces produits alimentaires doivent être livrés en toute sécurité. Un accès humanitaire constant est essentiel.

Les largages par voies aériennes ne font pas partie de la sécurité alimentaire. La survie nécessite des efforts soutenus et coordonnés pour restaurer les systèmes alimentaires, protéger les civils et faire respecter le droit humanitaire. Sans cela, les cycles de famine et de souffrances risquent de se répéter.

Quand l’aide alimentaire est insuffisante en termes de qualité ou de quantité, ou quand l’eau potable n’est pas disponible, la malnutrition s’aggrave rapidement.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

13.08.2025 à 17:25

Biodiversité : Pourquoi ce mot est souvent mal compris

Thierry Gauquelin, Professeur émérite, Institut méditerranéen de biodiversité et d’écologie marine et continentale (IMBE), Aix-Marseille Université (AMU)

Né à la fin des années&nbsp;1980, ce mot a immédiatement connu un grand succès. Mais ce qu'il désigne est bien plus vaste qu’on ne le pense souvent.
Texte intégral (4097 mots)

Créé à la fin des années 1980, ce mot a immédiatement connu un grand succès. Mais ce qu’il désigne est bien plus vaste qu’on ne le pense souvent. Aujourd’hui, de nouvelles notions émergent également pour nous permettre de mieux penser la diversité du vivant, telles que la biodiversité fantôme ou la biodiversité potentielle.


Demandez à un enfant de huit ans, à un homme politique ou à une mère de famille, quel organisme symbolise, pour eux, la biodiversité… À coup sûr, ce sera un animal et plutôt un gros animal. Ce sera le panda, le koala, la baleine, l’ours, ou le loup, présent aujourd’hui dans nombre de départements français. Ce sera rarement un arbre, même si la déforestation ou les coupes rases sont dans tous les esprits, et, encore plus rarement, une fleur… Jamais un insecte, une araignée, un ver, une bactérie ou un champignon microscopique… qui, pourtant, constituent 99 % de cette biodiversité.

Raconter l’évolution de ce terme, c’est donc à la fois évoquer un grand succès, mais aussi des incompréhensions et certaines limites.

Mais pour prendre la mesure de tout cela, commençons par revenir sur ses débuts.

Biodiversité, un terme récent 

Le terme « biodiversité », traduction de l’anglais biodiversity, est issu de la contraction de deux mots « diversité biologique » (biological diversity). Il est relativement récent et date seulement de la fin des années 1980, mais il a connu depuis un intérêt croissant.

Ainsi, en 2012, la Plateforme intergouvernementale scientifique et politique sur la biodiversité et les services écosystèmiques (IPBES), équivalent pour la biodiversité du Groupe d’experts intergouvernemental sur l’évolution du climat (Giec), a été lancée par le programme des Nations unies pour l’environnement (PNUE).

L’IPBES a publié, en moins de quinze ans, nombre de rapports dont, par exemple, en 2023, un rapport sur les espèces exotiques envahissantes (EEE) qui constituent l’une des cinq principales pressions sur la biodiversité.

Courbe montrant l’évolution de l’utilisation du mot biodiversité dans la base des livres disponibles sur Google Books
Courbe montrant l’évolution de l’utilisation du mot « biodiversité » dans la base des livres disponibles sur Google Books. Capture d’écran de l’outil Google Ngram, Fourni par l'auteur

La progression spectaculaire de l’utilisation de ce terme depuis sa création témoigne de l’intérêt croissant pour cette notion, notamment depuis le sommet de la Terre de Rio en 1992 où la biodiversité et sa préservation ont été considérées comme un des enjeux principaux du développement durable.

L’herbe de la Pampa (Cortaderia selloana), une espèce exotique envahissante, dans le Pays Basque
L’herbe de la pampa (Cortaderia selloana), une espèce exotique envahissante, dans le Pays basque. Fourni par l'auteur

Les trois principaux niveaux d’organisation de la biodiversité

Mais dès qu’on s’intéresse à ce que cette notion tâche de décrire, on voit rapidement qu’il existe différents critères complémentaires pour mesurer la richesse du monde vivant, avec, au moins, trois niveaux de biodiversité retenus par les scientifiques. :

  • la diversité spécifique, soit la richesse en espèces d’un écosystème, d’une région, d’un pays donné. Elle correspond, par exemple concernant les espèces de plantes natives, à près de 5 000 espèces pour la France hexagonale contre seulement 1 700 pour la Grande-Bretagne.

  • la diversité génétique, soit la diversité des gènes au sein d’une même espèce. C’est, par exemple, la très faible diversité génétique de la population de lynx boréal de France, issue de quelques réintroductions à partir des Carpates slovaques.

  • la diversité des écosystèmes, soit la diversité, sur un territoire donné, des communautés d’êtres vivants (la biocénose) en interaction avec leur environnement (le biotope). Ces interactions constituent aussi un autre niveau de biodiversité, tant elles façonnent le fonctionnement de ces écosystèmes.

Ces différents niveaux tranchent avec la représentation que peuvent se faire nos concitoyens de cette biodiversité, souvent limitée à la diversité spécifique, mais surtout à une fraction particulière de cette biodiversité, celle qui entretient des relations privilégiées ou affectives avec l’être humain. Ces espèces sont d’ailleurs aussi celles que l’on voit incarnée dans les principaux organismes de défense de la nature, par exemple le panda du WWF. Mais c’est un peu l’arbre qui cache la forêt.

Une biodiversité trop mal connue… concentrée dans les sols et dans les océans

Car, à ce jour, seulement environ 2 millions d’espèces ont pu être inventoriées alors qu’on estime qu’il en existe entre 8 millions et 20 millions.


À lire aussi : Combien y a-t-il d’espèces sur la planète ? La réponse n’est pas si simple


Cette méconnaissance affligeante et paradoxale, à une époque où l’on veut conquérir Mars, est liée au fait que cette biodiversité se trouve pour une grande partie dans deux endroits, les sols, d’une part, et les océans, d’autre part. Soit deux milieux encore trop peu investigués et, pourtant, recélant l’essentiel de la biodiversité spécifique de notre planète.

Concernant les sols, si l’on s’intéresse simplement à sa faune, on sait qu’elle correspond à environ 80 % de la biodiversité animale. Plus de 100 000 espèces ont déjà été identifiées (notamment les collemboles, les acariens, les vers de terre…), alors qu’il n’existe que 4 500 espèces de mammifères. Mais, rien que pour les nématodes, ces vers microscopiques au rôle capital pour le fonctionnement du sol, il y aurait en réalité entre 300 000 et 500 000 espèces.

Il faut aussi avoir en tête tous les micro-organismes (bactéries et champignons) dont on ne connaît environ qu’un pour cent des espèces et dont on peut retrouver un milliard d’individus dans un seul gramme de sol forestier.

Ainsi, dans une forêt, et d’autant plus dans une forêt tempérée où la biodiversité floristique reste faible, c’est donc bien dans le sol que cette biodiversité, pour l’essentielle cachée, s’exprime.

Elle demeure, enfin, indispensable au fonctionnement des écosystèmes, indispensable au fonctionnement de la planète, marqué par les échanges de matière et d’énergie.

Fourni par l'auteur

À lire aussi : Éloge des feuilles mortes, carburant indispensable des écosystèmes


Darwin, en 1881, nous disait à propos des vers de terre qu’il avait beaucoup étudiés, on le sait peu :

« Dieu sait comment s’obtient la fertilité du sol, et il en a confié le secret aux vers de terre. »

Il ajoutait ensuite :

« Il est permis de douter qu’il y ait beaucoup d’autres animaux qui aient joué dans l’histoire du globe un rôle aussi important que ces créatures d’une organisation si inférieure. »

Concernant la biodiversité des océans, et notamment celle des écosystèmes profonds, il est frappant de voir à quel point les chiffres avancés restent très approximatifs. On connaît moins la biodiversité, notamment marine, de notre planète que les étoiles dans notre univers.


À lire aussi : Les premières images d’un calamar colossal dans les fonds marins prises par des scientifiques


À ce propos, Evelyne Beaulieu, l’héroïne océanographe du dernier prodigieux roman de Richard Powers, Un jeu sans fin (2025), s’exclame, après une plongée dans l’archipel indonésien Raja Ampat :

« C’est presque absurde des compter les espèces. Rien que pour les cnidaires, il y a sans doute au moins un millier de variétés, dont un bon nombre qu’aucun humain n’a jamais vu. Combien d’espèces encore à découvrir ? Autant qu’on en veut ! Je pourrais passer ma vie à donner à des créatures ton nom et le mien. »

La diversité génétique

La diversité génétique demeure, ensuite, la deuxième manière d’aborder la biodiversité.

Elle est fondamentale à considérer, étant garante de la résilience des espèces comme des écosystèmes. Dans une forêt de hêtres présentant une diversité génétique importante des individus, ce sont bien les arbres qui génétiquement présentent la meilleure résistance aux aléas climatiques ou aux ravageurs qui permettront à cette forêt de survivre.

Si, à l’inverse, la forêt ou le plus souvent la plantation est constituée d’individus présentant un patrimoine génétique identique, une sécheresse exceptionnelle ou encore une attaque parasitaire affectant un arbre les affecterait tous et mettra en péril l’ensemble de la plantation.


À lire aussi : Changement climatique : la diversité génétique à l’origine de l’adaptation des arbres ?


Tous les chênes pubescents à feuillage dit marcescent de Provence n’ont pas conservé leurs feuilles mortes en hiver : conditions stationnelles différentes ou diversité génétique ? Fourni par l'auteur

La diversité des écosystèmes

Les écosystèmes sont également définis comme des ensembles où des organismes vivants (la biocénose) se trouvent en interaction avec leur environnement physique (le biotope) dans un espace délimité.

Écosystèmes et biodiversité sont ainsi indissociables, d’une part, parce que la diversité d’écosystèmes va de pair avec la diversité spécifique, mais surtout, d’autre part, parce que les interactions qui définissent ces écosystèmes se réalisent au travers des organismes vivants constituant cette même biodiversité spécifique. Maintenir dans un espace donné des écosystèmes diversifiés, c’est en même temps favoriser la biodiversité et le fonctionnement de chacun de ces écosystèmes.

Les paysages méditerranéens du sud de la France présentent ainsi une diversité d’écosystèmes où se côtoient pelouses sèches, garrigue ou maquis, forêts de pins, forêts de chênes verts, blancs ou liège, s’inscrivant tous dans une dynamique successionnelle, auxquels s’ajoutent oliveraies, champs de céréales ou de légumineuses, etc.

Raoul Dufy, Vue des remparts de Saint-Paul-de-Vence, 1919 : une diversité d’écosystèmes
Raoul Dufy, Vue des remparts de Saint-Paul-de-Vence, 1919 : une diversité d’écosystèmes.

Pallier le manque de connaissances ?

Pour dépasser la difficulté à inventorier complètement et partout ces différentes facettes de la biodiversité, le concept d’une biodiversité potentielle a été développé. Des forestiers ont ainsi mis au point l’indice de biodiversité potentielle (IBP), un outil scientifique particulièrement intéressant et pédagogique permettant d’évaluer le potentiel d’accueil d’un peuplement forestier par les êtres vivants (faune, flore, champignons), sans préjuger de la biodiversité réelle qui ne pourrait être évaluée qu’avec des inventaires complexes, non réalisables en routine.

La forêt d’exception de la Sainte-Baume en Provence : un IBP très élevé. Fourni par l'auteur

Cet IBP permet donc d’identifier les points d’amélioration possibles lors des interventions sylvicoles. Cet indicateur indirect et « composite », repose sur la notation d’un ensemble de dix facteurs qui permettent d’estimer les capacités d’accueil de biodiversité de la forêt.

Ainsi sera notée, par exemple, la présence ou non dans l’écosystème forestier de différentes strates de végétation, de très gros arbres, d’arbres morts sur pied ou au sol, mais aussi de cavités, de blessures, d’excroissances se trouvant au niveau des arbres et susceptibles d’abriter des organismes très divers, des coléoptères aux chiroptères.

La forêt de pins maritimes des Landes (Nouvelle-Aquitaine) : un IBP faible. Fourni par l'auteur

Enfin, cette biodiversité peut aussi s’exprimer au travers de la biodiversité fantôme, c’est-à-dire la biodiversité des espèces qui pourraient naturellement occuper un environnement du fait de leurs exigences écologiques, mais qui en sont absentes du fait des activités humaines.

De fait, chaque écosystème a, par les caractéristiques climatiques, géographiques, géologiques de son biotope, un potentiel de biodiversité – potentiel entravé par la main de l’être humain, ancienne ou récente. Dans les régions fortement affectées par les activités humaines, les écosystèmes ne contiennent que 20 % des espèces qui pourraient s’y établir, contre 35 % dans les régions les moins impactées ; un écart causé par la fragmentation des habitats qui favorise la part de la diversité fantôme.

Inventoriée, cachée, potentielle ou fantôme, la biodiversité n’en reste pas moins la clé du fonctionnement des écosystèmes et la clé de notre résilience au changement climatique.

En témoignent toutes les publications scientifiques qui s’accumulent montrant l’importance de cette diversité pour nos efforts d’atténuation et d’adaptation. De plus en plus menacée dans toutes ses composantes sur la planète, la biodiversité doit donc, plus que jamais, être explorée et décrite, notamment là où elle est la plus riche mais la moins connue.

The Conversation

Thierry Gauquelin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF
50 / 50
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Lava
La revue des médias
Le Grand Continent
Le Diplo
Le Nouvel Obs
Lundi Matin
Mouais
Multitudes
Politis
Regards
Smolny
Socialter
The Conversation
UPMagazine
Usbek & Rica
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
Contretemps
A Contretemps
Alter-éditions
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
Philo Mag
Terrestres
Vie des Idées
 
  ARTS
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
 
Fiabilité 3/5
Slate
Ulyces
 
Fiabilité 1/5
Contre-Attaque
Issues
Korii
Positivr
Regain
🌓