01.06.2025 à 09:27
Johan Lepage, Chercheur associé en psychologie sociale, Université Grenoble Alpes (UGA)
La recherche en psychologie sociale réfute la thèse de la banalité du mal. La violence dans les hiérarchies sociales est exercée par des individus qui se distinguent par un élément : leur orientation autoritaire – et ainsi par un comportement particulièrement coercitif, inégalitaire et intolérant.
Le chercheur en psychologie sociale Stanley Milgram publie en 1964 la première recherche expérimentale sur la soumission à l’autorité. Son protocole consiste à demander à des personnes volontaires d’infliger des décharges électriques à un autre participant (en réalité un compère de Milgram) dans le cadre d’une recherche prétendument sur les effets de la punition sur l’apprentissage. Un échantillon de psychiatres prédit une désobéissance quasi unanime, à l’exception de quelques cas pathologiques qui pourraient aller jusqu’à infliger un choc de 450 volts.
Les résultats provoquent un coup de tonnerre : 62,5 % des participants obéissent, allant jusqu’à administrer plusieurs chocs de 450 volts à une victime ayant sombré dans le silence après avoir poussé d’intenses cris de douleur. Ce résultat est répliqué dans plus d’une dizaine de pays auprès de plus de 3 000 personnes.
Ces données illustrent la forte propension à l’obéissance au sein de la population générale. Elles montrent également des différences individuelles importantes puisqu’environ un tiers des participants désobéit. Les caractéristiques socio-démographiques des individus et le contexte culturel semblent n’avoir aucune influence sur le comportement dans le protocole de Milgram. Comment expliquer alors les différences individuelles observées ?
Nous avons conduit une nouvelle série d’expériences dans les années 2010. Nos résultats montrent un taux d’obéissance similaire ainsi qu’une influence notable de l’autoritarisme de droite : plus les participants ont un score élevé à l’échelle d’autoritarisme de droite, plus le nombre de chocs électriques administrés est important.
La psychologie sociale traite la question de l’autoritarisme depuis plusieurs décennies. Cette branche de la psychologie expérimentale a notamment fait émerger dès les années 1930 une notion importante : celle d’attitude.
Une attitude désigne un ensemble d’émotions, de croyances, et d’intentions d’action à l’égard d’un objet particulier : un groupe, une catégorie sociale, un système politique, etc. Le racisme, le sexisme sont des exemples d’attitudes composées d’émotions négatives (peur, dégoût), de croyances stéréotypées (« les Noirs sont dangereux », « les femmes sont irrationnelles »), et d’intentions d’action hostile (discrimination, agression).
Les attitudes sont mesurées à l’aide d’instruments psychométriques appelés échelles d’attitude. De nombreux travaux montrent que plus les personnes ont des attitudes politiques conservatrices, plus elles ont également des attitudes intergroupes négatives (e.g., racisme, sexisme, homophobie), et plus elles adoptent des comportements hostiles (discrimination, agression motivée par l’intolérance notamment). À l’inverse, plus les personnes ont des attitudes politiques progressistes, plus elles ont également des attitudes intergroupes positives, et plus elles adoptent des comportements prosociaux (soutien aux personnes défavorisées notamment).
Les attitudes politiques et les attitudes intergroupes sont donc corrélées. Une manière d’analyser une corrélation entre deux variables est de postuler l’existence d’une source de variation commune, c’est-à-dire d’une variable plus générale dont les changements s’accompagnent systématiquement d’un changement sur les autres variables. Dit autrement, si deux variables sont corrélées, c’est parce qu’elles dépendent d’une troisième variable. La recherche en psychologie sociale suggère que cette troisième variable puisse être les attitudes autoritaires. Cette notion regroupe des attitudes exprimant des orientations hiérarchiques complémentaires :
l’orientation à la dominance sociale, une attitude orientée vers l’établissement de relations hiérarchiques, inégalitaires entre les groupes humains ;
l’autoritarisme de droite, une attitude orientée vers l’appui conservateur aux individus dominants.
La recherche en psychologie expérimentale, en génétique comportementale et en neurosciences montre invariablement que ce sont les attitudes autoritaires, plus que toute autre variable (personnalité, éducation, culture notamment), qui déterminent les attitudes intergroupes, les attitudes politiques, et ainsi le comportement plus ou moins coercitif, inégalitaire, et intolérant des personnes.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Étudions le cas d’un groupe : la police. Plusieurs études montrent que les policiers nouvellement recrutés ont des scores significativement plus élevés à l’échelle d’autoritarisme de droite que la population générale.
Ce résultat important suggère que les personnes autoritaires sont plus susceptibles de choisir une carrière dans la police (autosélection) et/ou que la police a tendance à privilégier les personnes autoritaires pour le recrutement (sélection). Les personnes autoritaires et l’institution policière semblent réciproquement attirées, ce qui entraîne un biais de sélection orienté vers l’autoritarisme de droite qui, on l’a vu, est responsable d’attitudes politiques conservatrices et d’attitudes intergroupes négatives.
À des fins de recherche, des universitaires ont développé un jeu vidéo simulant la situation d’un policier confronté à une cible ambiguë et devant décider de tirer ou non. Des personnes noires ou blanches apparaissent sur un écran de manière inattendue, dans divers contextes (parc, rue, etc.) Elles tiennent soit un pistolet, soit un objet inoffensif comme un portefeuille. Dans une étude menée aux États-Unis, les chercheurs ont comparé la vitesse à laquelle les policiers décident de tirer, ou de ne pas tirer, dans quatre conditions :
(i) cible noire armée,
(ii) cible blanche armée,
(iii) cible noire non armée,
(iv) cible blanche non armée.
Les résultats montrent que les policiers décidaient plus rapidement de tirer sur une cible noire armée, et de ne pas tirer sur une cible blanche non armée. Ils décidaient plus lentement de ne pas tirer sur une cible noire non armée, et de tirer sur une cible blanche armée. Ces résultats montrent un biais raciste dans la prise de décision des policiers. Ils réfutent l’hypothèse d’une violence policière exercée par seulement « quelques mauvaises pommes ».
On observe dans toutes les régions du monde une sur-représentation des groupes subordonnés parmi les victimes de la police (e.g., minorités ethniques, personnes pauvres). Les chercheurs en psychologie sociale Jim Sidanius et Felicia Pratto proposent la notion de terreur systémique (systematic terror) pour désigner l’usage disproportionné de la violence contre les groupes subordonnés dans une stratégie de maintien de la hiérarchie sociale.
On peut s’interroger sur la présence dans la police de membres de groupes subordonnés (e.g., minorités ethniques, femmes).
Une explication est l’importance des coalitions dans les hiérarchies sociales tant chez les humains que chez les primates non humains, comme les chimpanzés, une espèce étroitement apparentée à la nôtre. On reconnaît typiquement une coalition quand des individus menacent ou attaquent de manière coordonnée d’autres individus. Le primatologue Bernard Chapais a identifié plusieurs types de coalition, notamment :
les coalitions conservatrices (des individus dominants s’appuient mutuellement contre des individus subordonnés qui pourraient les renverser) ;
l’appui conservateur aux individus dominants (des individus subordonnés apportent un appui aux individus dominants contre d’autres individus subordonnés) ;
les coalitions xénophobes (des membres d’un groupe attaquent des membres d’un autre groupe pour la défense ou l’expansion du territoire).
La police regroupe des individus subordonnés motivés par l’appui conservateur aux individus dominants (tel que mesuré par l’échelle d’autoritarisme de droite) et la xénophobie (telle que mesurée par les échelles de racisme).
Dans son ensemble, la recherche en psychologie sociale réfute la thèse de la banalité du mal. La violence dans les hiérarchies sociales est exercée par des individus qui se distinguent par leur orientation autoritaire, et ainsi par un comportement particulièrement coercitif, inégalitaire, et intolérant.
Le mauvais état de la démocratie dans le monde suggère une prévalence importante des traits autoritaires. Lutter contre l’actuelle récession démocratique implique, selon nous, la compréhension de ces traits.
Johan Lepage ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
30.05.2025 à 11:25
Céline Leroy, Directrice de recherche en écologie tropicale, Institut de recherche pour le développement (IRD)
Avez-vous déjà observé une plante avec des feuilles de formes différentes ? Ce phénomène, à la fois surprenant et fascinant, porte un nom : l’hétérophyllie. Loin d’être une bizarrerie botanique, il s’agit d’une véritable stratégie d’adaptation, permettant à certains végétaux de mieux faire face à la diversité des contraintes de leur environnement.
Vous avez sans doute déjà croisé du houx en forêt, dans un jardin ou même en décoration de Noël. Ses feuilles piquantes sont bien connues. Mais avez-vous déjà remarqué que toutes ne sont pas armées de piquants ? Sur une même plante, on trouve des feuilles épineuses en bas, et d’autres lisses plus haut. Ce n’est pas une erreur de la nature, mais un phénomène botanique fascinant : l’hétérophyllie, un mot qui vient du grec heteros signifiant différent, et de phullon, qui désigne la feuille.
Cette particularité s’observe chez de nombreuses espèces, aussi bien terrestres qu’aquatiques, où un même individu peut produire des feuilles très différentes par leur taille, leur forme, leur structure, voire leur couleur. Loin d’être simplement esthétique, cette diversité joue un rôle crucial dans la survie, la croissance et la reproduction des plantes.
Mais d’où vient cette capacité à changer de feuilles ? L’hétérophyllie peut en fait être déclenchée par des variations de l’environnement (lumière, humidité, faune herbivore…). Cette faculté d’adaptation est alors le résultat de ce qu’on appelle la plasticité phénotypique. L’hétérophyllie peut aussi résulter d’une programmation génétique propre à certaines espèces, qui produisent naturellement plusieurs types de feuilles. Quelle qu’en soit l’origine, la forme d’une feuille est le résultat d’une série d’ajustements complexes en lien avec les conditions environnementales du milieu.
Si l’on reprend le cas du houx commun (Ilex aquifolium), celui-ci offre un exemple frappant d’hétérophyllie défensive en réaction à son environnement. Sur un même arbuste, les feuilles basses, à portée d’herbivores, ont des piquants ; celles plus haut sur la tige, hors d’atteinte des animaux, sont lisses et inoffensives. Cette variation permet à la plante d’optimiser ses défenses là où le danger est réel, tout en économisant de l’énergie sur les zones moins exposées, car produire des épines est coûteux.
Des recherches ont montré que cette répartition n’est pas figée. Dans les zones très pâturées, les houx produisent plus de feuilles piquantes, y compris en hauteur, ce qui indique une capacité de réaction à la pression exercée par les herbivores. Cette plasticité phénotypique est donc induite par l’herbivorie. Mais le houx n’est pas un cas isolé. D’autres plantes déploient des stratégies similaires, parfois discrètes, traduisant une stratégie adaptative : modifier la texture, la forme ou la structure des feuilles pour réduire l’appétence ou la digestibilité, et ainsi limiter les pertes de tissus.
La lumière joue un rôle tout aussi déterminant dans la morphologie des feuilles. Chez de nombreuses espèces, les feuilles exposées à une lumière intense n’ont pas la même forme que celles situées à l’ombre.
Les feuilles dites « de lumière », que l’on trouve sur les parties supérieures de la plante ou sur les branches bien exposées, sont souvent plus petites, plus épaisses et parfois plus profondément découpées. Cette forme favorise la dissipation de la chaleur, réduit les pertes d’eau et augmente l’efficacité de la photosynthèse en milieu lumineux. À l’inverse, les feuilles d’ombre, plus grandes et plus minces, sont conçues pour maximiser la surface de captation de lumière dans des conditions de faible éclairement. Elles contiennent souvent davantage de chlorophylle, ce qui leur donne une couleur plus foncée.
Ce contraste est particulièrement visible chez les chênes, dont les feuilles supérieures sont épaisses et lobées, tandis que celles situées plus bas sont larges, souples et moins découpées. De très nombreuses plantes forestières présentent également ces différences. Sur une même plante, la lumière peut ainsi façonner les feuilles en fonction de leur position, illustrant une hétérophyllie adaptative liée à l’exposition lumineuse.
Chez les plantes aquatiques ou amphibies, l’hétérophyllie atteint des formes encore plus spectaculaires. Certaines espèces vivent en partie dans l’eau, en partie à l’air libre et doivent composer avec des contraintes physiques très différentes.
C’est le cas de la renoncule aquatique (Ranunculus aquatilis), qui produit des feuilles très différentes selon leur emplacement. Les feuilles immergées sont fines, allongées et très découpées, presque filamenteuses.
Cette morphologie réduit la résistance au courant, facilite la circulation de l’eau autour des tissus et améliore les échanges gazeux dans un milieu pauvre en oxygène. En revanche, les feuilles flottantes ou émergées sont larges, arrondies et optimisées pour capter la lumière et absorber le dioxyde de carbone de l’air. Ce phénomène est réversible : si le niveau d’eau change, la plante ajuste la forme de ses nouvelles feuilles.
La sagittaire aquatique (Sagittaria spp.) présente elle aussi une hétérophyllie remarquable, avec des feuilles émergées en forme de flèche, épaisses et rigides et des feuilles souvent linéaires et fines sous l’eau. Ces changements illustrent une stratégie morphologique adaptative, qui permet à une même plante d’exploiter efficacement des milieux radicalement différents.
Pour suivre au plus près les questions environnementales, retrouvez chaque jeudi notre newsletter thématique « Ici la Terre ».
Mais l’hétérophyllie ne résulte pas toujours de l’environnement. Chez de nombreuses espèces, elle accompagne simplement le développement naturel de la plante. À mesure que la plante grandit, elle passe par différents stades de développement, au cours desquels elle produit des feuilles de formes distinctes.
Ce processus, appelé « hétéroblastie », marque bien souvent le passage entre les phases juvénile et adulte. Un exemple classique est celui du lierre commun (Hedera helix). Les tiges rampantes ou grimpantes portent des feuilles lobées caractéristiques du stade juvénile, tandis que les tiges qui portent les fleurs, situées en hauteur, portent des feuilles entières et ovales. Ce changement est irréversible et marque l’entrée de la plante dans sa phase reproductive.
À lire aussi : Le lierre « tueur d’arbre » : entre préjugés, ignorance et réalité
Un autre exemple frappant est celui de certains acacias australiens. Les jeunes individus développent des feuilles composées, typiques des légumineuses. À mesure qu’ils grandissent, ces feuilles sont progressivement remplacées par des phyllodes, des pétioles (c’est-à-dire la partie qui unit chez la plupart des plantes la base de la feuille et la tige) élargis qui assurent la photosynthèse tout en limitant l’évaporation (voir planche dessins, ci-dessous). Ces structures en forme de faucille sont particulièrement bien adaptées aux climats chauds et secs, car elles peuvent maintenir une activité photosynthétique efficace tout en minimisant les pertes hydriques.
Les mécanismes qui permettent à une plante de modifier la forme de ses feuilles sont complexes et encore mal compris. On connaît mieux les formes que prennent les feuilles que les mécanismes qui les déclenchent ou les fonctions qu’elles remplissent.
Chez certaines espèces, des hormones végétales telles que l’éthylène, l’acide abscissique (ABA), les auxines ou encore les gibbérellines (GA) jouent un rôle central dans le déclenchement des différentes formes de feuilles. Chez le houx, la différence entre feuilles piquantes et lisses serait liée à des modifications réversibles de la structure de l’ADN, sans altération des gènes eux-mêmes, déclenchées par la pression exercée par les herbivores.
Les plantes hétéroblastiques, quant à elles, sont principalement contrôlées par des mécanismes génétiques et moléculaires. La succession des types de feuilles au cours du développement peut néanmoins être accélérée ou retardée en fonction des conditions de croissance, traduisant une interaction fine entre développement et environnement.
La régulation de l’hétérophyllie repose ainsi sur une combinaison d’interactions hormonales, génétiques, épigénétiques et environnementales. Ce phénomène constitue également un exemple remarquable de convergence évolutive, car l’hétérophyllie est apparu indépendamment dans des lignées végétales très différentes. Cela suggère qu’il s’agit d’une solution robuste face à la diversité des conditions présentes dans l’environnement.
Les recherches futures, notamment grâce aux outils de génomique comparative, d’épigénomique et de transcriptomique, permettront sans doute de mieux comprendre l’évolution et les avantages adaptatifs de cette étonnante plasticité des formes de feuilles.
Céline Leroy a reçu des financements de ANR et de l'Investissement d'Avenir Labex CEBA, Centre d'Etude de la Biodiversité Amazonienne (ref. ANR-10-LABX-25-01).
29.05.2025 à 20:00
Nicolas Rascovan, Chercheur à l'Institut Pasteur, Université Paris Cité
Charlotte Avanzi, Assistant Professor, Colorado State University
Maria Lopopolo, Chercheur à l'Institut Pasteur, Université Paris Cité
Longtemps considérée comme une maladie infectieuse introduite en Amérique par les colonisateurs européens, la lèpre pourrait en fait avoir une histoire bien plus ancienne et plus complexe sur le continent. Une nouvelle étude internationale, publiée aujourd’hui dans la revue Science, révèle que Mycobacterium lepromatosis, une bactérie récemment identifiée qui cause la lèpre, infecte les humains en Amérique depuis au moins 1 000 ans, soit plusieurs siècles avant le contact européen.
La lèpre est une maladie chronique ancienne qui se manifeste par des lésions de la peau, des nerfs périphériques, de la muqueuse des voies respiratoires supérieures ainsi que des yeux. Elle est présente dans plus de 120 pays et 200 000 cas sont notifiés chaque année selon l’OMS. Les personnes touchées par la lèpre sont atteintes de difformités physiques et sont également confrontées à la stigmatisation et à la discrimination. Cependant, la lèpre est curable et le traitement à un stade précoce permet d’éviter les séquelles.
Cette maladie a longtemps été associée à une seule bactérie : Mycobacterium leprae, responsable de la forme dite « classique » de la maladie, décrite dans les manuels et prédominante à l’échelle mondiale. En 2008, une seconde espèce, Mycobacterium lepromatosis, a été identifiée au Mexique. Elle provoque des symptômes cliniquement très similaires, si bien qu’elle passe souvent inaperçue – seuls des tests génétiques ciblés permettent de la distinguer de M. leprae. Bien que le développement d’outils génétiques ait permis une intensification des recherches sur cette bactérie, les cas humains confirmés restaient principalement localisés en Amérique, notamment au Mexique et dans la région des Caraïbes. En 2016, la découverte inattendue de M. lepromatosis chez des écureuils roux dans les îles Britanniques – un réservoir animal dans une zone non endémique – a soulevé la question de l’origine géographique de cette bactérie.
Malgré des recherches intensives dans les données d'ADN anciens européens, M. lepromatosis n’a jamais été détectée sur le continent. C’est dans ce contexte que l’hypothèse d’une origine américaine a pris de l’ampleur. Notre projet est né d’une découverte fortuite de cette espèce dans les données publiées d’un individu d’Amérique du Nord daté à 1 300 ans avant le présent. Ce signal inattendu nous a conduits à étendre nos recherches, en retraçant sa présence passée par des analyses d’ADN ancien, et en documentant sa diversité actuelle à travers des cas modernes, pour mieux comprendre l’histoire et la circulation de ce pathogène largement négligé.
Cette étude est essentielle pour éclairer les mécanismes de transmission des bactéries responsables de la lèpre, en particulier en tenant compte de la diversité des réservoirs possibles. En reconstituant l’histoire évolutive et la distribution géographique de M. lepromatosis, nous espérons mieux comprendre comment cette bactérie se transmet encore aujourd’hui.
Nous avons analysé près de 800 échantillons, y compris des restes anciens d’ancêtres autochtones (couvrant plusieurs millénaires, jusqu’à 6 000 ans en arrière) et des cas cliniques modernes. Nos résultats confirment que M. lepromatosis était déjà largement répandue, du nord au sud du continent américain, bien avant la colonisation, et apportent une nouvelle perspective sur les souches qui circulent aujourd’hui.
Cette découverte modifie en profondeur notre compréhension de l’histoire de la lèpre en Amérique. Elle montre que la maladie était déjà présente parmi les populations autochtones depuis des siècles avant le contact européen, et qu’elle a évolué localement sur le continent.
Un aspect essentiel de ce projet a été la collaboration avec des communautés autochtones du Canada et d’Argentine. Celles-ci ont été activement impliquées dans les décisions concernant l’étude des restes humains anciens, la restitution des matériaux, ainsi que l’interprétation des résultats. Une représentante autochtone figure parmi les autrices de l’article. Cette démarche vise à respecter les principes d’éthique de la recherche et à renforcer le dialogue entre sciences et savoirs communautaires.
Nous avons mené le dépistage le plus vaste jamais réalisé pour ce pathogène, en analysant à la fois des restes humains anciens et des échantillons cliniques provenant de cinq pays : Mexique, États-Unis, Brésil, Paraguay et Guyane française. La plupart des cas positifs ont été identifiés au Mexique et aux États-Unis, ce qui reflète probablement à la fois une présence réelle du pathogène dans ces régions, mais aussi un échantillonnage plus intensif dans ces pays.
Pour retrouver des traces de pathogènes dans des restes humains anciens, nous avons utilisé une approche paléogénomique, une discipline qui permet d’extraire et d’analyser l’ADN conservé dans les os ou dans les dents pendant des siècles, voire des millénaires. Ce que nous récupérons est un mélange très complexe : de l’ADN du sol, des bactéries environnementales, de la personne décédée, et parfois – si l’individu était malade au moment de sa mort – de l’ADN de l’agent pathogène qui l’a infecté. Grâce aux technologies de séquençage à haut débit, nous lisons tous ces fragments d’ADN (souvent très courts, entre 30 et 100 bases), puis nous les comparons à de grandes bases de données contenant les génomes de tous les agents pathogènes connus.
Dans ce cas précis, nous avons identifié dans les échantillons anciens de petits fragments d’ADN couvrant environ 80 % du génome de Mycobacterium lepromatosis, ce qui nous a permis de confirmer sa présence chez un individu précolombien. Ensuite, nous avons concentré nos efforts sur cet échantillon pour récupérer davantage de fragments du pathogène, jusqu’à pouvoir reconstituer son génome complet. Cela nous a permis non seulement de confirmer l’infection, mais aussi d’analyser l’évolution génétique de la bactérie à travers le temps.
Fait remarquable, la bactérie a été retrouvée dans les ossements de trois individus anciens – une femme originaire du Canada actuel, datée par radiocarbone à environ 1 300 ans avant le présent (AP), et une femme et un homme d’Argentine actuelle, datés à environ 900 ans AP. Bien que séparés par plus de 10 000 km, leurs infections datent d’une période relativement proche (il y a près de 1 000 ans), et leurs souches sont génétiquement et évolutivement similaires. Cela suggère que la bactérie s’était largement répandue sur le continent en seulement quelques siècles. On ignore encore si cette dispersion rapide est due à des réseaux humains (commerce, contacts) ou à des animaux à forte mobilité.
Notre étude permet également de mieux comprendre un mystère ancien : la présence de Mycobacterium lepromatosis chez les écureuils roux dans les îles Britanniques. En 2016, une étude menée par la Dre Charlotte Avanzi, aujourd’hui co-première autrice de notre travail, avait révélé pour la première fois que ces animaux étaient porteurs de la bactérie, mais sans pouvoir expliquer son origine ni comment elle avait atteint les îles Britanniques.
Grâce à nos nouvelles analyses phylogénétiques, nous montrons que ces souches animales appartiennent à un lignage dérivé d’un ancêtre commun qui aurait émergé il y a environ 3 200 ans – bien avant les premiers contacts transatlantiques –, mais que leur diversification locale n’a commencé qu’au XIXe siècle. Cela suggère fortement une introduction récente depuis les Amériques, suivie d’une expansion dans la population d’écureuils. C’est la première preuve que M. lepromatosis, historiquement endémique aux Amériques, a commencé à se diffuser sur d’autres continents – une dynamique inverse à celle de M. leprae, arrivé en Amérique depuis l'Europe et l'Afrique avec la colonisation.
Ces résultats soulèvent des implications importantes en santé publique et appellent à surveiller la propagation intercontinentale de ce pathogène.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Parmi les découvertes les plus frappantes de notre étude figure l’identification d’un lignage très ancien de Mycobacterium lepromatosis, appelé NHDP-LPM-9, que nous avons retrouvé chez deux personnes aux États-Unis. Ce lignage se distingue de toutes les autres souches connues par un nombre significativement plus élevé de mutations, et notre analyse suggère qu’il aurait divergé des autres lignages, il y a plus de 9 000 ans. À titre de comparaison, la grande majorité des souches modernes que nous avons analysées – 24 sur 26 – appartiennent à un groupe beaucoup plus homogène, que nous avons appelé « clade dominant actuel » (Present-Day Dominant Clade, ou PDDC), qui représente environ deux tiers de la diversité génétique connue aujourd’hui. Ce clade semble s’être étendu après la colonisation européenne, probablement en lien avec les profonds bouleversements sociaux, écologiques et démographiques de l’époque.
La co-circulation actuelle de deux lignages ayant divergé il y a plusieurs millénaires suggère que d’autres lignées anciennes pourraient encore exister, mais être passées inaperçues jusqu’ici. Étant donné sa très faible fréquence apparente dans les cas humains récents, il est probable que M. lepromatosis ait évolué en partie dans un ou plusieurs réservoirs, depuis lesquels il pourrait occasionnellement infecter des humains. Ces résultats soulignent l’importance de mieux surveiller ce pathogène, encore très mal connu, pour en comprendre les mécanismes d’infection et de transmission.
Cette recherche bouleverse non seulement notre compréhension de l’origine de la lèpre, mais contribue à une question plus large : quelles maladies infectieuses existaient en Amérique avant 1492 ? Depuis des siècles, chercheurs et communautés autochtones s’interrogent sur le rôle des maladies dans l’histoire du continent. Cette étude apporte une nouvelle pièce à ce puzzle complexe.
Nicolás Rascovan est membre de l'UMR 2000 du CNRS Nicolás Rascovan a reçu financement Européen de l'ERC et Français de l'ANR
Charlotte Avanzi a reçu des financements de la Fondation Raoul Follereau
Maria Lopopolo a été financée pendant sa thèse de doctorat par l’Agence Nationale de la Recherche (ANR) et la Fondation pour la Recherche Médicale (FRM).
28.05.2025 à 17:03
François-Xavier Dudouet, Directeur de recherche sociologie des grandes entreprises, Université Paris Dauphine – PSL
En se rapprochant du président des États-Unis et en devenant son Doge -(poste qu’il vient de quitter) Elon Musk semblait avoir tout réussi et cumulé tous les pouvoirs : politique, économique, idéologique… Patatras ! En quelques semaines, son implication politique a eu des répercussions sur ses activités de chef d’entreprise de Tesla. La marque a été chahutée, au point qu’il est devenu possible de se poser une question qui aurait semblé impensable il y a six mois encore : et si l’avenir de Tesla se faisait sans Musk ? Est-ce souhaitable ? Possible ?
Le 1er mai 2025, le Wall Street Journal publiait un article selon lequel le conseil d’administration de Tesla avait entamé des démarches pour remplacer Elon Musk au poste de directeur général. L’annonce était aussitôt démentie par l’intéressé mais aussi par la présidente du conseil d’administration, Robyn Denholm, qui assurait que l’ensemble des administrateurs maintenait sa pleine confiance dans l’actuel directeur général. Cette annonce, qui semble avoir fait long feu, est l’occasion de revenir sur le fonctionnement de la gouvernance des grandes entreprises et de voir si, techniquement un actionnaire important, fût-il l’homme le plus riche du monde, peut être renvoyé l’entreprise qu’il dirige.
Pour rappel, Elon Musk dirige trois sociétés : SpaceX qu’il a fondé en 2002, Tesla, dont il a pris le contrôle entre 2004 et 2008 et X (ex-Twitter) qu’il a racheté en 2022. Sa fortune provient essentiellement des actions Tesla dont la valorisation spectaculaire en 2024 a fait de lui l’homme le plus riche du monde. Toutefois, le cours de l’action Tesla s’est depuis effondré, atteignant un plus bas à 221 $ en avril 2025 contre 479 $ en décembre 2024. Dans le même temps, la société affichait des ventes en recul de 13 % et des bénéfices en chute de 71 %. Très fortement engagé auprès de Donald Trump et de son administration, Elon Musk est régulièrement accusé de nuire à l’image de marque du constructeur et, surtout, d’avoir délaissé la gestion quotidienne de la compagnie. C’est dans ce contexte que prennent place les révélations du Wall Street Journal.
L’histoire du monde des affaires fourmille d’exemples de dirigeants actionnaires qui ont été contraints à la démission. Pour s’en tenir à l’univers de la Tech, on se rappelle que ce fut le cas de Steve Jobs, qui, bien que fondateur et actionnaire d’Apple, avait été poussé vers la sortie par le directeur général de l’époque, John Sculley, soutenu par le conseil d’administration. Larry Page et Sergei Brin, les fondateurs de Google, ont eux aussi très tôt laissé les rênes de la firme à un manager expérimenté, Eric Schmidt choisi par le conseil d’administration pour mener à bien l’introduction en bourse de la société. Les deux fondateurs d’Uber, Travis Kalanick et Garrett Camp, ont été progressivement écartés au point, aujourd’hui, de ne même plus être administrateurs de la société.
Elon Musk n’a pas fait autre chose à la tête de Tesla. Arrivé comme investisseur en 2004, il entre au conseil d’administration et en devient le président. Quelques années plus tard, il force le fondateur et directeur général, Martin Eberhard, à la démission. Après deux directeurs généraux intérimaires, il prend lui-même la direction exécutive de Tesla en 2008, cumulant les fonctions de président et de directeur général jusqu’en 2018, date à laquelle il est contraint, par la Securities and Exchange Commission d’abandonner la présidence du conseil d’administration. Ces différents exemples montrent bien qu’il ne suffit pas d’être actionnaire, ni même de détenir la majorité des droits de vote, pour diriger une société par actions. Il est primordial d’avoir l’appui du conseil d’administration car c’est cette instance qui, au final, fait et défait les directeurs généraux.
Les sociétés par actions ne sont pas des propriétés privées de leurs dirigeants mais des entités autonomes ayant une personnalité juridique et une existence propres. Les actions ne sont pas, en effet, des titres de propriété mais des droits sur la société. Les actionnaires, même quand ils possèdent la majorité des droits de vote, ne peuvent faire ce qui leur semble bon. Ils ne peuvent même pas pénétrer dans l’entreprise pour y prendre un boulon. Celui-ci appartient à la société non à eux. Les actionnaires ne sont donc pas les dirigeants par défaut ou par principe des sociétés par actions.
À lire aussi : Combien coûte l’ego d’Elon Musk ? Ou quand l’hubris des dirigeants devient un risque systémique
Cette fonction est dévolue au conseil d’administration, certes élu par les actionnaires, mais qui n’est pas, contrairement à ce qu’affirme la théorie économique dominante, au service de ces derniers. Les administrateurs ne représentent pas les actionnaires mais la société, dont ils sont les mandataires sociaux, c’est-à-dire les personnes qui sont habilitées à penser et à agir au nom de la société. S’ils suivent des politiques qui vont dans le sens des actionnaires, c’est qu’ils y trouvent leur intérêt, non qu’ils y soient légalement tenus. Leur pouvoir sur la société est très étendu : ils décident des grandes orientations stratégiques, établissent les comptes, proposent les dividendes, décident des émissions d’actions nouvelles et surtout nomment le directeur général. Leur autonomie est telle qu’ils sont en mesure de se coopter entre eux et de faire valider leur choix par les assemblées générales. C’est pourquoi il est important de se tourner vers la composition du conseil d’administration de Tesla pour comprendre comment Elon Musk a construit sa position de directeur général.
L’examen de la composition du conseil d’administration de Tesla montre, à première, vue des administrateurs totalement acquis à la cause s’Elon Musk. On y trouve tout d’abord Kimbal Musk, son frère, membre du conseil depuis 2004. Il a jusqu’à présent été loyal envers son aîné même si, contrairement à lui, il n’a pas renié ses convictions démocrate et écologiste. Ira Ehrenpreis est l’un des tous premiers investisseurs de Tesla. Présent au conseil d’administration depuis 2006, il peut être considéré comme un fidèle soutien. Robyn Denhom, la présidente du conseil d’administration, a été choisie par Elon Musk pour prendre sa place quand il a été contraint d’abandonner la fonction. Australienne d’origine, Robyn Denhom était assez peu connue du monde des affaires américain avant de devenir administratrice puis présidente de la compagnie. James Murdoch, administrateur depuis 2017, est le fils du magnat de la presse Robert Murdoch dont la chaine Fox News est un soutien indéfectible de Donald Trump. Joe Gebbia, administrateur depuis 2022, est le co-fondateur de Airbnb. Il a rejoint Elon Musk au Département de l’efficacité gouvernementale en février dernier.
Abonnez-vous dès aujourd’hui !
Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).
Kathleen Wilson-Thompson a fait toute sa carrière dans l’industrie pharmaceutique comme directrice des ressources humaines. Elle est sans doute l’administratrice la plus éloignée d’Elon Musk mais apportant au conseil le quota de féminisation et de diversité qui lui manque par ailleurs. Jeffrey Brian Straubel, enfin, est l’ancien directeur technique de Tesla. Présent dès les origines, il se flatte d’avoir été le cinquième employé de la société. Sa nomination en 2023 a fait grand bruit en raison des liens jugés trop étroits avec Elon Musk. Que ce soit par fraternité, idéologie ou carriérisme, les motifs de soutien à Elon Musk ne manquent pas. Ils sont encore renforcés par une politique de rémunération particulièrement généreuse à l’égard du conseil d’administration dont les membres s’attribuent régulièrement d’importants plans de stock-options. Robyn Denholm est ainsi la présidente la mieux rémunérée de l’ensemble des sociétés cotées américaines.
Elon Musk n’est pas en reste bénéficiant de plans d’actions très avantageux octroyés par le conseil d’administration. Il existe entre Elon Musk et son conseil un circuit d’enrichissement réciproque qui n’est pas sans rappeler les relations d’interdépendances décrites par le sociologue Norbert Elias à propos de la cour de Louis XIV tant les chances de profits de l’un sont liées à celles des autres. Ainsi que le rapportait récemment Olivier Alexandre, un autre sociologue, de la bouche d’un journaliste spécialiste de la Silicon Valley : « Si tu veux comprendre ce qui se passe ici, il faut suivre l’argent ».
Or, les flux d’argent se sont récemment taris chez Tesla. En premier lieu, des décisions de justice ont remis en question les rémunérations que les mandataires sociaux s’étaient attribuées. En novembre 2024, la cour du Delaware a annulé le plan d’actions attribué à Elon Musk en 2018 qui lui aurait permis d’empocher 58 milliards $, au motif que les actionnaires n’avaient pas été correctement informés.
En janvier 2025, la même cour du Delaware constatait que les administrateurs de Tesla s’étaient indûment enrichis au détriment des actionnaires et approuvait un accord par lequel les premiers s’engageaient à rembourser près d’un milliard de dollars. Dans le même temps, alors que le cours de l’action de Tesla commençait à baisser, de nombreux administrateurs se sont délestés de leurs actions, quitte à accélérer la chute. Était-ce pour faire face à leur récente condamnation ou bien pour ne pas risquer de trop perdre ? Le fait est qu’ils ont vendu dans un contexte peu favorable et envoyé un signal très négatif aux investisseurs.
Ainsi, la présidente, Robyn Denhom, a vendu pour 200 millions $ d’actions depuis le mois de décembre 2024, Kimbal Musk s’est séparé de 75 000 actions Tesla pour la somme de 28 millions $ en février 2025, James Murdoch a à son tour a vendu 54.000 actions en mars 2025 pour 13 millions $ contribuant à la plus forte baisse journalière du titre. En mai, alors que le cours de l’action était bien remonté, c’est Kathleen Wilson-Thompson qui vend pour 92 millions $ d’actions Tesla. La fidélité des administrateurs à l’égard d’Elon Musk a donc ses limites qui sont visiblement la crainte de ne pas s’enrichir assez.
La réponse à la question initiale de savoir si l’homme le plus riche du monde peut être renvoyé de l’entreprise qu’il dirige, fût-il le premier actionnaire, est donc oui. Les statuts juridiques de la société par actions confèrent la capacité de nommer ou de révoquer le directeur général aux administrateurs non aux actionnaires. Ce sont donc les rapports sociaux entre le conseil d’administration et le directeur général qui décident du sort de ce dernier. Dans le cas de Tesla, l’argent y jouait un rôle central, il n’est donc pas étonnant qu’ils soient entrés en crise au moment où la société commençait à connaître des difficultés financières. Le fonctionnement du conseil d’administration de Tesla est certainement peu ordinaire mais il invite à se demander si le fondement du pouvoir économique dans les sociétés par actions ne repose pas tant sur l’argent détenu que sur celui que l’on peut faire gagner.
François-Xavier Dudouet est membre du CNRS. I a reçu des financements de l'Agence nationale de la recherche
28.05.2025 à 17:02
Clotilde Champeyrache, Maitre de Conférences HDR, Conservatoire national des arts et métiers (CNAM)
Un rapport européen analyse les mutations de la criminalité liées au numérique et à l’intelligence artificielle. Quel est le nouveau visage du crime ? Quelles sont les permanences ? Quelles politiques publiques pour répondre aux menaces, au-delà du narcotrafic, qui cristallise l’essentiel de l’attention politique et médiatique en France ?
Comme tous les quatre ans, Europol, l’agence de coopération policière européenne, a publié en mars dernier son rapport UE-Socta faisant le point sur la menace posée par la grande criminalité organisée en Europe. À partir des informations fournies par les États membres de l’Union européenne (UE) et des États tiers associés, Europol y analyse « les principales menaces criminelles, la dynamique des réseaux criminels et les tendances émergentes ». Cette synthèse permet d’établir des priorités dans la lutte que l’UE se doit de mener dans le champ de la criminalité et de proposer des moyens d’adapter cette lutte aux évolutions du panorama criminel.
L’accent est mis tout particulièrement sur les enjeux du numérique et sur une « hybridation » du crime. La lecture du document fait opportunément prendre du recul par rapport à la focalisation française actuelle sur le trafic de stupéfiants. Cependant, les évolutions observées ne doivent pas faire oublier les permanences de la criminalité organisée.
Le rapport EU-Socta 2025 dresse un panorama du crime européen sous plusieurs angles : secteurs d’activités, dynamiques, tactiques et géographie sont analysés. Le recours accru aux nouvelles technologies, aux plateformes digitales et les risques d’appropriation criminelle des possibilités offertes par l’intelligence artificielle sont amplement soulignés.
Internet est attractif pour les réseaux criminels : des activités criminelles sont à la fois permises, amplifiées et masquées par le monde online. L’intelligence artificielle est, elle, porteuse de risques majeurs par sa capacité à augmenter la rapidité, l’échelle et la sophistication de la criminalité organisée. Elle permet par exemple d’amplifier les fraudes et arnaques grâce aux deepfakes). Ces risques font d’ailleurs déjà l’objet d’une réflexion de l’Université des Nations unies qui œuvre, depuis 2021, à l’élaboration d’une Convention internationale afin de contrer l’utilisation des technologies de l’information et de la communication à des fins criminelles.
Les débats ont notamment établi une distinction entre des crimes « cyber-dependent », c’est-à-dire réalisables uniquement via l’espace cyber (soit la cybercriminalité au sens de « crime high-tech »), et des crimes « cyber-enabled », à savoir des crimes potentialisés par le cyber, mais qui existaient déjà auparavant (comme peut l’être le trafic de substances prohibées en ligne).
Répondre à ce déploiement des activités criminelles en ligne suppose que les services d’enquête eux-mêmes se forment à ces nouvelles technologies. Cela pose par ailleurs la question du contrôle régalien sur un espace Internet échappant par essence à la réglementation. L’arbitrage entre les devoirs de coopération avec les forces de l’ordre des prestataires de certains services dévoyés par le crime et le respect des libertés individuelles reste une ligne de crête complexe à gérer. La problématique risque d’alimenter nombre de débats politiques et juridiques dans les années à venir.
L’arrestation du patron de Telegram), en France, illustre ce bras de fer. Il en va de même pour le bras de fer aux États-Unis opposant les partisans d’une mise en ligne des plans d’impression d’armes en 3D et la justice).
L’instabilité géopolitique est aussi désignée comme un facteur favorisant l’expansion des réseaux criminels. Les conflits par nature alimentent les trafics : armes, prostitution, stupéfiants, marché noir… La multiplication des guerres et des troubles intérieurs dans diverses régions du monde ces dernières années ne peut qu’alarmer les autorités.
Pour l’Europe, la guerre en Ukraine constitue une menace extrêmement proche. Le risque de circulation d’armes détournées du théâtre de guerre a été appréhendé dès le début du conflit. Mais les facteurs criminogènes du conflit sont plus étendus puisqu’ils concernent notamment la production de stupéfiants à destination du front, le trafic de dispense pour le service militaire, l’exploitation de la population en fuite.
De manière peut-être moins visible, l’instabilité géopolitique accrue crée ce qu’Europol appelle des phénomènes d’hybridation. Ce sont des configurations où les intérêts de la criminalité organisée rejoignent ceux d’acteurs, éventuellement étatiques, tirant profit de la déstabilisation d’autres États ou de certaines régions du monde. L’utilisation de groupes cybercriminels par des États à des buts de déstabilisation et d’ingérence est prise en compte par la DGSI, Direction générale de la sécurité intérieure). Mais cela ne se limite pas au cyberespace. Europol explicite comment des réseaux criminels de traite des êtres humains peuvent travailler pour des États. Le but est alors d’utiliser des masses migratoires à des fins de déstabilisation). Cette hybridation peut être déroutante à appréhender par les autorités policières et judiciaires en raison du caractère inédit de certaines alliances et de la profonde hétérogénéité des acteurs impliqués.
Le rapport oblige opportunément à sortir du prisme franco-français sur la question de la criminalité. Il ne se focalise pas sur les stupéfiants et évite l’amalgame entre narcotrafic et économie criminelle. La liste des activités recensées ne place pas le trafic de stupéfiants en tête de liste. L’importance des fraudes, dont celles réalisées en ligne, rappelle que l’économie illégale n’est pas seulement d’ordre productif avec l’offre de biens et services interdits mais aussi d’ordre appropriatif : les organisations criminelles captent de façon indue une richesse qu’elles n’ont pas produite. Le rapport alerte aussi sur l’ampleur des atteintes à l’être humain) : exploitation sexuelle des mineurs, traite des êtres humains et instrumentalisation des migrations illégales.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Cette mise en perspective salutaire passe également par les méthodes criminelles : le blanchiment de l’argent sale et l’infiltration de l’économie légale, le recours à la violence et/ou à la corruption et l’exploitation d’une main-d’œuvre très jeune. Ce dernier point, observé à l’échelle européenne, est particulièrement intéressant. Il replace ces acteurs généralement mineurs dans un contexte institutionnel. Plus que des criminels affiliés, ce sont des victimes de la criminalité forcée. Cela n’est pas sans implication sur la qualification pénale de leurs actes ainsi que sur le travail de prévention à l’encontre de la jeunesse.
L’ADN du crime a-t-il pour autant radicalement changé comme l’affirme le titre du rapport ? Cela reste à nuancer. La criminalité organisée s’adapte, ce n’est pas nouveau. L’histoire criminelle témoigne de la capacité des criminels à développer de nouvelles affaires et marchés, à se redéployer, y compris grâce aux nouvelles technologies. Les Brigades du Tigre), créées en 1907 par Clemenceau, sont des brigades mobiles motorisées pour répondre au défi posé par des bandes criminelles utilisant des véhicules et des armes à feu. La contrefaçon utilise depuis longtemps les évolutions technologiques en termes de piratage, reproduction et impression 3D.
L’hybridation de la menace connaît aussi des antécédents : par exemple, la piraterie, officiellement réprouvée, a largement été, aux XVIe et XVIe siècles, un outil occulte au service des États européens). Au regard de ces permanences et récurrences, l’image d’un virus présentant des mutations est peut-être plus pertinente que celle d’un changement d’ADN.
Clotilde Champeyrache ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
28.05.2025 à 17:01
Vincent Chetail, Professeur de droit international, Graduate Institute – Institut de hautes études internationales et du développement (IHEID)
Le terme de génocide est employé par un nombre croissant d’organisations internationales, de juristes et d’historiens pour désigner l’intervention militaire israélienne à Gaza. Les discussions que suscite l’utilisation de ce concept monopolisent l’attention, au détriment de l’effroyable réalité sur le terrain et des mesures urgentes à prendre pour y faire face.
Génocide. Le mot est sur toutes les lèvres : l’État hébreu est-il en train de commettre un génocide à Gaza ? L’accusation enfle depuis plus d’un an. Elle se répand bien au-delà du cercle des militants pro-palestiniens. Le mot évoque immédiatement le mal absolu, la négation de l’humanité. En entrant dans le langage courant, il cristallise l’indignation et appelle à la mobilisation.
Comment une telle accusation est-elle apparue ? Que signifie exactement ce terme ? Que dit le droit international ? Quels sont les arguments en présence ? Les débats autour de l’existence ou non d’un génocide ne tendent-ils pas, paradoxalement, à favoriser l’inaction internationale ?
Le terme de génocide charrie une vision d’horreur étroitement liée à la Shoah. Il convoque dans l’inconscient collectif des images de fosses communes et des corps décharnés des rares survivants des camps de la mort.
Le mot fut inventé en 1944 par un juriste juif d’origine polonaise réfugié aux États-Unis, Raphael Lemkin, pour souligner l’atrocité et la nature systématique des crimes nazis. C’est dire que la symbolique est forte lorsque l’accusation est portée à l’encontre de l’État précisément créé pour servir de refuge aux survivants de l’Holocauste. La victime s’est-elle transformée en bourreau ? Pour Israël, une telle allégation est « obscène ».
Dès novembre 2023, 37 rapporteurs de l’ONU invoquent un risque génocidaire. Depuis lors, la Commission internationale d’enquête, la Rapporteure spéciale sur les droits humains dans les territoires palestiniens occupés, le Comité spécial de l’ONU sur les pratiques israéliennes ou encore les ONG Amnesty International et Human Rights Watch ont publié des rapports longs et circonstanciés concluant qu’il existe des motifs raisonnables de croire qu’un génocide est commis à Gaza.
De nombreux juristes, historiens de la Shoah et autres spécialistes de l’étude des génocides parviennent au même constat.
Le débat s’est même judiciarisé depuis que l’Afrique du Sud a saisi en décembre 2023 la Cour internationale de justice (CIJ, principal organe judiciaire de l’ONU), accusant Israël de violer la Convention pour la prévention et la répression du crime de génocide adoptée par l’ONU en 1948. Plus récemment encore, en avril 2025, le Conseil des droits de l’homme de l’ONU a adopté une résolution exigeant d’Israël de « prévenir le génocide ».
Selon la Convention de 1948, le génocide se définit par deux éléments constitutifs : une intention – celle de détruire un groupe national, ethnique, racial ou religieux en tout ou partie ; et un acte – meurtre, atteinte grave à l’intégrité physique ou mentale des membres du groupe, entrave aux naissances ou soumission à des conditions d’existence devant entraîner la mort.
À lire aussi : La notion de génocide : entre l’histoire, le droit et la politique
Contrairement à une opinion répandue, un tel crime n’est pas subordonné à l’anéantissement du groupe, ni au massacre de masse.
Les condamnations judiciaires demeurent exceptionnelles. Depuis 1948, la justice internationale a reconnu l’existence d’un génocide à trois reprises seulement : la première fois en 1998 à propos du Rwanda, puis en 2001 concernant le massacre de Srebrenica en Bosnie-Herzégovine et en 2018 à l’encontre des Khmers rouges.
À lire aussi : Récit d’un voyage d’études au Rwanda, 30 ans après le génocide des Tutsi
Trois autres affaires sont en cours concernant le Soudan, Myanmar et Israël.
Dans ce dernier dossier, la CIJ a rendu le 26 janvier 2024 une première ordonnance constatant « un risque réel et imminent » de « préjudice irréparable ». Ce constat ne vaut pas condamnation et ne préjuge pas du fond de l’affaire. La Cour relève néanmoins les « conditions de vie désastreuses », la « privation prolongée et généralisée de nourriture et de produits de première nécessité », « la destruction massive d’habitations », ainsi que l’ampleur des pertes, qui s’élèvent aujourd’hui, selon l’ONU, à plus de 52 000 morts et de 118 000 blessés, dont une majorité de femmes et d’enfants.
À lire aussi : Gaza, une catastrophe humanitaire avérée
Israël affirme agir en légitime défense et dans le respect du droit international humanitaire. Son droit inaliénable à la légitime défense, et l’atrocité des crimes perpétrés par le Hamas, sont incontestables. Mais à moins de renouer avec l’antique loi du talion, de tels motifs ne justifient pas de violer le droit international ni d’infliger une punition collective à l’encontre de la population civile de Gaza.
L’argument tiré du droit humanitaire est plus perspicace et requiert un examen approfondi des opérations militaires. Le terrain reste fragile car l’ampleur des pertes civiles va bien au-delà de ce qui est admis comme « dommage collatéral ».
À lire aussi : Conflit israélo-palestinien : ce que dit le droit
L’ONU a documenté de multiples bombardements indiscriminés et autres violations graves du droit humanitaire, à tel point que l’autre Cour de La Haye – la Cour pénale internationale (CPI) – a émis le 21 novembre 2024 un mandat d’arrêt pour crimes de guerre contre Benyamin Nétanyahou et son ancien ministre de la défense Yoav Gallant. Si de tels crimes de guerre étaient constatés, ils n’induisent pas en eux-mêmes une intention génocidaire.
À lire aussi : Mandats d’arrêt de la CPI contre Nétanyahou, Gallant et Deif : un tournant pour la justice internationale, pas pour la Palestine
Sur ce dernier point, la CIJ relève néanmoins diverses déclarations particulièrement choquantes : Gallant a notamment déclaré combattre des « animaux humains », tandis que le président d’Israël Isaac Herzog a affirmé à propos du 7-Octobre que « c’est toute une nation qui est responsable » (des propos dont il prétendra plus tard qu’ils ont été mal interprétés).
Pour beaucoup de juristes, rarement dans l’histoire l’intention de détruire un groupe a été formulée aussi clairement par des dirigeants étatiques. Ces déclarations surprennent d’autant plus qu’elles sont publiques et répétées : Amnesty International en a recensé plus d’une centaine entre octobre 2023 et juin 2024.
Cette rhétorique mortifère semble même avoir franchi une nouvelle étape durant les derniers mois, au point d’apparaître comme une véritable doctrine du gouvernement israélien. Le 19 mars 2025, le ministre de la défense, Israël Katz, menace la population civile de Gaza de « destruction totale » si les otages encore aux mains du Hamas ne sont pas libérés, tandis que le vice-président de la Knesset, Nissim Vaturi, appelle à « effacer la bande de Gaza de la surface de la terre ». Le 6 mai, c’est au tour du leader d’extrême droite et ministre israélien des finances, Bezalel Smotrich, d’annoncer que, grâce à l’opération en cours, dans quelques mois « Gaza sera totalement détruite ».
De telles déclarations suffiraient, à tout le moins, pour que leurs auteurs soient condamnés pour incitation au génocide. Si la condamnation par la CIJ pour génocide ou incitation à un tel crime est de plus en plus probable, le rejet d’un tel jugement par Israël est tout aussi prévisible.
Aux accusations de génocide s’opposent celles d’antisémitisme, dans une confrontation manichéenne et stérile. Les débats se polarisent dans une opinion publique plus déchirée que jamais.
Cette polarisation est inhérente à la notion de génocide car la déshumanisation est au cœur du processus génocidaire. Le génocide transforme les victimes en sous-humains et les bourreaux en barbares. Il prive les uns et les autres de leur humanité. C’est ce qui fait tout à la fois la spécificité et la limite d’un tel crime.
La charge passionnelle du génocide se décuple lorsque sa figure emblématique, Israël, est incriminée. Loin de mobiliser les consciences, cette accusation a paralysé bon nombre de décideurs politiques par crainte de prendre parti, tout en alimentant une indignation à géométrie variable.
Les pays dit du Sud global ont réagi très tôt par la voie diplomatique et judiciaire, tandis que l’immense majorité des pays occidentaux se sont enfermés dans une sorte de mutisme, au risque d’apparaître complices des exactions commises aux yeux de tous. Après plus d’un an et demi d’immobilisme, une prise de conscience commence à se faire jour parmi les dirigeants européens.
Agnès Callamard, secrétaire générale d’Amnesty International, le déplore :
« Les pays européens n’auraient jamais dû avoir “besoin” des deux derniers mois pour conclure que les crimes d’Israël demandaient des réponses fortes et immédiates. »
Et, renchérit-elle, « n’oublions pas que ceux et celles qui ont dénoncé le génocide israélien à Gaza ont été l’objet de poursuites judiciaires, de campagnes de harcèlement dans les médias, que des étudiants aux États-Unis sont encore emprisonnés et beaucoup sont menacés ».
La reconnaissance de la Palestine est une étape cruciale dans le règlement durable du conflit, mais elle ne doit pas faire illusion : le fait que 148 pays membres de l’ONU aient déjà reconnu la Palestine n’a pas empêché les violations de se produire durant les vingt derniers mois. Parmi ces pays, douze États européens l’ont déjà reconnue et la reconnaissance tardive de derniers à ne pas l’avoir fait ne saurait apparaître comme un satisfecit de bonne conduite aux États qui ont manqué à leur obligation de réagir face à la situation.
Indépendamment même du qualificatif de génocide, les États européens devraient commencer par honorer leurs propres obligations juridiques face à des violations du droit humanitaire que nul ne peut ignorer. En de telles circonstances, les conventions de Genève leur imposent d’engager des poursuites pénales devant leurs tribunaux nationaux pour connaître des allégations de crimes de guerre à l’encontre de leurs binationaux et des ressortissants israéliens présents sur leur territoire et accusés de tels crimes.
Cette obligation de poursuite pénale s’ajoute à celle de coopérer avec la Cour pénale internationale dans l’exécution de ses mandats d’arrêt délivrés en novembre 2024.
Conformément à l’article Premier commun aux quatre conventions de Genève, tous les États parties, y compris européens, sont également tenus de faire respecter le droit humanitaire par diverses autres mesures, à commencer par les pressions diplomatiques et politiques pour mettre fin aux exactions, la suspension des ventes d’armes et des accords commerciaux avec Israël, l’arrêt de toute autre forme de soutien matériel, financier ou autre, la fourniture d’aide humanitaire sur place via les agences onusiennes et autres ONG de terrain, ou encore la coopération pleine et entière avec les différents mécanismes internationaux d’établissement des faits et les deux cours de La Haye.
Dans un monde polarisé à l’extrême, il importe plus que jamais de distinguer le mot et la chose. Le mot de génocide est une incrimination pénale qui relève de la justice ; la chose porte sur les faits eux-mêmes qui appartiennent au domaine public, tant les violations sont documentées en temps réel par l’ONU, les ONG et les médias. Quelles que soient leurs appellations juridiques, les drames humains qui se déroulent sous nos yeux sont l’affaire de tous. Ils imposent d’agir en conséquence et en conscience.
Vincent Chetail ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
28.05.2025 à 17:00
Sebastien Bourdin, Professeur de Géographie économique, Titulaire de la Chaire d'excellence européenne "Economie Circulaire et Territoires", EM Normandie
Nicolas Jacquet, Chargé de Recherche ∙ Chaire d'excellence européenne Économie circulaire et Territoires, EM Normandie
Sur le papier, recycler ses vêtements semble un geste vertueux, mais la réalité est tout autre. L’industrie textile produit des déchets en masse, tandis que le recyclage peine à suivre une consommation effrénée. Entre fast-fashion, technologies limitées et exportations vers des pays sans infrastructures adaptées, le modèle circulaire vacille.
L’industrie de la mode a connu une transformation radicale avec l’essor de la fast-fashion : des vêtements bon marché, fabriqués à partir de matériaux peu coûteux, conçus pour être portés une seule saison – voire moins – avant d’être stockés définitivement dans nos armoires ou d’être jetés. Chaque année, pas moins de 3 milliards de vêtements et chaussures sont mis sur le marché en France, d’après le Baromètre des ventes de Refashion.
Ce modèle de production et de consommation frénétique n’est pas sans conséquences : selon les estimations, l’industrie textile représenterait jusqu’à 10 % des émissions mondiales de gaz à effet de serre, soit davantage que les vols internationaux et le transport maritime réunis. En cause, la prédominance du polyester, un dérivé du pétrole, qui constitue la majorité des vêtements.
Pour s’attaquer à ce fléau, en 2022, la Commission européenne dévoilait sa stratégie pour des textiles durables et circulaires en assurant :
« À l’horizon 2030, les produits textiles mis sur le marché de l’Union seront à longue durée de vie et recyclables, dans une large mesure, fabriqués à partir de fibres recyclées, exempts de substances dangereuses, et produits dans le respect des droits sociaux et de l’environnement. »
Mais, malgré cette prise de conscience politique, la fast-fashion continue de prospérer, alimentée par une production mondiale qui a doublé depuis 2000 et une consommation effrénée poussée par des campagnes de marketing bien rôdées. En l’espace de quinze ans, la consommation occidentale de vêtements a ainsi augmenté de 60 %, alors que nous les conservons deux fois moins longtemps et que certains, très bon marché, sont jetés après seulement 7 ou 8 utilisations. Les chiffres de l’Agence européenne de l’environnement sont accablants : entre 4 % et 9 % des textiles mis sur le marché européen sont détruits avant même d’avoir été portés, soit entre 264 000 et 594 000 tonnes de vêtements éliminés chaque année.
En France, l’Agence de la transition écologique (Ademe) estime que ce gaspillage atteint entre 10 000 et 20 000 tonnes : 20 % des vêtements achetés en ligne sont retournés, et un tiers d’entre eux sont détruits. Leur traitement implique un long processus : tri, reconditionnement, transport sur des milliers de kilomètres… Une aberration écologique.
Mais alors, comment en est-on arrivé à un tel décalage entre la volonté de mieux recycler… et la réalité de nos usages vestimentaires ?
Une étude récente, menée en 2024 par des chercheurs de l’Université catholique de Louvain (UKL), apporte un éclairage nouveau sur nos habitudes vestimentaires. Réalisée auprès de 156 adultes vivant en Flandres (Belgique), l’enquête révèle que la garde-robe moyenne contient 198 vêtements, dont 22 % restent inutilisés pendant plus d’un an.
Pourtant, les trois quarts de ces vêtements qui restent dans nos placards sont encore en bon état et pourraient être réutilisés, mais la majorité des propriétaires les conservent « au cas où », par attachement émotionnel ou anticipation d’un usage futur. L’étude conclut que le manque de solutions accessibles pour revendre ou donner ses vêtements ainsi que la faible demande pour la seconde main freinent leur réutilisation.
Nos placards ne sont pas les seuls à être saturés. Les points de collecte textile déployés par les collectivités sont eux aussi submergés par un afflux massif de vêtements, souvent de mauvaise qualité. Les vêtements d’entrée de gamme, difficiles à valoriser, encombrent ainsi les structures de tri et compliquent le travail des associations, qui, jusqu’ici, tiraient leurs revenus des pièces de meilleure qualité revendues en friperies solidaires.
La situation est telle que Refashion, l’éco-organisme de la filière textile, a récemment débloqué une aide d’urgence de 6 millions d’euros pour soutenir les 73 centres de tri conventionnés, dont l’activité est fragilisée par la chute des débouchés, notamment à l’export. Car, depuis longtemps, les vêtements qui ne trouvent pas preneur sur le marché français – parce que trop usés, démodés ou invendables – sont expédiés vers d’autres pays, principalement en Afrique ou en Asie.
Chaque année, l’Union européenne (UE) exporte ainsi 1,7 million de tonnes de textiles usagés, selon l’Agence européenne de l’environnement. La France à elle seule, en 2021, expédiait 166 000 tonnes de vêtements et de chaussures usagés, soit 3 % du volume total des exportations mondiales.
Ces flux partent principalement vers le Pakistan, les Émirats arabes unis et le Cameroun, selon les données douanières. Si ce commerce génère des emplois et des revenus dans l’économie informelle, il aggrave aussi la pollution textile dans des pays sans infrastructures adaptées au traitement des déchets. La plage de Korle-Gonno à Accra (Ghana) en est l’un des exemples les plus frappants, transformée en véritable décharge à ciel ouvert.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Mais cette donne pourrait changer. L’UE cherche à imposer un cadre plus strict sur les flux transfrontaliers de déchets textiles, notamment en intégrant ces derniers à la Convention de Bâle, qui régule les exportations de déchets dangereux et non dangereux. Cette évolution pourrait imposer davantage de traçabilité et de contrôles, afin d’éviter que l’Europe continue d’exporter son problème textile vers des pays incapables de le gérer.
Face à l’ampleur du problème, la loi Anti-gaspillage pour une économie circulaire (Agec), adoptée en 2020, fixait un cap ambitieux : collecter 60 % des textiles usagés d’ici 2028 et en recycler 70 % dès 2024, puis 80 % à l’horizon 2027. Une trajectoire progressive censée stimuler la montée en puissance des filières de tri et de valorisation.
Dans la foulée, l’Assemblée nationale adoptait en mars 2024 une proposition de loi pour « démoder la fast-fashion ». Le texte cible les géants de l’ultra fast-fashion, qui inondent le marché avec plus de 1 000 nouveautés quotidiennes. Il prévoit également un système de bonus-malus environnemental pouvant aller jusqu’à 50 % du prix de vente – plafonné à 10€ par article – afin de financer des marques plus vertueuses et de ralentir cette surproduction.
La proposition de loi doit encore franchir l’étape du Sénat, où elle n’a pas encore été inscrite à l’ordre du jour. Et en attendant, les objectifs de la loi Agec peinent à se concrétiser. En 2023, environ 270 000 tonnes de textiles ont été collectées dans l’Hexagone, mais seules 33 % ont été réellement recyclées en nouvelles matières premières. Bien loin des 70 % fixés pour 2024. En cause : un manque d’infrastructures de tri automatisé, des capacités de traitement limitées, et des opérateurs – souvent issus de l’économie sociale et solidaire – sous-dotés financièrement. À l’échelle mondiale, le constat est encore plus alarmant : moins de 1 % des fibres textiles usagées sont réutilisées pour fabriquer de nouveaux vêtements.
Sur le papier, pourtant, les technologies de recyclage se perfectionnent. Certaines entreprises, comme l’entreprise française, créée en 2011, Carbios, tentent d’innover avec un recyclage enzymatique capable de dégrader les fibres de polyester pour les transformer en nouveaux textiles. Une avancée saluée, mais encore loin d’être généralisée.
Dans les faits, l’immense majorité du recyclage textile repose sur des méthodes mécaniques, bien moins efficaces. Les vêtements sont triés par couleur et selon leur composition, puis déchiquetés en fibres courtes ou effilochés pour produire des isolants ou des chiffons. Autrement dit, quand ils sont recyclés, les textiles, au lieu d’être réutilisés dans un cycle vertueux, sont plutôt « downcyclés », dégradés ou transformés en produits de moindre valeur, en isolants thermo-acoustiques ou en rembourrage pour sièges de voiture, tandis que moins de 1 % des vêtements usagés sont transformés en nouveaux vêtements, selon une logique de boucle fermée ou au moyen de procédés fibre à fibre.
Si le recyclage est donc une solution, celle-ci présente de nombreuses limites.
Le design des vêtements, par exemple, n’est pas fait pour faciliter leur valorisation. Car les habits contiennent un mélange complexe de matériaux : des fibres souvent mélangées ou diverses (polyester, coton, polycoton) combinées à des éléments métalliques (fermetures éclair, boutons, boucles) et plastiques (étiquettes, logos en vinyle ou motifs imprimés) qui nécessitent un tri particulièrement minutieux pour permettre leur réutilisation ou leur transformation, chaque matière requérant un traitement spécifique. Cette étape, essentielle, mais coûteuse, reste difficile à intégrer pour des structures solidaires qui n’ont pas les capacités d’investissement des grands groupes.
Des alternatives existent, certes, mais elles ne sont pas toujours aussi vertueuses qu’annoncées. Le polyester recyclé, souvent mis en avant par la mode écoresponsable comme la solution la moins carbonée, présente de sérieuses limites.
Cette fibre est issue, dans la grande majorité des cas, du recyclage de bouteilles en plastique PET. Or, ces bouteilles sont ainsi détournées d’un circuit de recyclage fermé – le recyclage bouteille-à-bouteille ou pour les emballages alimentaires – vers la fabrication de textiles. Une fois transformés en vêtements, ces matériaux deviennent pratiquement impossibles à recycler, en raison des teintures, des additifs et surtout des mélanges de fibres.
Si le polyester recyclé séduit tant l’industrie textile, c’est d’abord pour des raisons de logistique et de volume. Les bouteilles en PET constituent un gisement mondial abondant, facile à collecter et à traiter. Aujourd’hui, environ 7 % des fibres recyclées utilisées dans le textile proviennent de bouteilles plastiques – dont 98 % sont en PET. À l’inverse, moins de 1 % des fibres textiles recyclées proviennent de déchets textiles eux-mêmes.
Les différents types de recyclages
Source : The Carbon Footprint of Polyester (Carbonfact). Données basées sur la base EF 3.1, développée par le Joint Research Centre (JRC) de la Commission européenne, dans le cadre de l’initiative Product Environmental Footprint (PEF).
Méthode | Émissions carbone (kg CO2e/kg) | Remarques |
---|---|---|
Recyclage mécanique | 0,68 – 1,56 | Méthode la plus répandue. Utilise des bouteilles plastiques, mais détourne ces déchets de circuits fermés. Qualité de fibre dégradée à chaque cycle, recyclabilité textile très limitée. |
Recyclage chimique | 1,23 – 3,79 | Procédé plus vertueux sur le papier (fibre à qualité équivalente), adapté aux déchets textiles. Mais technologie coûteuse, énergivore et encore peu industrialisée. |
PET vierge fossile | 3,12 | Fabriqué à partir de pétrole, avec un processus très émetteur. Aucune circularité : chaque vêtement produit génère un futur déchet. |
Enfin, autre problème rarement évoqué : les microfibres plastiques. Les vêtements en polyester, qu’ils soient recyclés ou non, libèrent à chaque lavage des microfibres plastiques susceptibles de perturber les écosystèmes marins et d’entrer dans la chaîne alimentaire humaine. Cette pollution est amplifiée dans le cas du polyester recyclé : soumis à des contraintes thermiques et mécaniques lors du recyclage, le matériau voit ses chaînes polymères se dégrader. Raccourcies et fragilisées, elles sont plus enclines à se fragmenter dès les premiers lavages.
Une étude, publiée en 2024 dans la revue Environmental Pollution, a montré que, à caractéristiques égales, un tissu en polyester recyclé libérait en moyenne 1 193 microfibres par lavage, contre 908 pour son équivalent en polyester vierge. Même écolabellisés, certains textiles recyclés peuvent donc polluer davantage, si l’on considère l’ensemble de leur cycle de vie.
Trier, certes, c’est bien. Mais croire que ces gestes suffiront à endiguer la catastrophe environnementale est une illusion.
Tant que la production textile continuera d’augmenter à un rythme effréné, aucune politique de tri ne pourra compenser la montagne de déchets générée. Le mythe du bon citoyen trieur repose donc sur un malentendu : trier ne signifie pas recycler, et recycler ne signifie pas résoudre la crise des déchets. La vrai solution, c’est d’abord de produire moins, de consommer moins, et de concevoir des vêtements pensés pour durer et être réellement recyclables.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
28.05.2025 à 16:59
Pascale Ezan, professeur des universités - comportements de consommation - alimentation - réseaux sociaux, Université Le Havre Normandie
Emilie Hoëllard, Maître de conférences en sciences de gestion, Université Le Havre Normandie
Associant phrases chocs, musiques entraînantes et récits de transformation physique, de jeunes femmes font sur TikTok la promotion d’une maigreur extrême. Loin de provoquer du rejet, ces messages sont discutés et très partagés sur le réseau social, interpellant éducateurs et professionnels de santé.
Dans les années 1990, les couvertures des magazines féminins annonçaient l’été avec des injonctions à changer son corps : il fallait « perdre 5 kilos avant la plage » ou « retrouver un ventre plat en 10 jours » afin de ressembler aux mannequins filiformes des podiums.
Aujourd’hui, ces supports papier perdent du terrain chez les jeunes filles, au profit de réseaux sociaux comme TikTok, une plateforme au cœur de leur culture numérique. L’imaginaire du corps parfait s’y diffuse plus vite, plus fort, et de manière plus insidieuse.
Parmi les tendances incitant à la minceur sur ce réseau social, #SkinnyTok apparaît comme l’un des hashtags les plus troublants avec 58,2 K de publications en avril 2025.
À l’aide de vidéos courtes mêlant musiques entraînantes, filtres séduisants et récits de transformation physique (les fameux avant/après), de jeunes femmes s’adressent à leurs paires pour les inciter à moins manger, voire à s’affamer.
Centrées sur des heuristiques de représentativité, ces jeunes femmes mettent en scène leurs corps comme une preuve de la pertinence des conseils qu’elles avancent. Elles soulignent ainsi que leur vécu est un exemple à suivre : « Je ne mange presque plus. »
En surface, leurs recommandations nutritionnelles se fondent sur les messages sanitaires auxquelles elles sont exposées depuis leur enfance : manger sainement, faire du sport… Mais en réalité, leurs discours prônent des régimes dangereusement restrictifs, des routines visant à façonner des corps ultraminces. Basés sur la croyance, qu’il faut éviter de manger pour perdre rapidement du poids, des conseils de jeûne intermittent, des astuces pour ignorer la faim sont véhiculés : « Je ne mangeais qu’à partir de 16 heures + pilates à côté. »
Ici, pas de mises en scène de recettes ou de bons plans pour mieux manger comme dans la plupart des contenus « healthy » sur Instagram, mais des phrases chocs facilement mémorisables pour véhiculer une pression sociale : « Si elle est plus maigre que toi, c’est qu’elle est plus forte que toi » ; « Ne te récompense pas avec de la nourriture, tu n’es pas un chien ! » ; « Tu n’as pas faim, c’est juste que tu t’ennuies » ; « Si ton ventre gargouille, c’est qu’il t’applaudit. »
On ne trouve pas non plus dans les messages estampillés #SkinnyTok de propos bienveillants et empathiques, confortant une estime de soi.
À lire aussi : « Dans la vraie vie aussi, j’aimerais bien porter un filtre » : les réseaux sociaux vus par les 8-12 ans
Au contraire, les prises de parole sont agressives et pensées comme un levier efficace de changement comportemental. Le principe est de susciter des émotions négatives basées sur la culpabilité avec, comme source de motivation, la promesse de vivre un bel été : « Tu ne veux pas faire de sport, OK, alors prépare-toi à être mal dans ta peau cet été. »
Loin de provoquer du rejet sur le réseau social, ces messages sont discutés, partagés, voire complétés par des témoignages issus des abonnées. Certains messages deviennent des références évocatrices de la tendance. Cette viralité amplifiée par l’algorithme de TikTok enferme alors ces jeunes filles dans des bulles cognitives biaisées, qui valident des pratiques délétères pour leur santé.
Si cette tendance « skinny » est rarement remise en question par les followers, c’est sans doute parce que les contenus diffusés apparaissent comme simples à comprendre et qu’ils bénéficient d’une validation visuelle des corps exposés.
Ils s’ancrent dans des connaissances naïves qui viennent se heurter à des savoirs scientifiques, perçus comme plus complexes et moins faciles à mettre en œuvre dans le vécu quotidien des adolescentes pour obtenir rapidement le résultat corporel escompté pour l’été.
En psychologie cognitive, les connaissances naïves sont définies comme des représentations spontanées et implicites que les individus se construisent sur le monde, souvent dès l’enfance, sans recours à des enseignements formalisés. Influencées par des expériences personnelles et sociales, elles peuvent être utiles pour naviguer dans le quotidien, car elles apparaissent comme fonctionnelles et cohérentes chez l’individu. En revanche, elles sont souvent partielles, simplificatrices voire fausses.
Or, ces connaissances naïves constituent le creuset des messages diffusés par les créateurs de contenus sur les réseaux sociaux. En particulier, sur TikTok, les vidéos diffusées cherchent à capter l’attention des internautes, en privilégiant une forte connotation émotionnelle pour provoquer une viralité exponentielle. L’information qui y est transmise repose sur un principe bien connu en marketing : une exposition répétée des messages, quelle qu’en soit la valeur cognitive, influence les comportements.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Ces croyances simplificatrices sont d’autant plus difficiles à déconstruire qu’elles bénéficient d’une approbation collective, visible sous forme de « likes » par toutes les abonnées. Il apparaît donc nécessaire de mettre au jour le rôle joué par les connaissances naïves dans l’éducation corporelle des adolescentes afin de mieux saisir pourquoi certaines d’entre elles sont plus vulnérables que d’autres à ce type d’injonctions et mettre en place des interventions ciblées.
En outre, les connaissances naïves sont souvent résistantes au changement et aux discours scientifiques. Il s’agit alors de revisiter ces raccourcis cognitifs, fondés sur des liens de causalité erronés (du type : « Je ne mange pas et je serai heureuse cet été »), en proposant des messages de prévention plus adaptés à cette génération numérique.
Pour aller dans ce sens, certains professionnels de santé prennent la parole sur les réseaux sociaux, mais la portée de leur discours semble encore limitée au regard de la viralité suscitée par cette tendance. Face à ce constat, il semble opportun de les inviter à s’approprier davantage les codes de communication numérique pour s’afficher comme des figures d’autorité en matière de santé sur TikTok.
Plus globalement, il ne s’agit ni de diaboliser TikTok ni de prôner le retour à une époque sans réseaux sociaux. Ces plateformes sont aussi des espaces de création, d’expression et de socialisation pour les jeunes. Mais pour que les connaissances qu’elles diffusent deviennent de véritables outils d’émancipation plutôt que des sources de pression sociale, plusieurs leviers doivent être activés :
réguler, inciter davantage les plateformes à la modération de contenus risqués pour la santé mentale et physique des jeunes ;
apprendre aux adolescents à détecter de fausses évidences sur les réseaux sociaux. Dans cette perspective, notre projet Meals-Manger avec les réseaux sociaux vise à co-construire avec les jeunes une démarche leur permettant d’acquérir et d’exercer un esprit critique face aux contenus risqués pour leur santé, auxquels ils sont exposés sur les plateformes sociales ;
éduquer les éducateurs (parents et enseignants) qui sont souvent peu informés sur les comptes suivis par les adolescents et ont des difficultés à établir un lien entre des connaissances naïves diffusées sur les réseaux sociaux et les comportements adoptés dans la vie réelle.
Pascale Ezan a reçu des financements de l'Agence Nationale de la Recherche (projet ALIMNUM (Alimentation et Numérique et projet MEALS (Manger avec les réseaux sociaux)
Emilie Hoëllard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
28.05.2025 à 16:58
Louis Wiart, Chaire de communication, Université Libre de Bruxelles (ULB)
Comme l’indique l’expression « bien culturel », le livre est un produit, c’est-à-dire un bien qui s’achète et se vend. Toutefois, ses spécificités font qu’il évolue dans un environnement particulier qu’étudient notamment Louis Wiart et Philippe Chantepie, les auteurs d’Économie du livre, aux éditions La Découverte (collection « Repères »). Nous en publions un extrait consacré à un des défis majeurs du secteur pour les années qui viennent : l’adaptation de son modèle économique aux impératifs de la transition écologique. Numérique ou papier, le livre trouvera-t-il une voie pour être compatible avec ces nouvelles nécessités ?
Comme toutes les industries culturelles, le secteur du livre fait face au défi de la transition écologique, sous ses trois aspects : climatique, de biodiversité et de déchets. Celle-ci représente un enjeu majeur pour l’ensemble de la chaîne de valeur du livre : cycle de production (papier, donc énergie, eau, espèces végétales, formulation des encres), de distribution (transport) et de consommation (déchets). Elle concerne ainsi toutes les étapes de l’activité, de l’éco-conception au réemploi et au recyclage.
Le défi a commencé à être pris en compte à l’échelle internationale par le secteur de l’édition quant aux modes de production et de consommation, qui figurent parmi les objectifs de développement durable (ODD) de l’Agenda 2030 de l’Organisation des Nations unies (ONU) en 2019. Ce défi concerne aussi l’édition et la lecture numériques qui se développent et apparaissent moins favorables pour l’environnement que le mode de production et de consommation classique du papier.
En France, la mise en œuvre de ces objectifs de développement durable repose sur la règle dite de responsabilité élargie du producteur (REP). Elle prend en compte pour chaque industrie une responsabilité du producteur, de bout en bout, à travers chacun des maillons des filières jusqu’au consommateur. Selon le principe pollueur-payeur, il s’agit de rendre responsables les producteurs de l’impact environnemental de leurs produits en assurant individuellement ou collectivement la collecte, la gestion et la valorisation des déchets issus de ces produits (papier, encres).
Des filières REP sont établies pour le verre, le plastique, l’électronique… Le papier d’emballage depuis 1993 et le papier graphique concernent déjà le secteur de la presse depuis 2007. Le secteur de l’édition de livres échappe à cette approche de responsabilité élargie du producteur, le livre papier n’étant pas considéré comme susceptible de devenir un déchet ménager…
[Depuis la remise du manuscrit de ce livre, un plan de transition écologique sectoriel pour l’édition a été rendu public. (Précision des auteurs de l’ouvrage, ndlr)]
Depuis les années 2010 prédomine ainsi une prise de conscience progressive des enjeux de la transition écologique par les professionnels du livre, dont les éditeurs. Fragmentaire et partielle, l’approche dépend surtout d’initiatives issues de maillons de la chaîne à travers des engagements volontaires. Des initiatives d’abord individuelles ou de collectifs prévalent sur certains aspects de l’activité qui visent à promouvoir des modèles de production et de commercialisation de livres plus respectueux de l’environnement.
Ainsi, du côté de l’amont, la pression sur la disponibilité et le prix des matières premières (papier, énergie, eau et transport) est mise en avant, même si de nouvelles sensibilités à l’écologie s’expriment. De meilleures pratiques d’achat du papier progressent : 97 % du papier acheté par les éditeurs est certifié par des labels (PEFC, FSC) relatifs à la gestion durable des forêts, alors que le papier recyclé représente seulement 1 % du total.
La production de papier pour l’édition de livres n’est pas prise en compte par la REP papiers graphiques, ce qui constitue un segment particulièrement critique en consommation énergétique et d’eau, mais surtout en matière de transport. En effet, la production de papier provient essentiellement de pays étrangers, la France ayant un solde extérieur très négatif. En aval, du côté des librairies, on mise sur l’aménagement des lieux de vente (éclairage, chauffage, isolation, récupération de mobilier, etc.), l’optimisation des achats de livres pour diminuer les retours ou encore l’usage de produits à plus faible impact (emballages cadeaux, sacs en papier, etc.)].
Enfin, du côté des bibliothèques, sous l’impulsion de la Fédération internationale des associations et institutions de bibliothèques (IFLA), une approche collective prévaut aussi, ce dont témoigne par exemple l’Agenda 2030 des bibliothèques en France. Les objectifs poursuivis tiennent à la mutualisation des ressources entre établissements et à l’amélioration de la logistique pour réduire l’empreinte environnementale des prêts de livres. L’enjeu de la plastification des livres offerts au prêt est également soulevé. À l’avenir, ces initiatives sont conduites à tenir compte d’autres facteurs, comme le transport des consommateurs et des salariés.
Abonnez-vous dès aujourd’hui !
Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).
L’enjeu de la transition écologique de l’édition est surtout concentré sur les éléments les plus industriels du secteur, ce qu’illustre la part de production d’imprimerie hors de France (Espagne, pays d’Europe orientale, voire Chine). Sur le segment de la production et de la commercialisation, le défi de la transition écologique affecte le cœur du modèle économique structurel de l’édition de livres. En effet, l’industrie de l’édition repose sur une logique d’offre structurellement supérieure aux ventes, ne serait-ce que pour atteindre des publics qui, en situation de sous-production et insuffisance de distribution, ne seraient ni informés de l’existence de l’offre ni en mesure de se la voir proposer.
L’économie d’échelle issue de l’imprimerie ne constitue pas un frein à ce modèle. Aussi, l’ensemble de la chaîne de distribution (stockage et acheminement aller et retour vers les points de vente) se pérennise. Elle se traduit dans les volumes distribués comme dans ceux des retours, ainsi que dans les taux de pilon. Des outils d’intelligence artificielle (IA) pourraient aussi améliorer la gestion de la production, des stocks et des transports, mais leur propre impact environnemental n’est pas neutre.
La transition écologique peut apparaître comme un défi des plus difficiles à relever pour le secteur de l’édition. Celui-ci a manifesté une grande capacité d’innovation et d’adaptation aux techniques, mais à modèle économique central inchangé. Le défi écologique, en revanche, questionne les fondements mêmes de son modèle économique.
Cet article est issu de l’ouvrage Économie du livre (Ed La Découverte) écrit Philippe Chantepie les intertitres sont de la rédaction de The Conversation France
Louis Wiart ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
28.05.2025 à 16:58
Fabrice Raffin, Maître de Conférence à l'Université de Picardie Jules Verne et chercheur au laboratoire Habiter le Monde, Université de Picardie Jules Verne (UPJV)
À la veille de la finale de la Ligue des champions de l’UEFA, ce 31 mai, les projecteurs ne sont pas braqués que sur la pelouse. Dans les tribunes, les chants s’élèvent, portés par des milliers de voix en fusion. Et si le vrai spectacle était aussi là ? Plongée dans une ferveur collective où le chant devient un art et le stade, une scène culturelle à part entière.
Chanter ensemble, brandir des écharpes à l’unisson, participer à la ferveur collective : pour tous les supporters, aller au match de foot ne peut être réduit à une simple rencontre sportive. Cela relève d’un rituel esthétique où l’intensité émotionnelle, le sentiment d’appartenance et la communion se tissent dans l’expérience du stade. Être supporter est inséparable de l’action collective que l’on appelle football. L’intensité du chant des supporters donne au match une véritable portée culturelle, dans un double sens : artistique et anthropologique. Une double perspective qui inscrit le football dans une culture populaire.
La raison d’être du supporter réside dans cette quête d’intensité émotionnelle. Le terrain, le match, le jeu, les joueurs sont au centre, mais le chant amplifie le moment – le chant qui permet de vivre le match, la communion avec l’équipe, de devenir acteur : être le 12e homme dans la vibration collective.
La finalité sur le terrain est avant tout physique et compétitive ; l’expérience des tribunes, tout aussi physique, se construit, elle, dans l’émotion, l’attention et le plaisir. Trois termes qui, pour le philosophe Jean-Marie Schaeffer, définissent l’expérience esthétique. Avec le chant des supporters, l’expérience du match devient une pratique véritablement culturelle.
L’hymne du club, chanté en début de match, est un rituel en soi. Un chant au statut différent des encouragements communs qui durent toute la partie. Ce chant spécial est rituel en ce sens qu’il fait le lien entre deux réalités. Que les premières notes retentissent, et l’on bascule dans un autre monde : le monde du stade. Le poil se hérisse, le cœur bat plus fort, les larmes coulent. Chacun participe indistinctement, en chantant à tue-tête ! Et de la multitude des tons et des fausses notes mêlées s’élève, comme par magie, un chant toujours juste, reconnaissable entre tous : le chant des supporters.
Le chant, comme un précieux commun, a son histoire, liée à l’épopée du club, qui se confond avec celle d’une ville, d’une région. You’ll never walk alone à Liverpool (Angleterre), les Corons à Lens (Pas-de-Calais) ou, plus surprenant, Yellow Submarine des Beatles à Villarreal (Espagne) ! Avec cette intensité émotionnelle, pour tous les supporters, aller au stade devient un moment structurant de l’existence, un moment extraordinaire qui rompt avec la réalité et les difficultés quotidiennes. Aller au stade, c’est passer d’un monde prosaïque à la communion esthétique, au supplément d’âme (cher à Bergson), un moment sacré.
Aussi, dans les tribunes du stade d’Anfield, de Bollaert ou de Villarreal, la ferveur n’a rien d’un simple exutoire. Elle fait du stade un haut lieu d’un territoire. Elle est un langage, une manière d’habiter le monde et de s’y reconnaître. Elle témoigne d’une culture vivante, mouvante, ancrée dans les pratiques d’une ville, pour une grande partie de sa population. En cela, les supporters ne sont pas de simples amateurs de football : ils sont les acteurs d’une culture populaire, où le sentiment d’appartenance et la transmission de rites collectifs forgent une mémoire partagée.
Et devant l’harmonie collective, on ne peut que s’étonner de l’autorégulation de cette foule vociférante.
« Sans doute parce qu’un sentiment collectif ne peut s’exprimer collectivement qu’à condition d’observer un certain ordre qui permette le concert et les mouvements d’ensemble, ces gestes et ces cris tendent d’eux-mêmes à se rythmer et à se régulariser »,
écrivait le sociologue Émile Durkheim à propos du chant religieux.
À bien y regarder cependant, l’émotion des supporters est tout à fait cadrée, en particulier celle des plus ultras, rassemblés dans les Kops.
Tout au long du match – de manière peut-être plus exutoire, cette fois – les chants vont se succéder, au rythme d’une grosse caisse, mais surtout dirigés par la voix d’un meneur amplifiée par un mégaphone. Ce personnage, c’est le Capo, un chef d’orchestre, qui, dos à la pelouse tout le match, n’aura de cesse d’orienter la puissante mélodie du Kop.
« Notre match à nous, c’est de faire en sorte que l’ambiance soit top ! »,
déclare Popom, ex-Capo du Kop de la Butte, à Angers.
Ainsi, le match de football n’est pas qu’un jeu. Il est un théâtre d’émotions, une scène où se rejouent des récits communs et où se tissent des appartenances. Ce que vivent ces supporters, ce n’est pas uniquement un spectacle sportif, mais un moment de culture intégré à l’expérience du football, où l’intensité émotionnelle se déploie comme un art en soi. Une foule unie, un collectif. Au stade se croisent ainsi le sport et la culture, pour que, comme l’écrit la journaliste Clara Degiovanni, « en un seul instant partagé, les chants collectifs parviennent à entrecroiser et à sédimenter des milliers d’histoires et de destinées ».
Fabrice Raffin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
28.05.2025 à 12:27
Yannick Marandet, Directeur de recherches CNRS, Aix-Marseille Université (AMU)
La fusion nucléaire fascine et divise. Au-delà de la grande collaboration internationale ITER, mise en place dans les années 1980 afin de fournir un prototype de centrale électrique réellement utilisable pour alimenter le réseau en électricité, les avancées récentes ont fait apparaître de nouveaux acteurs dans le domaine, notamment des start-ups.
Pour faire le point sur les défis scientifiques et technologiques de la fusion, pour mieux comprendre comment les chercheurs et chercheuses vivent le fait de s’impliquer dans des projets de si longue haleine, Elsa Couderc, cheffe de rubrique Sciences et Technologies à The Conversation France, a rencontré Yannick Marandet. Chercheur en physique des plasmas, il a longtemps été directeur de la Fédération française de recherche sur la fusion par confinement magnétique (FR-FCM) et co-dirige aujourd’hui un grand projet de recherche sur les supraconducteurs et la fusion, financé par France 2030.
The Conversation : Vous travaillez sur la fusion nucléaire depuis vingt-cinq ans et vous avez pris diverses responsabilités pour coordonner les efforts français sur la fusion nucléaire, principalement orientés aujourd’hui vers la collaboration internationale ITER. Est-ce que vous pouvez commencer par nous expliquer ce qu’est la fusion nucléaire ?
Yannick Marandet : La fusion nucléaire, ce sont des réactions nucléaires qui sont à l’œuvre dans les étoiles, notamment dans le Soleil. C’est un peu comme des Lego : on assemble des petits noyaux pour en faire des plus gros. Ce sont en fait les processus par lesquels les éléments chimiques dont on est tous constitués, dont la Terre est constituée – comme le carbone, le fer ou l’oxygène – se sont formés dans des générations d’étoiles précédentes. D’où la fameuse expression, « Nous sommes tous des poussières d’étoiles ».
Ces réactions de fusion permettent de fabriquer des atomes plus gros, et ce faisant, elles libèrent de l’énergie contenue dans les noyaux que l’on assemble. Ainsi, dans une étoile en phase de vie normale, quatre noyaux d’hydrogène s’assemblent (l’élément le plus léger de l’Univers, un proton) pour faire un noyau d’hélium.
En fait, le terme hélium vient d’Hélios, car l’hélium a été découvert initialement en observant une éclipse solaire, en 1868. C’est intéressant de penser qu’on a trouvé de l’hélium dans notre étoile avant de l’observer sur Terre. Mais ce n’est qu’une fois qu’on a découvert cet élément sur notre planète, en 1895, qu’on a pu le peser et se rendre compte qu’il est un peu plus léger que quatre noyaux d’hydrogène – de l’ordre de 1 % plus léger. Cette masse perdue durant la transformation de l’hydrogène en hélium a été convertie en énergie : c’est la célèbre formule d’Einstein, E=mc2.
Comment est née l’idée d’utiliser ces phénomènes au cœur des étoiles pour générer de la chaleur, et donc de l’électricité ?
Y. M. : L’idée d’imiter ce qui se passe dans les étoiles est arrivée assez vite. Mais il faut savoir que les réactions de fusion nucléaire entre atomes d’hydrogène qui ont lieu dans les étoiles sont très inefficaces : les premières étapes de ces réactions sont tellement lentes qu’on ne peut même pas en mesurer la vitesse !
Il a donc d’abord fallu comprendre qu’on ne peut pas faire exactement ce que fait le Soleil, mais qu’on peut essayer de faire mieux, en utilisant des réactions qui sont plus rapides. Pour cela, il faut d’abord étudier comment marche une réaction de fusion.
Il faut d’abord faire se rapprocher les noyaux atomiques… malheureusement, ceux-ci se repoussent spontanément – plus ils sont gros, plus ils sont chargés et plus ils se repoussent. On a vu que la fusion de noyaux d’hydrogène à l’œuvre dans les étoiles n’est pas très efficace et, pour ces raisons, les réactions de fusion entre les isotopes de l’hydrogène ont été considérées. Les noyaux de ces isotopes ont par définition la même charge que l'hydrogène, mais contiennent un ou deux neutrons.
La solution actuelle – celle que l’on doit utiliser dans ITER – est arrivée dans le cadre du projet Manhattan – le projet de recherche du gouvernement américain qui visait à construire une bombe atomique, entre 1939 et 1947. Celui-ci se concentrait évidemment sur la fission nucléaire, mais ils ont assez vite pensé à rajouter une dose de fusion par-dessus. Pendant cette période, d’énormes progrès ont été faits en physique nucléaire parce qu’il y a eu de très gros moyens, très focalisés… ce qui a bénéficié au domaine de la fusion, même si c’est un héritage dont on n’aime pas nécessairement se réclamer.
Quoi qu’il en soit, quand les chercheurs du projet Manhattan ont commencé à faire fonctionner des réacteurs nucléaires, ils ont produit du tritium – l’isotope le plus lourd de l’hydrogène, avec deux neutrons. Et quelqu’un s’est rendu compte que le deutérium et le tritium, pour des raisons d'abord mystérieuses à l’époque, fusionnaient 100 fois plus vite que deux noyaux de deutérium.
Une réaction de fusion exploitable pour en faire de l’électricité avait été découverte.
Y. M. : Oui. Quand on fait une réaction deutérium-tritium, ça fait un noyau d’hélium cinq, extrêmement instable, qui se désintègre en un hélium quatre et un neutron. Ceux-ci vont extrêmement vite – l’énergie qu’on a perdue en masse se retrouve dans l’énergie de mouvement. En freinant ces particules, par collision dans la paroi de la machine, on va récupérer cette énergie, faire chauffer de l’eau et faire tourner des turbines.
Cette réaction deutérium-tritium a un énorme avantage, c’est qu’elle est beaucoup plus probable, et donc rapide, que les autres réactions de fusion nucléaire, comme la fusion de deux hydrogènes, observée dans le Soleil et dont on parlait précédemment… mais elle pose deux défis.
Le premier, c’est qu’elle utilise du tritium, qui est radioactif. Le problème n’est pas tant sa dangerosité, qui est limitée, mais plutôt sa demi-vie (le temps nécessaire pour que la moitié des atomes se désintègrent naturellement), qui n’est que de douze ans. De ce fait, c’est un élément très rare. Il faut le fabriquer pour s’en servir comme combustible – dans ITER par exemple, même si le plasma contiendra de l’ordre d’un gramme de tritium, il faudra stocker quelques kilogrammes sur site.
Le deuxième défaut de cette réaction, c’est qu’elle génère des neutrons de 14 mégaélectronvolts. Cette échelle peut sembler un peu absconse quand on n’a pas l’habitude de la manipuler : ce qu’il faut retenir, c’est que ces neutrons sont très énergétiques, suffisamment pour transformer des impuretés dans la paroi en éléments radioactifs. Et ça, c’est un défi – à tel point qu’aujourd’hui, un domaine de recherche entier est dévolu à développer des matériaux sans ces impuretés.
Pour la fusion deutérium-tritium, il faut utiliser ce neutron énergétique pour bombarder du lithium, et ainsi récupérer du tritium : on résout à la fois le problème d’approvisionnement en tritium et on produit de la chaleur supplémentaire par ces réactions.
Si l’on compare à une centrale à charbon de 300 MW électrique, qui brûle de 1 million à 2 millions de tonnes par an, l’avantage de la fusion est évident : il faut 30 kg de deutérium (l’océan en contient en quantité) et une centaine de kilos de lithium par an. Tout ça sans production de gaz à effet de serre ni déchets autres que la machine elle-même, et sans risques d’emballement.
Mais c’est aussi pour s’affranchir des problèmes liés aux neutrons énergétiques que différentes start-ups promettent aujourd’hui ce qu’on appelle la fusion « aneutronique », exploitant des réactions de fusion dans lesquelles on ne produit pas (ou peu) de neutrons. En n’utilisant pas de tritium, on aurait un carburant qui ne serait pas radioactif et pas (ou peu) de neutrons en sortie. La réaction de choix pour faire ça, c’est de fusionner un proton avec du bore (élément chimique dont le noyau compte cinq protons)… mais elle nécessite de monter à des températures dix à cent fois plus élevées que celles envisagées dans ITER, ce qui veut dire que ces start-ups devront obtenir des plasmas extrêmement performants.
À quelle température a lieu la réaction deutérium-tritium, celle qui doit être utilisée dans ITER ?
Y. M. : Cent cinquante millions de degrés ! Cette température est un vrai défi pour les scientifiques aujourd’hui.
Les plans initiaux de développement de la fusion, dans les années 1940 et 1950, étaient très optimistes… En effet, à l’époque, on ne connaissait pas très bien ce qu’on appelle aujourd’hui la « physique des plasmas ». À 150 millions de degrés, un gaz d’hydrogène de deutérium-tritium n’est plus un gaz ! C’est ce qu’on appelle un « plasma », c’est-à-dire un milieu suffisamment énergétique, suffisamment chaud, pour que tous les électrons soient arrachés de leurs noyaux. On se retrouve avec une soupe d’électrons et d’ions.
On pourrait penser que cette soupe est similaire à un gaz ; mais la grosse différence avec des molécules dans un gaz est que les particules chargées se sentent les unes les autres à grande distance. Ainsi, dans un plasma, si on bouscule un électron quelque part, tous les électrons autour vont le sentir, et bouger également… on comprend bien qu’il peut se passer des choses très intéressantes du point de vue de la physique !
Mais plus complexes aussi, surtout du point de vue des applications. Parce qu’un plasma est quelque chose d’assez compliqué à maîtriser, qui devient très vite turbulent.
Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Et justement, vous avez réalisé votre thèse au début des années 2000, sur l’analyse des plasmas turbulents. Quelles étaient les problématiques à l’époque ?
Y. M. : J’ai fait ma thèse sur la caractérisation de plasmas, en collaboration avec des collègues d’une expérience de fusion appelée à l’époque « Tore Supra » au CEA Cadarache, dans les Bouches-du-Rhône (cette machine est devenue West). J’analysais la lumière émise par les plasmas. Nous avions l’expertise d’analyse, de spectroscopie, et Tore Supra fournissait des plasmas ; ils avaient besoin de mieux comprendre ce qu’ils voyaient.
Une des grandes questions de la recherche sur la fusion a toujours été celle de la qualité du confinement. On utilise des champs magnétiques, générés par des électroaimants, qui confinent les particules chargées dans la machine. En effet, vous l’aurez compris, pour avoir des réactions de fusion, il faut chauffer le plasma. Mais c’est comme à la maison : si on allume les radiateurs à fond mais qu’on laisse les fenêtres ouvertes, la température dans la pièce ne va pas monter beaucoup. Si on ferme les fenêtres, ça va aller mieux, et si on isole mieux la maison, la température va monter plus haut pour la même puissance de radiateur. Dans notre cas, les champs magnétiques jouent un rôle d’isolant. Il faut réussir à isoler suffisamment pour que la température monte à 150 millions de degrés au cœur de la machine et que les réactions de fusion se produisent – après cela, ce sont ces réactions elles-mêmes qui chauffent le plasma.
La qualité de l’isolation est un peu la raison pour laquelle les gens étaient optimistes au départ : on pensait que la chaleur s’échapperait par conduction, c’est-à-dire sans mouvement du plasma, comme quand on pose quelque chose de chaud à un endroit, et que la chaleur passe dans les objets autour. En réalité, le plasma se met en mouvement, comme quand on chauffe de l’eau dans une casserole : il y a des cellules de convection dans la casserole, de la turbulence, qui font que l’eau monte, redescend, et que ça se mélange beaucoup mieux que par conduction ; ce qui mène à une perte de chaleur. Comprendre cette turbulence dans les plasmas est un fil directeur des études sur la fusion depuis longtemps.
La problématique de ma thèse était de mieux caractériser la turbulence en regardant certaines propriétés de la lumière émise par le plasma.
Comment ces problématiques ont-elles évolué au fil de votre carrière ?
Y. M. : La question du confinement magnétique du plasma est globalement beaucoup mieux comprise… mais, encore aujourd’hui, il reste des points difficiles.
En effet, on sait que lorsqu’on dépasse une certaine puissance de chauffage dans le plasma, celui-ci s’organise de manière un peu différente, dans un régime où cette fameuse turbulence qui nous embête se « suicide » au bord du plasma : elle génère elle-même des écoulements qui la suppriment. Ça permet de beaucoup mieux confiner le plasma, et ce régime de fonctionnement (au-dessus d’une certaine puissance de chauffe) a été appelé « le mode H », pour high confinement. C’est le mode d’opération qui a été prévu dans ITER.
Néanmoins, bien que l’on ait compris des aspects importants de son fonctionnement, on ne sait toujours pas prédire avec précision à quel niveau de chauffage la transition vers le mode H va se produire. Des lois empiriques, fondées sur les résultats des expériences actuelles, sont utilisées pour extrapoler à ITER. Cette situation n’est pas si inhabituelle, les avions volent bien que nous n’ayons pas percé tous les secrets de la turbulence autour des ailes. Mais mieux on comprend, plus on peut optimiser.
Pourquoi le mode H résiste-t-il aux efforts des physiciens depuis quarante ans ?
Y. M. : Très probablement parce qu’il implique des interactions entre des phénomènes à différentes échelles. Dans l’espace, on doit comprendre des mécanismes depuis les échelles millimétriques jusqu’au mètre ou à la dizaine de mètres (la taille de la machine) ; et dans le temps, depuis la fraction de microsecondes jusqu’à plusieurs secondes. Il est difficile de capturer toutes ces échelles de manière globale, de les intégrer les unes aux autres, de façon suffisamment générale pour être prédictives.
Ici aussi, on est dans une situation qui est très intéressante du point de vue de la physique, mais qui nécessite une modélisation extrêmement détaillée au niveau des processus microscopiques, car nous avons affaire à des milieux hors d’équilibre. La physique est très riche parce qu’elle implique des particules, des champs électromagnétiques, dans des configurations géométriques complexes. Elle est aussi très « non linéaire ». Pour simplifier, ceci signifie qu’on ne peut pas résoudre les équations à la main, de façon exacte : on approxime les solutions numériquement, avec des ordinateurs. La puissance de calcul disponible sur les très gros calculateurs a ainsi permis de grands progrès.
Ceci étant, malgré ces frustrations au niveau de la compréhension théorique, les expériences ont progressé et les performances des machines comme les tokamaks ont été multipliées par 100 000 depuis les années 1970 (en termes de « triple produit », une métrique qui mesure de la qualité de l’isolation).
La qualité de l’isolation tient-elle à la puissance des aimants ?
Y. M. : En partie. Disons que si on est capable de faire des champs magnétiques plus élevés, en principe, on est capable d’avoir un meilleur confinement. Mais, sur ITER, on a déjà poussé les champs magnétiques proche de la limite pour la technologie d’aimants utilisée, d’autant plus qu’il faut magnétiser un volume gigantesque – ITER fait 800 mètres cubes.
On utilise donc le second facteur pour améliorer l’isolation : on augmente la taille. Pensez au thé – on laisse le thé dans la théière parce qu’il y refroidit moins vite que dans une petite tasse. C’est pour ça que les machines comme ITER, les tokamaks, ont eu tendance à grossir avec les années. On peut dire que la taille d'ITER est directement liée à la technologie d'aimants utilisée.
Aujourd’hui, on entend pourtant parler de start-ups qui veulent faire des machines, des tokamaks, plus petites…
Y. M. : Tout à fait, avec l'idée que cela réduira très significativement le coût de construction. L'idée est d’utiliser une autre technologie d’aimants, plus récente que celle utilisée dans ITER et qui doit encore faire ses preuves. ITER utilise des électro-aimants supraconducteurs, c’est-à-dire à base de matériaux n’opposant aucune résistance au passage d’un courant électrique. On peut faire passer des courants gigantesques, des dizaines de milliers d’ampères, sans perte par chauffage… ce qui permet de faire des aimants très puissants. Mais pour être supraconducteurs, ces matériaux doivent être refroidis à -269 °C et ne doivent pas être plongés dans des champs magnétiques au-dessus de typiquement douze tesla (l’unité des champs magnétiques)
Dans les années 1980, des matériaux supraconducteurs à haute température critiques ont été découverts. Ces matériaux fonctionnent déjà bien à -195 °C, pour le grand public, c’est toujours très froid, mais cela simplifie beaucoup le refroidissement, car on peut utiliser de l’azote liquide.
Et si on utilise ces mêmes supraconducteurs entre -269 °C et -250 °C – ce qui est tout à fait possible, mais nécessite un frigo plus cher et plus encombrant –, on peut faire passer des courants deux fois plus importants que dans les supraconducteurs classiques et générer des champs magnétiques deux fois plus intenses… ce qui permet en principe de réduire la taille de la machine, sans perdre en qualité d’isolation !
C’est pour cela qu’un gros projet a été lancé au niveau français, un « PEPR » (un programme et équipement prioritaire de recherche) appelé SupraFusion, et dont vous êtes un des co-directeurs ?
Y. M. : Oui, SupraFusion s’attaque exactement à cette question : maîtriser la technologie des aimants supraconducteurs à haute température pour développer des applications sociétales – sachant que c’est la fusion qui est en train de tirer l’industrialisation de ces technologies avancées d’aimants supraconducteurs.
Que peut-on faire d’autre avec des aimants supraconducteurs à haute température ?
Y. M. : Il y a déjà un câble électrique d’alimentation de la gare Montparnasse qui utilise ces technologies-là, qui permettent de faire des câbles très compacts – très utiles lorsqu’il y a peu de place, en milieu urbain. On envisage aussi des dispositifs électrotechniques qui permettent de renforcer la stabilité des réseaux électriques (des « limiteurs de courant ») ; mais aussi des génératrices d’éoliennes plus légères, plus efficaces. En santé, on pourrait faire des IRM plus petits voire portables. En physique des particules, de nouveaux accélérateurs.
L’idée, c’est d’utiliser la fusion comme aiguillon – ce qu’on appelle l’« effet Formule 1 ». On s’attaque à quelque chose d’extrêmement difficile pour tirer l’innovation, et on attend un ruissellement sur beaucoup d’autres applications qui sont moins exigeantes.
Est-ce que vous sentez une évolution dans la perception de la fusion nucléaire par rapport à vos débuts ?
Y. M. : Quand je suis arrivé, c’était une phase un petit peu plus compliquée, la décision de construire ITER n’était pas acquise.
Enfant, je rêvais de devenir astrophysicien, mais j’ai finalement choisi de travailler sur la fusion parce que je voulais contribuer plus directement à la société.
Ceci dit, le chemin à parcourir vers l’énergie de fusion restait assez flou pour moi. J’étais focalisé sur ma thématique de recherche et il faut du temps pour acquérir une vision plus large des problématiques en jeu. L’importance du défi scientifique et l’impact qu’aura l’énergie de fusion étaient déjà bien perçus, mais cela restait avant tout pour moi un problème de physique, dont l’ambition me fascinait. Lors de mon postdoc à l’Université de Floride, je me souviens avoir été approché par un collègue qui m’a expliqué travailler avec une entreprise privée de fusion, Tri-Alpha Energy, et m’a encouragé à les rejoindre. Je crois que j’ai dû le dévisager comme s’il était un extraterrestre, cela me semblait complètement décalé ! Cette entreprise existe toujours (TAE Technologies) et génère des revenus en commercialisant des appareils d’imagerie médicale développés dans le cadre de ses recherches sur la fusion.
À l’heure actuelle, de nombreuses start-ups travaillent sur la fusion. Leur existence change la perception qu’ont le public et les décideurs : la physique est suffisamment comprise, et le travail sur ITER a suffisamment fait progresser la technologie pour se lancer dans la bataille de la commercialisation dès maintenant. Les années à venir vont être très intéressantes.
Il me semble, par ailleurs, observer la montée en puissance d’un courant de pensée hostile au progrès scientifique en général et à la fusion en particulier. Se doter d’une nouvelle source d’énergie est perçu comme néfaste – on s’entête dans une forme de fuite en avant alors qu’il faudrait juste être plus sobre. Il s’agit là d’une question de choix de société et le rôle des scientifiques est d’informer ces choix – pour ce qui concerne l’énergie, ma conviction est qu’il est plus sage de se donner les moyens d’agir. S’il devient vital d’extraire du CO2 de l’atmosphère en masse, les besoins énergétiques seront gigantesques et la fusion ne sera pas de trop !
Mais l’actualité de ces dernières années, à la fois géopolitique et climatique, a refocalisé l’attention du grand public sur la question de l’énergie, bien plus qu’au moment où j’ai débuté ma carrière. Il me semble que la fusion est perçue comme une partie de la solution. À mon sens le seul danger est que son développement soit utilisé comme prétexte pour ne pas réduire les émissions de gaz à effet de serre dès maintenant. Les moyens mis dans la fusion peuvent paraître énormes du point de vue de la recherche, mais il faut les comparer au coût de notre système énergétique. Il est alors clair que les ressources mises dans la fusion ne vont pas étouffer la transition énergétique.
Enfin, le projet ITER résulte de discussions entre Reagan et Gorbatchev – il y avait vraiment l’idée de développer cette source d’énergie dans un but de paix. Cette dimension de collaboration scientifique entre grandes puissances pour des applications au bénéfice de tous existe encore dans le monde multipolaire d’aujourd’hui et contribue à donner une image positive de la fusion magnétique.
Est-ce différent de faire de la recherche sur la fusion nucléaire dans un pays où la fission est si bien installée, par rapport à un pays où le mix énergétique n’inclut pas ou peu de fission ?
Y. M. : C’est une question intéressante. L’énergie de fusion sera une énergie pilotable décarbonée, qui est donc très utile pour stabiliser les réseaux électriques et garantir la continuité de l’alimentation. Il en va de même pour les centrales nucléaires actuelles, mais les réserves en uranium sont limitées, surtout dans un contexte de forte croissance du secteur. L’approvisionnement en uranium est l’une des raisons pour lesquelles la France relance aujourd’hui le programme de « réacteurs à neutrons rapides », une technologie de fission nucléaire. Certaines promesses de ces réacteurs sont similaires à celles de la fusion (avec sa capacité à produire de l’électricité pendant très longtemps sur les réserves actuelles, etc.) et ces réacteurs à neutrons rapides ont déjà produit de l’électricité en France (Superphénix). Par contre, cette technologie présente des risques comparables à ceux des centrales nucléaires actuelles. Quoi qu’il en soit, leur relance joue certainement un rôle sur la perception de l’utilité de la fusion à moyen terme au niveau des acteurs français du domaine.
Si l’on regarde ce qui se passe ailleurs, le Royaume-Uni investit lourdement dans la fusion et construit des réacteurs nucléaires EPR français en parallèle. La Chine a les moyens de développer toutes les technologies de front : les variantes de la fission, et plusieurs projets de fusion majeurs. De fait, on estime que la Chine dépense plus de 1,5 milliard d’euros par an pour son programme fusion, devant les États-Unis et l’Europe.
La situation est différente en Allemagne, qui est sortie du nucléaire et où la production pilotable est essentiellement assurée par des centrales au charbon et au gaz, qui émettent des quantités importantes de gaz à effet de serre. L’Allemagne s’est dotée récemment d’une feuille de route ambitieuse pour la fusion, dans l’optique de décarboner à terme cette part pilotable.
Le fait est que si la France investit lourdement dans l’énergie nucléaire, elle investit également dans la fusion : dans le projet ITER dont les retombées économiques sont majeures (6 milliards d’euros de contrats pour les industriels français à ce jour) et, en parallèle, dans l’étape suivante, à travers le projet de PEPR et le soutien à une start-up française du domaine, située à Grenoble, Renaissance Fusion.
Avec la fusion, les échéances semblent toujours lointaines – on parle de plasma dans ITER en 2035, de génération d’électricité pour alimenter le réseau à la fin du siècle. Est-ce que vous avez l’impression de vivre dans le futur en travaillant sur quelque chose qui n’arrivera pas d’ici la fin de votre carrière ?
Y. M. : Quelqu’un a comparé ça aux constructeurs de cathédrales. On travaille sur un projet dont les fruits ne seront pas nécessairement disponibles dans la durée de notre vie. On se met au service de quelque chose de plus grand. C’est une forme d’humilité, chacun apporte sa pierre ! Alors, il y a les boutades habituelles sur la fusion (« C’est pour dans trente ans et ça le restera »)… mais ce que je constate, c’est qu’il y a beaucoup de progrès, comme je vous le disais, sur les performances depuis les années 1970.
En ce moment, on progresse sur des aspects importants, comme le record de durée de plasma réalisé dans West cette année (1 337 secondes, soit 22 minutes).
En termes de performance sur le gain de fusion, les progrès ont été portés par nos collègues de la fusion inertielle, qui utilisent des lasers et ont obtenu des gains nets supérieurs à 1, c’est à dire que le plasma a produit plus d’énergie que ce qui lui a été apporté par les lasers. Sur ce point, pour la fusion magnétique, nous sommes dans une phase de latence, le temps qu’ITER soit finalisé. Je pense qu’une des raisons pour lesquelles ça prend autant de temps, c’est que les objectifs d’ITER sont extrêmement ambitieux : puisque on veut faire dix fois mieux qu’aujourd’hui en termes de performance, et le faire pendant mille secondes pour s’approcher du fonctionnement d’une centrale… alors que les records de performance actuels, en termes de gain, ont été atteints pour moins d’une seconde.
En d’autres termes, vous cherchez à faire dix fois mieux pendant mille fois plus longtemps…
Y. M. : Oui, et c’est important, parce que certaines start-ups promettent des choses bien plus tôt, mais sur des durées de plasma beaucoup plus courtes. Les résultats seront très intéressants, mais cela leur permet d’éviter pour l’instant des problèmes que l’on aura de toute façon, un jour ou l’autre, dans une centrale.
Mais je pense qu’on travaille en fait en parallèle, car ces start-ups poussent des technologies qui pourraient s’avérer clé pour la suite. Ma conviction, c’est que grâce à ces efforts combinés, l’étape « post-ITER » va beaucoup accélérer.
Yannick Marandet a reçu des financements d'AMIDEX, de l'ANR et de l'Europe.
28.05.2025 à 12:27
Bastien Bissaro, Chercheur sur la biodiversité fongique et les biotechnologies, Inrae
Fanny Seksek, Doctorante au Laboratoire de Biodiversité et Biotechnologies Fongiques, Inrae
Les déchets plastiques sont une plaie désormais bien identifiée. Certaines enzymes – des protéines très spécialisées, véritables nanomachines – sont capables de dégrader des molécules similaires aux plastiques de consommation courante.
Une enzyme microbienne, capable de s’attaquer à la barrière protectrice de plantes, a été détournée pour recycler le PET, un plastique dont on fait les bouteilles d’eau.
Chaque année, 400 millions de tonnes de plastiques sont produites sur Terre, soit la masse de 40 000 tours Eiffel. Environ 80 % de ces plastiques sont éliminés dans des décharges ou rejetés dans l’environnement. Les plastiques sont aujourd’hui indispensables à notre mode de vie moderne, car ils répondent à des besoins en matière de santé, d’habillement, d’emballage, de construction, de transport, de communication, d’énergie, etc.
Malheureusement, les plastiques (ou polymères synthétiques), principalement dérivés de ressources fossiles, posent cependant un problème écologique majeur en raison de leur faible taux de recyclage et de leur accumulation dans l’environnement. Différentes pistes de recyclage économe en énergie existent. S’il convient de garder à l’esprit qu’il n’y a pas de meilleur déchet que celui qui n’est pas généré, il faut aussi s’attaquer à dégrader les déchets déjà produits et ceux qui sont devenus indispensables.
En 2020, une étude a démontré qu’il est possible de recycler le PET – constituant principal de nombreuses bouteilles plastiques notamment – grâce à des enzymes, les « nanomachines du vivant ».
Pour commencer, expliquons ce qu’est un plastique : une succession de « perles » microscopiques (appelées monomères) qui sont assemblées en « colliers » (polymère), auxquels s’ajoutent diverses molécules chimiques. Le type de monomère, et son assemblage en polymère dictent la nature du plastique et ses propriétés.
Recycler les déchets plastiques implique donc soit de couper le polymère en monomères d’origine pour ensuite reformer de nouveaux colliers (on parle alors de recyclage chimique ou enzymatique), soit de broyer le déchet plastique pour le réagglomérer (on parle alors de recyclage mécanique).
Le recyclage chimique repose en général sur des procédés qui sont très gourmands en énergie et le recyclage mécanique produit souvent des matériaux de moindre qualité après retraitement.
À lire aussi : Recyclage et valorisation des déchets plastiques : comment ça marche ?
À lire aussi : Vers des plastiques biodégradables et recyclables ? La piste des « PHAs » progresse
Il est important de noter que moins de 10 % du plastique mondial est actuellement recyclé. Des technologies de recyclage qui sont à la fois moins gourmandes en énergie et plus propres sont donc très recherchées.
Face à ce constat, l’utilisation d’enzymes représente une solution (bio) technologique prometteuse.
En effet, les enzymes sont des outils indispensables du vivant : produites par tout organisme, ces protéines ont pour rôle de catalyser des réactions chimiques de manière très fine et contrôlée.
Les processus enzymatiques sont partout : de la digestion des aliments à leur transformation en énergie, en passant par la fabrication d’hormones et autres composés indispensables au fonctionnement des êtres vivants.
Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
La force inégalée des enzymes, expliquant leur prépondérance comme nanomachines du vivant, est leur sélectivité : pour pouvoir assurer sa fonction et ne pas modifier son environnement de manière incontrôlée, chaque enzyme agit sur une liaison chimique bien déterminée, permettant ainsi d’obtenir des produits de réaction parfaitement contrôlés.
Et les plastiques dans tout ça ? De par leur introduction très récente dans l’environnement, les enzymes spécialisées dans la dégradation de plastiques synthétiques pétrosourcés sont encore (très) rares.
Cependant, la similitude de ces plastiques avec des polymères naturels récalcitrants qui, eux, peuvent être dégradés par certaines enzymes naturelles a donné à la communauté scientifique l’idée d’adapter ces dernières enzymes aux plastiques.
Un bel exemple de cette démarche est celui développé par l’entreprise française Carbios en collaboration avec les équipes de recherche du Toulouse Biotechnology Institute (TBI) pour le recyclage enzymatique du polyéthylène-téréphtalate (PET), un plastique largement utilisé dans la fabrication de bouteilles en plastique et de textiles.
Pour cela, ils ont utilisé une enzyme appelée « cutinase », spécialisée dans la dégradation de la cutine, qui est un polymère d’acide gras que l’on trouve communément à la surface de certaines plantes. Cette barrière protectrice est dégradée par certains pathogènes comme des bactéries et des champignons, qui produisent pour ce faire des enzymes spécialisées dans le clivage de ses chaînes. Comme les liaisons chimiques reliant les monomères constituant la cutine et le PET sont de même type (liaison ester), la cutinase testée s’est avérée avoir une activité (certes faible) de dégradation du PET.
Cela a constitué une base prometteuse pour ensuite améliorer l’activité de l’enzyme, par des méthodes dites d’« ingénierie protéique ». Cette stratégie a permis d’adapter l’enzyme à un procédé industriel, qui se déroule dans des conditions très lointaines des conditions naturelles de l’enzyme (température plus élevée, concentrations en polymère élevées, besoin de réaction rapide, etc.).
In fine, ce procédé enzymatique permet de récupérer les monomères du PET, qui peuvent ensuite être réutilisés pour synthétiser du PET « neuf » pour faire soit de nouvelles bouteilles, soit des vêtements. Si la variabilité des bouteilles et des textiles (additifs, colorants) peut impacter l’efficacité du procédé, les performances sont suffisamment bonnes pour justifier la construction d’une usine à Longlaville, en Meurthe-et-Moselle, débutée en 2024.
Bien que cette découverte soit prometteuse pour le déploiement d’enzymes dans le recyclage du PET, elle ne peut s’appliquer à tous les plastiques existants : à chaque liaison chimique son enzyme, puisque celles-ci sont hautement sélectives.
Pour chaque plastique que l’on souhaite recycler, c’est donc un nouveau défi. Les plastiques les plus abondants sur Terre que sont le polyéthylène (abrévié PE) et le polypropylène (abrévié PP) sont constitués de liaisons carbone-carbone très solides, les rendant totalement insensibles aux enzymes jusqu’ici découvertes. Cela reste donc rare de voir des success stories de recyclage enzymatique des plastiques, car c’est un sujet relativement récent qui va demander de nombreuses années de travail pour arriver à de nouvelles réussites.
Bastien Bissaro a reçu des financements de l'ANR.
Fanny Seksek a reçu des financements de l'ANR.
28.05.2025 à 12:27
Jean-François Bodart, Professeur des Universités, en Biologie Cellulaire et Biologie du Développement, Université de Lille
Et si, chez les mammifères, la naissance pouvait se passer de l’union des cellules sexuelles d’un père et d’une mère ? Début 2025, une équipe chinoise franchissait une étape inédite en donnant naissance, à partir de deux pères, à des souris qui ont pu atteindre l’âge adulte, bouleversant ainsi des certitudes sur la reproduction sexuée et le rôle du génome paternel.
Cette prouesse, rendue possible par des modifications épigénétiques ciblées, fournit un nouvel éclairage sur les mécanismes fondamentaux du développement embryonnaire.
Chez les mammifères, la reproduction sexuée implique la fusion de deux cellules sexuelles, ou gamètes : l’ovocyte maternel et le spermatozoïde paternel. Si cette règle semble universelle, elle ne l’est pas chez tous les animaux : de nombreux poissons, reptiles ou insectes peuvent se reproduire par parthénogenèse, qui est un mode de reproduction dans lequel un œuf se développe en un nouvel individu sans avoir été fécondé par un mâle.
Mais, chez les mammifères comme la souris, les tentatives de développement embryonnaire à partir d’un seul type de génome – qu’il soit maternel ou paternel – avaient échoué systématiquement.
Au cours de la formation des gamètes, l’empreinte génomique, ou marquage épigénétique, rend certains gènes actifs ou silencieux selon leur origine parentale. Les marquages épigénétiques sont des modifications chimiques de l’ADN ou de ses protéines associées : ils n’altèrent pas la séquence génétique mais influencent l’expression des gènes, un peu comme des interrupteurs qui allument ou éteignent certains gènes selon leur provenance. Cette empreinte est essentielle pour la régulation de gènes impliqués dans le développement jusqu’à son terme de l’embryon.
Ce principe d’empreinte parentale est parfois observé lors de l’hybridation entre espèces proches, comme le lion et le tigre. Lorsqu’un lion et un tigre s’accouplent en captivité, le nouveau-né, ligre ou tigron, n’est pas le même selon que la mère est une tigresse ou une lionne. Cette différence s’explique par les mécanismes d’empreinte génétique : les gènes paternels (du lion) favorisent la croissance tandis que les gènes maternels (de la lionne) la limitent. Ainsi, un ligre (père lion, mère tigresse) devient le plus grand des félins, car il bénéficie des gènes de croissance du lion sans les freins maternels. À l’inverse, un tigron (père tigre, mère lionne) reste de taille normale ou petite, car la lionne transmet ses gènes inhibiteurs de croissance. Ces variations remarquables illustrent la puissance de l’empreinte parentale dans la régulation du développement.
En 2004, naît Kaguya, première souris viable issue de la combinaison de deux génomes maternels. Cette naissance s’inscrivait dans une recherche qui visait à explorer et confirmer le rôle central de l’empreinte parentale dans la viabilité embryonnaire. Pour contourner l’empreinte génomique, des ovocytes immatures de souris nouveau-nées sont modifiés génétiquement par la suppression de la région régulatrice du gène maternel H19 et l’activation d’un gène paternel Igf2 (régulation de la croissance). Le noyau de ces ovocytes est transféré dans un ovocyte mature normal, créant un embryon bimaternel.
Seuls 2 souriceaux survivent sur 598 embryons, dont Kaguya, qui a atteint l’âge adulte et a pu se reproduire normalement, mais dont le développement présentait un retard de croissance par rapport à celui des souris issues d’une reproduction classique. En 2015, le perfectionnement d’une approche utilisant la modification de l’empreinte génomique de cellules souches embryonnaires haploïdes (un seul exemplaire de chaque chromosome) a permis l’obtention de souris bimaternelles fertiles avec une efficacité accrue.
Si la reproduction bi-maternelle a pu être obtenue, la reproduction bi-paternelle s’est avérée un défi plus complexe. Le gamète maternel, en plus du matériel génétique, apporte l’essentiel des ressources nécessaires au développement initial de l’embryon (ARN, protéines, organites), tandis que le spermatozoïde apporte essentiellement son ADN, qui permettra la première division cellulaire.
Les embryons de souris issus de deux pères présentaient initialement de graves anomalies, incompatibles avec un développement complet, et mouraient avant la naissance ou peu après.
Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Début janvier, l’équipe de Zhi-kun Li a franchi ce verrou biologique en réalisant une série de 20 modifications génétiques ciblées sur des régions d’empreinte clés dans des cellules souches embryonnaires dérivées de spermatozoïdes. Ces modifications incluaient des délétions, des mutations et modifications de régions régulatrices sur des gènes critiques, dont des gènes impliqués dans la croissance embryonnaire, le développement placentaire et les fonctions neurologiques. Ces cellules modifiées ont ensuite été fusionnées avec un second spermatozoïde et injectées dans un ovocyte énucléé, c’est-à-dire un ovocyte dont le matériel nucléaire est retiré. Au cours du développement précoce, l’ajout de cellules supplémentaires pour former un placenta fonctionnel, s’est montré crucial pour un développement jusque la naissance. Ces modifications génétiques ciblées ont donc permis de corriger les déséquilibres d’expression génique imposés par l’empreinte parentale.
Les résultats ont été spectaculaires : les défauts majeurs observés dans les embryons bipaternels (croissance excessive, anomalies placentaires, troubles de la succion) ont été corrigés. Ces souris ont grandi et, pour certaines, survécu jusqu’à l’âge adulte mais restaient stériles et incapables de se reproduire naturellement. Le taux de réussite reste modeste (environ 4 % des embryons modifiés).
Les souris bimaternelles et bipaternelles présentent des caractéristiques opposées, reflétant le rôle antagoniste des empreintes parentales. Les premières sont plus petites, vivent plus longtemps et sont plus anxieuses, tandis que les secondes grandissent plus vite, vivent moins longtemps, sont plus téméraires, mais présentent des troubles du développement. Cela confirme que les gènes paternels stimulent la croissance, tandis que les gènes maternels la freinent, assurant un équilibre vital. Les travaux récents montrent que l’empreinte génomique est le principal obstacle à la reproduction bipaternelle. En modulant ces régions, un développement embryonnaire normal peut se produire.
Cette avancée ouvre plusieurs perspectives. En recherche fondamentale, l’étude de l’empreinte génomique permettra de mieux comprendre certaines maladies humaines rares comme les syndromes de Prader-Willi, caractérisé par une obésité sévère et des troubles alimentaires, et d’Angelman, qui provoque un retard intellectuel et une absence quasi totale de langage, tous deux liés à des défauts d’empreinte. Sur le plan des biotechnologies, la correction de ces anomalies pourrait améliorer l’efficacité du clonage animal et la stabilité des cellules souches en médecine régénérative. Enfin, les souris bipaternelles et bimaternelles offrent de nouveaux modèles pour explorer l’influence des génomes parentaux sur le développement et le comportement.
De nombreuses limites subsistent. Les souris bipaternelles présentent encore des anomalies (croissance accélérée, troubles du comportement, espérance de vie réduite), et leur développement dépend de manipulations lourdes et d’un environnement très contrôlé.
La génération de souris adultes à partir de deux pères, rendue possible par la modification de l’empreinte génomique, questionne donc la compréhension des règles fondamentales de la reproduction chez les mammifères. Cette avancée ouvre des voies inédites, et rappelle la complexité des mécanismes épigénétiques sans éluder une réflexion éthique critique : la question de la transposabilité à d’autres espèces, et en particulier à l’humain, n’est pas une question mineure.
Jean-François Bodart ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
28.05.2025 à 12:26
Sylvain Lemettre, Ingénieur-chercheur en physique du vide, Université Paris-Saclay
Dans notre quotidien, ce qui nous apparaît comme des espaces vides sont en fait remplis de milliards de molécules de gaz, le « vrai » vide se trouve essentiellement dans l’espace. Certains grands instruments scientifiques doivent pourtant être emplis de vide pour fonctionner.
En cette année 2025, l’Organisation européenne pour la recherche nucléaire (CERN) a publié l’étude de faisabilité de la construction d’un nouvel accélérateur de particules géant, appelé Futur collisionneur circulaire (FCC). Cet accélérateur mesurerait de 80 à 100 kilomètres de circonférence et serait donc au moins trois fois plus grand que le plus grand accélérateur de particules du monde, nommé LHC, déjà construit sur le même site, à la frontière franco-suisse. Ce projet, par son gigantisme, soulève de nombreuses réserves, et ce jusque dans la communauté scientifique : certains estiment que les chances de nouvelles découvertes scientifiques apportées par cet accélérateur sont trop faibles en regard de son impact écologique.
Une des caractéristiques fondamentales d’un accélérateur de particules est qu’il fonctionne sous un très haut niveau de vide. Mais le LHC n’est pas la seule installation sous vide géante construite par l’être humain sur la planète.
Le terme vide est employé dans la vie de tous les jours pour exprimer une absence ou un manque de matière. En réalité, même un espace qui nous paraît vide est empli de molécules gazeuses : une boîte de 1 m3 ne contenant aucun objet en apparence est en fait remplie d’environ 1029 molécules gazeuses, principalement de l’azote et de l’oxygène. Cette boite est, comme tout ce qui nous entoure, à une pression d’à peu près 101 325 Pascal (Pa), correspondant à la pression atmosphérique, aussi exprimée par l’unité 1 atmosphère.
En physique le vide caractérise un espace dans lequel le nombre de molécules gazeuses est raréfié par rapport à cette pression atmosphérique, ce qui se traduit par une plus faible pression que 1 atmosphère.
Le développement continu des technologies du vide depuis le XVIIème siècle a permis d’atteindre des niveaux de vide de plus en plus élevés – correspondant à des pressions de plus en plus basses – qui ont été classés en différentes catégories : descendre jusqu’à 10-1 Pa c’est réaliser un vide « primaire », jusqu’à 10-6 Pa c’est réaliser un vide « secondaire » ou « haut vide », jusqu’à 10-10 Pa « l’ultravide », et des pressions encore inférieures sont appelées « extrême vide ».
Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Le vide est donc une notion relative : vivre sous 1 atm est une exception, étant donné que l’immense majorité de l’univers est en fait « sous vide ». Par exemple, sur la Lune, qui n’a pas d’atmosphère, la pression est inférieure à 10-8 Pa telle que l’a mesurée la mission Apollo 14 en 1971. Quelle que soit la région de l’espace considérée (interplanétaire, interstellaire ou intergalactique), le niveau de vide est si élevé qu’il est préférable de le quantifier non plus par des pressions en pascal mais par des densités de molécules par unité de volume. On estime ainsi qu’il n’y a que quelques molécules gazeuses par m³ dans l’espace intergalactique.
Le vide est un outil essentiel qui intervient dans la fabrication – voire qui est nécessaire au fonctionnement – d’un très grand nombre d’objets technologiques, trop nombreux pour être listés, tels que les imageurs infrarouge ou les cellules solaires. Il est indispensable à la réalisation des expériences dans certains des très grands instruments scientifiques tel que l’accélérateur de particules.
Cet instrument permet d’accélérer à des vitesses relativistes (proches de celle de la lumière), à l’intérieur d’un ensemble de tubes, des particules atomiques telles que des électrons ou des protons, pour les faire se collisionner et étudier ainsi de quoi elles sont constituées, ou pour leur faire émettre des rayonnements ultrabrillants permettant ensuite de sonder la matière. Ces particules ne peuvent être manipulées efficacement et précisément que dans un environnement extrêmement contrôlé, et donc sans molécule de gaz. Le vide contribue aussi à protéger les composants de l’accélérateur de la dégradation.
Le réseau existant de tubes du LHC du CERN atteint une longueur totale de 104 km, maintenu selon les sections sous une pression allant de 10-4 Pa à 10-10 Pa. Pour ces dernières, cela signifie qu’elles contiennent au moins 1010 molécules par m3 – ce qui représente donc encore un grand nombre de molécules par rapport à celles que l’on trouve dans l’espace profond. Cette installation est enterrée à 100 m sous la terre. Le CERN espère construire un accélérateur encore plus grand, le FCC à partir de 2030, tandis que la Chine planifie aussi de construire son accélérateur géant dans les années à venir.
Un autre très grand instrument scientifique est aussi basé sur de longues sections de tubes sous vide : c’est le détecteur d’ondes gravitationnelles.
La détection d’ondes gravitationnelles – ces infimes perturbations de l’espace-temps – est notamment réalisée dans quatre détecteurs géants construits en Europe, aux États-Unis et au Japon. Le principe de détection repose sur la mesure des déviations du trajet rectiligne d’un laser. Ce dernier circule dans des tubes maintenus à 10-7 Pa. Le vide élimine toute source de perturbations du rayonnement laser, et le stabilise : il supprime les obstacles constitués par les molécules de gaz, il contribue à éliminer les vibrations soniques et thermiques. Enfin, il protège les instruments de la contamination particulaire.
Le plus grand des détecteurs d’ondes gravitationnelles est actuellement le LIGO aux États-Unis dans l’état de Washington, avec 8 km de tube représentant 1 200 m³ de volume. Un plus grand encore devrait entrer en construction à partir de 2028 en Europe, nommé Einstein Telescope, dont la longueur totale de tube sous vide approcherait 120 km environ – soit plus que le LHC !
Un tokamak est la pièce principale d’un réacteur de fusion nucléaire, qui promet une nouvelle source d’énergie dans un horizon encore lointain. Il s’agit d’un tore (forme géométrique ressemblant à celle d’un donut) dans lequel est généré un plasma dont la température atteint celle régnant au cœur des étoiles – soit une température extrême de plusieurs dizaines de millions de degrés ! Obtenir et maintenir de telles températures nécessite une excellente isolation thermique, qui est assurée par le vide.
Le plus grand tokamak du monde est en cours d’assemblage sur le site d’ITER (réacteur thermonucléaire expérimental international) dans les Bouches-du-Rhône. Le volume des parties sous vide avoisine les 10 000 m3, qui seront sous une pression inférieure ou égale à 10-4 Pa.
Enfin, un autre type de chambre à vide permet de reproduire des températures régnant dans l’espace : la chambre de simulation spatiale.
La principale source de dommages affectant les composants d’un véhicule spatial est le rayonnement solaire, car ce dernier n’est plus filtré par l’atmosphère terrestre. Pour tester au sol la tenue thermique d’un équipement avant de l’envoyer dans l’espace, des chambres à vide dites de « simulation spatiale » ont été construites. Celle du Space Environments Complex de la NASA située dans l’État de l’Ohio est la plus grande installation sous vide du monde par son volume : plus de 22 000 m3. Les objets placés à l’intérieur sont soumis à des cycles de température pouvant aller de -160 °C à 80 °C, sous une pression inférieure à 5x10-4 Pa.
La revue de ces très grands instruments scientifiques a donné un panorama des principales fonctions technologiques du vide, qui peuvent être classées en deux catégories : faire circuler des objets (des particules atomiques, de la lumière, et peut-être des êtres humains) ou reproduire à la surface terrestre un environnement spatial.
Sylvain Lemettre ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
28.05.2025 à 12:25
Alban Lemasson, Professeur à l'université de Rennes 1, directeur du laboratoire d'éthologie animale et humaine (EthoS), Université de Rennes 1 - Université de Rennes
Maël Leroux, Maître de conférence, Université de Rennes 1 - Université de Rennes
Dans leur livre « Quand les animaux prennent la parole ! », tout juste paru dans la collection « Espace des sciences » des éditions Apogées, Alban Lemasson et Maël Leroux explorent la richesse et la complexité de la communication vocale des animaux. Peut-on vraiment parler de langage animal ? Existe-t-il des formes de conversation, des intentions d’informer, des dialectes chez d’autres espèces ? Découvrez un extrait où les auteurs se penchent sur une question clé : les animaux utilisent-ils une forme rudimentaire de syntaxe ?
Le Grand Robert recense cent mille mots qui constituent autant d’unités porteuses de sens nous permettant de communiquer les un·e·s avec les autres. Cependant, ce n’est pas ce nombre impressionnant de mots qui permet de considérer le langage humain comme le système de communication le plus complexe du règne animal. Nos capacités de mémoire limitent très vite le nombre de mots que nous sommes capables de maîtriser et notre discours se compose en moyenne à 90 % des mêmes mille mots ! […] Malgré cela, notre langage reste, à notre connaissance, le système de communication le plus complexe, avec un « pouvoir génératif infini ». Autrement dit, peu importe la situation et même si celle-ci est inédite, les humains seront capables de la décrire précisément en utilisant le langage.
Mais alors, comment peut-on communiquer à propos d’un nombre infini de situations avec un nombre limité de mots ? Il y a une astuce : nous sommes capables de combiner ces mots en structures plus complexes : les phrases. C’est la syntaxe. Et c’est cette structuration syntaxique qui donne à notre langage son pouvoir génératif infini : la diversité des phrases que nous pouvons construire est théoriquement illimitée. Par exemple, nous pouvons dire « le chat sur le chemin chasse l’oiseau », mais nous pouvons également dire « le chat à soixante-cinq têtes sur le chemin qui mène au puits chasse l’oiseau qui est allé se poser sur les bords de la Seine ». Si la première phrase est couramment utilisée, il est très probable que la deuxième n’ait jamais été construite jusqu’à l’écriture de ce livre. Malgré sa singularité, nous comprenons cette deuxième phrase parfaitement, au même titre que la première, plus commune. Cela s’explique par le caractère compositionnel de ce type de structures syntaxiques : nous dérivons le sens de ces structures du sens des unités qui les composent. Ainsi, nous sommes capables de comprendre n’importe quelle construction, quelle que soit sa complexité ou sa nouveauté, en déchiffrant le sens des mots qui composent la phrase et la manière dont ils sont agencés. […] La question qui se pose est donc la suivante : cette syntaxe est-elle le propre de notre espèce ou pouvons-nous observer des formes rudimentaires de syntaxe chez d’autres espèces animales ?
Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Les premiers travaux documentant des formes de syntaxe chez les animaux non humains se sont basés sur les systèmes de communication déjà décrits chez le mone de Campbell, un petit singe cercopithèque d’Afrique de l’Ouest. […] Cette espèce possède deux cris d’alarme distincts pour chacun de ses prédateurs : le krak pour le léopard et le hok pour l’aigle. Mais la vie d’un petit cercopithèque dans la forêt ivoirienne est semée de bien d’autres embûches, certes moins dangereuses qu’un léopard ou un aigle, mais tout aussi importantes à prendre en compte. Par exemple, une branche qui tombe d’un arbre ou l’arrivée d’un groupe d’antilopes sont autant de perturbations représentant une gêne ou un risque non négligeable. Cependant, démultiplier les types de cris distincts pour alerter sur chacune de ces perturbations constituerait un vocabulaire trop important pour ces singes, sans compter les risques de confusion qu’un tel nombre de cris générerait et qui pourrait se révéler fatale dans une situation urgente. La solution : combiner le krak et le hok avec une autre unité, le oo, qui signale la présence d’une perturbation plus générale. Ainsi, les singes, en présence d’une perturbation venant d’en haut, telle une branche qui tombe, vont combiner le hok avec le oo pour former la structure hok-oo : « comme un aigle ». À l’inverse, lorsque les mones de Campbell rencontrent une perturbation venant du sol, comme une antilope, elles vont combiner le krak avec le oo pour former la structure krak-oo : « comme un léopard ». Des expériences de repasse par haut-parleur de cris avec et sans « suffixe » à la fois naturels (vrai krak ou vrai krak-oo) et artificiels (krak-oo dont on a retiré le oo pour construire en laboratoire un faux krak, et krak auquel on a ajouté un oo pour construire un faux krak-oo) ont montré que les sujets réagissaient bien au sens créé par la combinaison indépendamment du contexte d’enregistrement initial. En combinant ces unités porteuses de sens en structures plus complexes, ces cercopithèques démontrent des capacités rudimentaires de syntaxe. Parce que le sens de ces structures est dérivé directement du sens des unités qui les composent, ces combinaisons sont considérées comme des éléments de syntaxe dite « compositionnelle » chez ces primates. […]
Une autre structure syntaxique compositionnelle observée chez diverses espèces consiste en la combinaison d’un cri d’alarme avec un cri de recrutement. Le cri d’alarme, chez le chimpanzé par exemple, est produit lorsqu’un individu est surpris ou effrayé, en présence d’un serpent notamment, mais aussi lors d’un séisme ou à l’arrivée d’un potamochère (cousin du sanglier). Les chimpanzés produisent également des cris de recrutement lorsqu’ils sollicitent de l’aide pour chasser du gibier ou se défendre contre une communauté de chimpanzés voisine. Des observations en milieu naturel indiquent que les chimpanzés combinent ces deux cris en une structure complexe lorsqu’isolés du groupe, ils tombent nez à nez avec un serpent. L’hypothèse formulée par les scientifiques est que le chimpanzé, dans cette situation, appelle ses congénères aux alentours à l’aide, tout en précisant le caractère urgent et dangereux de la situation. Pour tester cette hypothèse, les scientifiques ont dissimulé un modèle de serpent imprimé en 3D sur la trajectoire de chimpanzés isolés de leur groupe dans les forêts d’Ouganda. Les résultats sont sans appel : dans cette situation, les chimpanzés produisent cette combinaison de manière systématique et les chimpanzés dans les environs qui entendent cette structure se joignent à l’individu émetteur : ils sont recrutés pour chasser ce serpent. Mais les chimpanzés qui entendent la combinaison d’un cri d’alarme avec un cri de recrutement perçoivent-ils cette structure comme un système syntaxique ? Ou interprètent-ils simplement chaque cri l’un après l’autre sans qu’un lien syntaxique entre les deux ne soit nécessaire pour comprendre la situation et réagir de manière appropriée ? Pour répondre à cette question, les scientifiques ont effectué des expériences de repasse chez les mêmes chimpanzés sauvages d’Ouganda.
Ces expériences consistent à diffuser, par haut-parleur, les cris d’alarme et de recrutement seuls, ainsi que la combinaison des deux, à des chimpanzés et à mesurer l’intensité de leur réaction. Si les chimpanzés interprètent la combinaison alarme-recrutement comme un système syntaxique, alors l’intensité de leur réponse à la combinaison doit être supérieure à la somme de leur réponse aux deux cris pris indépendamment l’un de l’autre. Les résultats de ces expériences montrent que les chimpanzés réagissent le plus fortement lorsque la combinaison est jouée : ils regardent dans la direction du haut-parleur plus rapidement et scrutent dans cette direction plus longtemps. C’est également uniquement dans ce cas que les chimpanzés s’approchent du haut-parleur. En comparaison, les chimpanzés ne regardent que très peu vers le haut-parleur et ne s’approchent jamais lorsqu’ils entendent seulement un cri d’alarme ou un cri de recrutement. Dans le premier cas, un cri d’alarme seul peut simplement indiquer la surprise de l’individu émetteur sans nécessairement indiquer un danger immédiat. Dans le deuxième cas, un individu qui entend un cri de recrutement seul, en l’absence d’autres indications lui permettant de déterminer la raison d’un potentiel recrutement, va se désintéresser de la source de ce cri : était-ce pour chasser une antilope ? Défendre mon territoire ? Prises ensemble, ces données indiquent que les chimpanzés réagissent de manière significative, plus qu’additive à la combinaison, c’est-à-dire que leur réaction à la combinaison alarme-recrutement est plus importante que ne serait leur réaction à un cri d’alarme ajoutée à leur réaction à un cri de recrutement. La combinaison produite par les chimpanzés est donc bien une structure syntaxique compositionnelle, dont le sens est dérivé du sens des unités qui la composent (« Attention ! Viens ! »). Ce type de structure syntaxique alarme-recrutement est également présent chez plusieurs espèces d’oiseaux comme le cratérope bicolore, la mésange japonaise et la mésange charbonnière. […]
Les implications de ces résultats sont particulièrement importantes d’un point de vue de l’évolution du langage et de notre espèce. En effet, la présence de formes rudimentaires de syntaxe chez les primates, et notamment les chimpanzés, nos plus proches parents, suggère que la syntaxe serait évolutivement plus ancienne. Jusqu’alors considérée comme un des éléments distinctifs de notre espèce, la syntaxe serait déjà présente chez notre ancêtre commun, voire au-delà au regard des données disponibles chez les autres espèces de primates !
Maël Leroux a reçu des financements de l'ANR (ANR-24-CE28-6179-01) et de Rennes Métropole (24CO981).
Alban Lemasson ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
28.05.2025 à 12:24
Benoît Tonson, Chef de rubrique Science + Technologie, The Conversation France
Pour recevoir le quiz Science chaque quinzaine dans votre boîte mail, abonnez-vous à notre newsletter «Moins de bruit, plus de science».
Espace, préhistoire, IA, biologie… Prenez le temps d'explorer l'actu scientifique, de rencontrer un chercheur ou une chercheuse dans le grand entretien, et évadez-vous dans le monde des sciences !
Cette semaine, un quiz pour tester vos connaissances sur les animaux. À vous de jouer !
Pour en savoir plus sur les capacités de communication des animaux nous vous invitons à lire ces deux articles :
27.05.2025 à 22:13
Justine Loizeau, Postdoctoral research fellow in sustainability and organization, Aalto University
Antoine Fabre, Maitre de Conférences en Sciences de Gestion, Université Paris Dauphine – PSL
Clément Boyer, Doctorant à la Chaire Comptabilité Écologique, Université Paris Dauphine – PSL
Pierre Labardin, Professeur des Universités, IAE La Rochelle
Half of the world’s forests were destroyed during the 20th century, with three regions mainly affected: South America, West Africa and Southeast Asia. The situation has worsened to the point that, in 2023, the European Parliament voted to ban the import of chocolate, coffee, palm oil and rubber linked to deforestation.
A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!
These products are at the heart of our economies and consumption habits. The case of rubber is particularly emblematic. Without this material, there would be no tyres and, thus, no cars, bicycles, sealing joints or submarine communication cables. Industrial rubber production depends on extracting latex, a natural substance that rubber trees such as hevea produce. Under pressure from corporations and states, Brussels last October announced a one-year postponement of its law regulating rubber imports.
This dependence on the rubber industry is not new. Rubber was central to the second industrial revolution, especially with the rise of automobiles and new management methods. While this history often centres on factories, citing contributions from figures such as Frederick Taylor and Henry Ford and industrial giants like Michelin, its colonial roots are less well known.
Indeed, rubber – like the other resources mentioned above – has been and continues to be primarily produced in former colonial territories. In many cases, rubber trees are not native to the regions where they have been cultivated. Rubber seeds from South America, where latex was already extracted by picking, were transported by colonists to empires for the development of plantations. In particular, the French colonial empire, spanning Africa and Southeast Asia, saw a significant expansion of hevea plantations at the expense of primary forests. Monocultures of rubber trees replaced thousands of hectares.
This management model was favoured because it allowed for lower extraction costs from the coloniser’s perspective. For example, in 1928, Henry Ford negotiated an agreement with the Brazilian government granting him a 10,000 km2 concession of forest land to establish Fordlandia, a settlement designed to produce the rubber needed for his factories. However, this industrial utopia in the Amazon failed due to resistance from Indigenous people and a fungal disease that ruined the plantations.
Following the same model, Michelin invested in plantations in present-day Vietnam as early as 1917. The plantation model and new management methods reduced the cost of rubber production and accelerated its global distribution. These management practices spread across the British, Dutch and French empires, becoming dominant in Southeast Asia in the early 20th century at the expense of primary forests.
À lire aussi : Allowing forests to regrow and regenerate is a great way to restore habitat
Rubber plantations resulted from applying Taylorism not only to workers – especially colonised workers – but also to nature. Both people and trees were subjected to a so-called “scientific” organisation of labour. In our article, L’arbre qui gâche la forêt The Tree That Spoils the Forest, published in the Revue française de gestion (French Journal of Management) in 2024, we analysed historical archives, including a variety of newspapers from 1900 to 1950, covering national, local, colonial and thematic (scientific, cultural, etc.) perspectives. We show that this organisational model is based on an accounting undervaluation of indigenous people’s labour and of nature. This undervaluation is embodied in the metric of the cost price (i.e. the total cost of production and distribution) and in the shared concern to see it lowered. “Ultimately, it’s the cost price that must determine the fate of rubber,” stated the newspaper L’Information financière, économique et politique on February 1, 1914.
In the eyes of some, Asians who were labelled as “coolies” and Brazilian “seringueiros” comprised a low-cost labour pool, with no mention of their working conditions and despite very high mortality rates. “Coolie” is a derogatory colonial term that refers to agricultural labourers of Asian heritage, while “seringueiros” refers to workers in South American rubber plantations.
“By the way, in the Far East, there are reservoirs of labour (Java Island, English Indies), which supply plantations with workers who, while not the most robust, provide regular work at a very advantageous cost price.” (L’Information financière, économique et politique, November 11, 1922)
Concerning trees, only the plantation costs were considered, silencing the human and ecological costs of primary forest destruction.
“In the first year, some 237 francs will have to be spent on the clearing itself; then the planting, with staking […] and weeding, will represent an expense of 356 francs. […] For the following years, all that remains to be done is to consider the maintenance costs, cleaning, pruning, care, supply of stakes, replacement, etc. This will result in an expenditure of 1,250 francs for the first five years.” (L’Information financière, économique et politique, January 31, 1912)
The focus on cost price leads to standardisation of management practices by aligning with what is cheapest, at the expense of ever more intense exploitation of human and non-human workers. In other words, these assumptions about the construction of accounting metrics and the circulation of these metrics play a role in the “cheapization” of human and non-human labour. We borrow the concept of “cheapization” from the environmental historian Jason W. Moore. In his view, the development of capitalism is marked by a “cheapization of Nature”, which includes, within the circuits of capitalist production and consumption, humans and non-humans whose work does not initially have a market value. Living beings are thus transformed into a commodity or factor of production: “animals, soils, forests and all kinds of extra-human nature” are being put to work.
À lire aussi : What actually makes avocados bad for the environment?
These ways of managing people and nature continue to this day. Many industries still rely on the extraction of natural resources at low cost and in large quantities in the countries of the global south. Rubber is not the only resource whose exploitation dates to the Industrial Revolution: palm oil, sugar, coffee and cocoa have also had, and still have, an impact on the forests of the global south and are based on the work of local people. The exploitation of these resources is also often the fruit of colonial history. In 1911, the Frenchman Henri Fauconnier brought the first palm oil seeds, a plant originally from Africa, to Malaysia. More than a century later, the country remains a leading palm oil producer, a resource largely responsible for the deforestation of primary forests.
Beyond the case of rubber alone, we question the link between the pursuit of profit in formerly colonised territories, the destruction of the environment and the exploitation of local populations on two levels. Not only are primary forests destroyed to feed short-term profits, but habituation to this mode of environmental management is a historical construct. We must remember this when looking at news from countries with colonial pasts. Whether we’re talking about preserving the Amazon rainforest, poisoning soil and human bodies with chlordecone in the Antilles, or building a pipeline in Uganda, we need to take a step back. What are the historical responsibilities? What are the links between creating economic activities here and exploiting ecosystems and local populations there? What role do management theories and tools play in realising or reproducing these exploitative situations?
At a time when the ecological and social emergency is constantly invoked to call for the transformation of management practices and business models, the rubber example invites us to consider the colonial matrix of managerial practices and the Western historical responsibilities that led to this same emergency. And suppose we have to turn to other forms of management tomorrow: who may legitimately decide how to bring about this change? Are former colonisers best placed to define the way forward? Knowledge of colonial history should encourage us to recognise the value of the knowledge and practices of those who were and remain the first to be affected.
The COCOLE project is supported by the French National Research Agency (ANR), which funds project-based research in France. The ANR’s mission is to support and promote the development of fundamental and applied research in all disciplines, and to strengthen dialogue between science and society. To find out more, visit the ANR website.
Antoine Fabre has received funding from the French National Research Agency via the programme “Counting in a colonial situation. French Africa (1830-1962)” (ANR-21-CE41-0012, 2021-2026).
Pierre Labardin is a professor at La Rochelle University. He has received funding from the French National Research Agency via the programme “Counting in a colonial situation. French Africa (1830-1962)” (ANR-21-CE41-0012, 2021-2026).
Clément Boyer et Justine Loizeau ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
27.05.2025 à 17:06
Diego Muro, Senior Lecturer in International Relations, University of St Andrews
Ovidiu Craciunas, PhD candidate, The Handa Centre for the Study of Terrorism and Political Violence, University of St Andrews
Santé mentale défaillante, radicalisation sur les réseaux sociaux, sentiment d’injustice… Des individus isolés ont multiplié les attentats ces dernières décennies, faisant de nombreuses victimes. Comment répondre et parvenir à endiguer cette menace ?
Les attentats à motivation politique, perpétrés par des individus isolés, sans affiliation directe avec un groupe terroriste, sont devenus plus fréquents en Europe au cours des dernières décennies.
L’une des formes les plus courantes et les plus dévastatrices de violence commises par des acteurs solitaires consiste à foncer dans la foule. En 2016, Mohamed Lahouaiej-Bouhlel a utilisé cette méthode pour tuer 86 personnes à Nice. En 2011, Anders Breivik a fait exploser une bombe dans le centre d’Oslo avant de commettre une fusillade de masse sur l’île d’Utøya, faisant 77 morts. Toutes les attaques menées par des acteurs isolés ne sont pas aussi meurtrières ou aveugles. Certaines visent des personnes précises, comme l’ont montré les assassinats de l’homme politique allemand Walter Lübcke en 2019 et du député britannique David Amess en 2021.
Le terrorisme des acteurs solitaires – également appelés « loups solitaires » – pose un défi de taille aux États européens. Les outils traditionnels de lutte contre le terrorisme conçus pour des groupes organisés comme Al-Qaida, l’État islamique ou l’organisation terroriste indépendantiste basque ETA sont beaucoup moins efficaces contre des individus agissants seuls. Si les complots d’acteurs solitaires sont généralement moins complexes, ils peuvent néanmoins causer des dommages importants.
Nous avons également constaté que les attaques perpétrées par des acteurs isolés peuvent avoir des répercussions considérables. L’indignation publique qui en résulte peut intensifier les débats sur des questions litigieuses telles que l’immigration et, en fin de compte, renforcer le soutien aux partis extrémistes.
Les attaques par mimétisme ou réaction sont une autre conséquence du terrorisme commis par des acteurs solitaires. Les fusillades de masse perpétrées par Brenton Tarrant à Christchurch en Nouvelle-Zélande, en 2019, en sont un exemple frappant. Ce dernier a cité les actions de Breivik et d’autres comme source d’inspiration directe. Selon le propre manifeste de Tarrant, un élément déclencheur clé de sa radicalisation a été l’attaque islamiste de 2017 à Stockholm, où Rakhmat Akilov, un demandeur d’asile originaire d’Ouzbékistan, a conduit un camion dans une foule, tuant cinq personnes, dont un enfant de 11 ans.
Parce que les acteurs solitaires opèrent de manière indépendante et communiquent rarement leurs intentions, leur identité reste souvent inconnue jusqu’après une attaque. Leurs objectifs et idéologies sont fréquemment ambigus, ce qui rend difficile la prédiction de leur comportement ou le choix de cibles potentielles. Même identifier correctement un incident comme un acte de terrorisme commis par un acteur solitaire peut s’avérer difficile.
Le cas d’Axel Rudakubana illustre cette difficulté. En 2024, Rudakubana a tué trois jeunes filles à Southport, dans le nord de l’Angleterre, après s’être introduit dans leur atelier de danse sur le thème de Taylor Swift. Malgré la découverte d’un manuel d’entraînement d’Al-Qaida en sa possession, les procureurs n’ont trouvé aucune preuve substantielle de motivation politique et ont qualifié l’incident de « tuerie de masse ».
Il est très difficile – voire impossible – de déterminer avec certitude le nombre exact d’attentats terroristes commis par des acteurs solitaires en Europe. L’absence d’une définition universellement acceptée du terrorisme constitue une partie du problème. Il est également possible que certains actes de violence massive soient classés comme terroristes alors qu’ils sont en réalité idéologiquement neutres. De même, il peut être difficile de déterminer si un individu a réellement agi seul, surtout à une époque marquée par la radicalisation en ligne.
Ce qui est clair, c’est que les attaques terroristes indépendantes sont devenues plus fréquentes au début des années 2010. En 2013, ces incidents se sont multipliés, l’Europe enregistrant de six à sept attaques islamistes et d’extrême droite par an (contre moins d’une par an avant 2010). Ces chiffres se réfèrent strictement aux cas où les auteurs ont agi de manière indépendante. Par exemple, l’attaque au camion-bélier d’Anis Amri à Berlin en 2016 et la tentative de suicide de Taimour al-Abdaly à Stockholm en 2010 ont d’abord été considérées comme des actes solitaires, mais des enquêtes ultérieures ont révélé des liens avec des cellules islamistes.
Le terrorisme des « loups solitaires » semble moins répandu parmi les groupes d’extrême gauche et des groupes nationalistes, bien qu’il y ait des exceptions.
Cette évolution vers des attentats perpétrés par des acteurs isolés est probablement le résultat de l’évolution des stratégies de lutte contre le terrorisme mises en œuvre après des attentats majeurs tels que les attentats à la bombe dans les trains de Madrid en 2004 et les attentats à la bombe de Londres en 2005. Il est devenu plus difficile de mener à bien des complots à grande échelle, de sorte que des groupes comme Al-Qaida et, plus tard, l’État islamique, se sont mis à encourager ou à organiser des attentats perpétrés par des individus vaguement affiliés, agissant indépendamment mais en leur nom.
La lutte entre les groupes terroristes et les gouvernements est une lutte d’adaptation constante. En 2018, les données d’Europol indiquaient que tous les attentats islamistes qui avaient été menés à bien en Europe cette année-là avaient été exécutés par des acteurs solitaires.
Les attentats commis par des loups solitaires ont une histoire encore plus longue dans le terrorisme d’extrême droite.
L’expression « loup solitaire » a été popularisée pour la première fois dans la propagande suprémaciste états-unienne au début des années 1990, bien avant que les chercheurs n’adoptent l’expression plus neutre de « terroriste solitaire ». À mesure que les efforts antiterroristes se concentraient sur les groupes suprémacistes blancs, nombre de leurs membres ont considéré l’action individuelle comme le moyen le plus efficace d’échapper à la détection et de préserver le secret de leur mode opérationnel.
Heureusement, nous comprenons désormais les crimes commis par des acteurs isolés. Ces attaques résultent de facteurs psychologiques et environnementaux complexes.
Bien qu’il ne faille pas simplement considérer les auteurs comme « fous », la santé mentale peut jouer un rôle dans la radicalisation, en particulier lorsqu’elle est associée à des griefs personnels, des aspirations vouées à l’échec et un sentiment d’injustice. Les influences familiales, les pairs et les espaces en ligne façonnent également ce processus. Bien que chaque parcours de radicalisation soit unique, certains schémas peuvent être observés – et les reconnaître précocement peut contribuer à réduire la menace.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
L’idée de « radicalisation autonome » mérite aussi d’être nuancée. Il est rare que les auteurs isolés se radicalisent totalement seuls ; leurs manifestes reprennent souvent des thèmes idéologiques plus larges, influencés par des théories du complot ou des figures charismatiques. Ces individus attribuent souvent une signification symbolique à leurs actes. Sensibiliser à l’impact des discours publics violents est essentiel – à condition de ne pas nuire à la liberté d’expression. L’histoire montre que proposer des « soupapes de sécurité » contre les idées controversées est plus constructif que la censure.
Les attentats perpétrés par des acteurs isolés sont, en partie, difficiles à prévenir, précisément parce qu’ils ne constituent pas une menace systémique comme peut l’être le terrorisme coordonné basé sur des groupes. Le danger réside dans des explosions de violence isolées plutôt que dans des campagnes soutenues. Mais certains schémas récurrents peuvent être observés – et les suivre de près pourrait aider à prévenir de prochaines tueries.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
27.05.2025 à 17:06
Milad Haghani, Associate Professor & Principal Fellow in Urban Risk & Resilience, The University of Melbourne
Hossein Parineh, Research Fellow, The University of Melbourne
À Liverpool, ce 26 mai, durant la célébration du titre de champion d’Angleterre de football remporté par les Reds, comme à Paris 19 jours plus tôt, après la qualification du PSG pour la finale de la Ligue des champions, des piétons ont été renversés par des véhicules qui n’auraient pas dû pouvoir accéder à ces zones. Les incidents de ce type, dits attaques à la voiture-bélier, sont de plus en plus fréquents dans le monde. Quelles que soient les motivations de leurs auteurs – le terrorisme dans un tiers des cas, mais aussi des crises de folie ou des considérations de vengeance individuelle, par exemple –, ces épisodes sanglants pourraient être réduits si des mesures de protection précises étaient systématiquement mises en place en amont de chaque rassemblement de grande ampleur.
Ce lundi 26 mai, des centaines de milliers de supporters du Liverpool Football Club s’étaient rassemblés dans le centre de la ville de Liverpool pour célébrer le titre de champion d’Angleterre remporté cette saison par le club. Peu après 18 heures, heure locale, une Ford Galaxy gris foncé a été précipitée par son conducteur dans la foule, quelques minutes après le passage du bus à impériale transportant les joueurs et l’encadrement de l’équipe. Une cinquantaine de personnes ont été blessées, 27 d’entre elles ont été hospitalisées, dont quatre enfants. Deux personnes se trouvent dans un état grave.
Selon des témoins oculaires et, au vu des premières images, il apparaît que, au départ de cette séquence, pendant que le véhicule était à l’arrêt, le conducteur a eu une altercation avec plusieurs personnes qui se trouvaient dans la foule. Il a ensuite effectué une brève marche arrière avant d’accélérer et de percuter plusieurs dizaines de personnes.
L’automobiliste, un habitant de la région de Liverpool âgé de 53 ans, a été arrêté sur place. La police a déclaré ne pas considérer l’incident comme un attentat terroriste et indiqué qu’il s’agit d’un acte isolé.
À ce stade, on ne sait pas avec certitude pour quelle raison l’homme a foncé dans la foule. Les autorités ont demandé au grand public de ne pas diffuser d’informations erronées sur ses motivations supposées.
D’une manière générale, il est important de noter que des événements tels que celui-ci, quand des véhicules renversent de nombreux piétons, surviennent de plus en plus fréquemment. Afin de mieux protéger les foules à l’avenir, il est nécessaire d’établir une typologie de ce genre d’épisodes et d’identifier les facteurs de risque qu’ils ont en commun.
Plusieurs cas de véhicules chargeant des foules de piétons ont été signalés récemment dans le monde entier. Leur nombre croissant est inquiétant. Rien qu’au cours des derniers mois, des incidents se sont produits dans les villes suivantes :
Vancouver, Canada, le 26 avril : un homme fonce dans la foule au volant d’un SUV lors d’un rassemblement de la communauté philippine de la ville, tuant 11 personnes.
Jinhua, Chine, le 22 avril : une femme écrase de nombreux piétons avec sa voiture à proximité d’une école élémentaire, faisant 14 morts.
Mannheim, Allemagne, le 3 mars : un homme percute un groupe de personnes dans une zone piétonne, faisant deux morts.
Munich, Allemagne, le 13 février : un homme roule dans la foule lors d’une manifestation syndicale, tuant une mère et sa fille de 2 ans.
Nouvelle-Orléans, États-Unis, le 1er janvier : un pick-up cible une foule de personnes réunies pour célébrer la Nouvelle Année sur Bourbon Street, faisant 14 morts. Le conducteur tire des coups de feu en sortant de son véhicule. Il sera abattu par la police.
Magdeburg, Allemagne, le 20 décembre 2024 : un homme au volant d’une BMW fonce sur un marché de Noël bondé, tuant six personnes, dont un garçon de 9 ans, et en blessant au moins 299 autres.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Sur ces sept incidents récents, seuls deux – ceux de La Nouvelle-Orléans et de Munich – ont été confirmés comme étant des actes terroristes commis par des « loups solitaires ». Les attaques au véhicule-bélier ne sont pas toujours des actes terroristes, loin de là, et leur survenue ne reflète pas nécessairement le niveau de menace terroriste pesant sur une ville ou sur un pays donné.
Dans au moins deux des cas récents – Mannheim et Vancouver –, les auteurs avaient des antécédents psychiatriques.
En analysant systématiquement les incidents documentés dans les médias et les sources publiques telles que Wikipédia, nous avons identifié au moins 152 attaques au véhicule-bélier ayant visé des foules civiles dans le monde entier depuis l’an 2000.
Ces attaques ont fait environ 511 morts à ce jour. L’attentat le plus meurtrier reste de loin celui du 14 juillet 2016 à Nice (Alpes-Maritimes), qui a fait 86 morts et des centaines de blessés. Le conducteur a été abattu par la police ; par la suite, huit autres personnes ont été reconnues coupables de complicité de terrorisme ou d’infractions à la législation sur les armes.
Les pays qui ont été le plus souvent les théâtres de ces attaques sont les États-Unis (31), la Chine (29), l’Allemagne (14) et Israël (14 également). Avant l’incident de Liverpool, le Royaume-Uni avait connu six attaques de ce type.
L’examen des données disponibles au niveau mondial montre une forte augmentation des incidents en 2017 et en 2018, suivie d’un bref déclin et d’une nouvelle augmentation après 2022. En 2025, il y a eu jusqu’à présent au moins 14 incidents dans le monde, qui ont entraîné au moins 50 décès.
Moins d’un tiers des épisodes recensés ont été attribués à des attaques terroristes.
S’il est bien sûr essentiel de surveiller la manière dont les organisations terroristes changent de tactique, il convient aussi de tenir compte du fait que les récents incidents liés à des véhicules-béliers sont de plus en plus liés à un ensemble d’autres facteurs, notamment des crises de santé mentale, des griefs personnels et des accès de rage.
Du point de vue de la sécurité publique et de la planification d’événements, le motif importe moins que le résultat. Un véhicule, quelle que soit l’intention de son conducteur, peut causer des dommages massifs et ce risque doit être géré.
Voici les principales mesures pratiques que les villes devraient mettre en œuvre pour mieux protéger les foules lors d’événements se déroulant dans des rues ouvertes :
Installer des obstacles solides et peu espacés : des obstacles capables de résister au choc d’un camion roulant à grande vitesse doivent être placés à chaque point d’accès à une zone qui sera fréquentée par une importante foule piétonne. Les cônes en plastique et le ruban adhésif ne suffisent pas. Ces obstacles doivent être placés suffisamment près les un des autres pour empêcher que les véhicules puissent se faufiler entre les obstacles ou les contourner.
Interrompre les trajectoires rectilignes : il faut éviter que des véhicules puissent prendre de la vitesse en empruntant de longs tronçons de route ouverte à l’approche des lieux de rassemblement. Pour cela, il convient d’utiliser des clôtures ou de stationner des véhicules de façon à briser les lignes de vue et à créer des chicanes naturelles qui ralentiront les véhicules.
Contrôler étroitement l’accès des véhicules aux zones de rassemblement : seuls les véhicules d’urgence ou de service indispensables et approuvés à l’avance doivent pouvoir pénétrer dans les zones de l’événement, sous surveillance et en respectant des plages horaires strictes.
Maintenir les restrictions en place après l’événement : aucun accès de véhicule ne doit être autorisé tant que la zone n’a pas été entièrement vidée de ses occupants. La présence de la foule ne s’arrête pas avec la fin de l’événement.
En d’autres termes, à aucun moment de la manifestation, que ce soit avant, pendant ou après, un véhicule non autorisé ne doit pouvoir entrer en contact avec la foule.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
27.05.2025 à 17:05
Mathieu Ughetti, Illustrateur, vulgarisateur scientifique, Université Paris-Saclay
Franck Courchamp, Directeur de recherche CNRS, Université Paris-Saclay
La crise climatique n’avance pas seule : elle est indissociable de la crise de la biodiversité. Découvrez en exclusivité, chaque mercredi, les 10 épisodes de la BD concoctée par Mathieu Ughetti et Franck Courchamp. Dans l’épisode 5, on s’intéresse aux insectes, aux oiseaux et aux migrations.
L’Héritage du dodo, c’est une bande dessinée pour tout comprendre à la crise du climat et de la biodiversité. Chaque semaine, on explore la santé des écosystèmes, on parle du réchauffement climatique mais aussi de déforestation, de pollution, de surexploitation… On y découvre à quel point nous autres humains sommes dépendants de la biodiversité, et pourquoi il est important de la préserver. On s’émerveille devant la résilience de la nature et les bonnes nouvelles que nous offrent les baleines, les bisons, les loutres…
On décortique les raisons profondes qui empêchent les sociétés humaines d’agir en faveur de l’environnement. On décrypte les stratégies de désinformation et de manipulation mises au point par les industriels et les climatosceptiques. Le tout avec humour et légèreté, mais sans culpabilisation, ni naïveté. En n’oubliant pas de citer les motifs d’espoir et les succès de l’écologie, car il y en a !
Retrouvez ici le cinquième épisode de la série !
Ou rattrapez les épisodes précédents :
Épisode 1
Épisode 2
Épisode 3
Épisode 4
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Rendez-vous la semaine prochaine pour l’épisode 6 !
Pour ne pas le rater, laissez-nous votre adresse mail
Ou abonnez-vous à L’Héritage du dodo sur :
Une BD de Franck Courchamp & Mathieu Ughetti
Qui sommes-nous ?
Republication des planches sur support papier interdite sans l’accord des auteurs
Créé en 2007 pour accélérer et partager les connaissances scientifiques sur les grands enjeux sociétaux, le Fonds Axa pour la Recherche a soutenu près de 700 projets dans le monde entier, menés par des chercheurs originaires de 38 pays. Pour en savoir plus, consultez le site Axa Research Fund ou suivez-nous sur X @AXAResearchFund.
Cette BD a pu voir le jour grâce au soutien de l’Université Paris Saclay, La Diagonale Paris-Saclay et la Fondation Ginkgo.
Mathieu Ughetti ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
27.05.2025 à 17:04
Éric Debarbieux, Professeur émérite en sciences de l'éducation, Université Paris-Est Créteil Val de Marne (UPEC)
Si le recours aux châtiments corporels est désormais condamné, l’idéologie qui a autorisé ces pratiques est loin d’avoir disparu en France. En témoignent ces discours faisant primer le répressif sur l’éducatif. L’affaire de Bétharram nous invite à interroger les effets de système qui perdurent et les mécanismes de reproduction de la violence.
Plus de 200 plaintes ont été déposées pour des faits de violences physiques et sexuelles, commis des années 1950 aux années 2000, dans une école catholique des Pyrénées-Atlantiques. L’affaire de Bétharram défraie la chronique depuis des mois, au point de menacer un premier ministre soupçonné d’avoir couvert ces faits.
Mais, comme le disent les victimes, cette affaire ne doit pas être masquée en une « affaire Bayrou » : il convient de la penser au-delà des responsabilités éventuelles de cet homme politique.
Des claques, des coups, de l’isolement à genoux sur le perron, par une nuit glaciale, le catalogue des châtiments corporels infligés surprend. Il s’agirait d’une violence d’une autre époque, révolue. C’est l’argument de défense de l’institution, et la conséquence judiciaire en est la prescription s’appliquant à la plupart des affaires révélées.
En soi, cela n’est pas faux. L’évolution pluriséculaire du regard sur l’enfant a fortement démonétisé l’usage de la violence en éducation, comme cela a été démontré par bien des historiens, au regard de l’histoire longue. Cela a été acté juridiquement et anciennement.
Le droit français a interdit le châtiment corporel à l’école dès 1803, même s’il a fallu longtemps pour que cette interdiction s’applique. Celle-ci a été répétée dans une circulaire de 1991. Beaucoup plus récente a été l’interdiction faite aux familles par la loi du 10 juillet 2019 relative à l’interdiction des violences éducatives ordinaires qui a précisé que l’autorité parentale s’exerce sans violences physiques ou psychologiques.
Les enquêtes de victimation à l’école témoignent de la rareté, mais non de l’absence du châtiment corporel dans les écoles publiques. Il en est ainsi dans une enquête, menée sous ma direction pour l’Unicef, en 2010, qui montre (p.22) qu’il s’agit encore en moyenne d’environ 6 % des élèves du primaire qui déclarent avoir été frappés par un membre du personnel.
Quantitativement cela est minoritaire, ce qui n’est pas une raison pour l’admettre, et l’on peut comparer avec les taux obtenus par le même type de recherche menée dans des pays du continent africain, qui peuvent atteindre 80 % d’élèves concernés. Aux États-Unis, ce sont encore au moins 19 États, principalement au Sud, qui autorisent le châtiment corporel à l’école, y compris avec un instrument (le paddle).
Aussi, dira-t-on, la violence, c’était avant et c’est ailleurs ? Oui, mais. Mais l’idéologie qui autorise ces pratiques est loin d’avoir disparu en France, et si celles-ci se sont en moyenne raréfiées, cachées, celle-là reste bien vivace.
Elle est idéologie du redressement de l’enfant, de sa domination par le « bon père de famille », y compris dans les déclarations du premier ministre lorsqu’il justifie la gifle en disant qu’il s’agit d’un « geste éducatif », paroles que j’ai commentées dans une chronique récente.
Elle est aussi idéologie de son enfermement et de son éloignement en cas de déviance : les victimes en ont témoigné, être en internat à Bétharram était bien en soi une punition. Un moyen de redresser l’enfant, d’en faire « un homme » en l’éloignant.
Cette idéologie de l’enfermement orthopédique et de la primauté du répressif sur l’éducatif n’a sans doute pas autant régressé qu’espéré. Ce désir d’enfermer, ce réflexe punitif, sont (re)devenus dominants et ils traversent toutes les couches de la société. C’est un mantra politique et populiste. Une loi réformant la justice des mineurs, révulsant les juristes et les éducateurs, vient d’être votée avec comme souhait des peines de prison ferme pour les adolescents dès 13 ans, de manière à leur causer une sorte de « choc carcéral », suivant les mots de Gabriel Attal, ex-ministre de l’éducation.
Malgré un rapport très critique de la Cour des comptes, les centres éducatifs fermés continuent d’être une solution dispendieuse, inefficace et humainement destructrice, pourtant largement affirmée par le pouvoir exécutif.
Sur le plan de la punition, il est une expérience commune qui consiste, lorsque l’on critique la « fessée » ou la « claque », voire les violences éducatives ordinaires, de s’entendre rétorquer : « On ne peut plus rien faire. »
Il est évident qu’il ne s’agit pas ici d’une quelconque apologie du laisser-faire mais de la condamnation de la violence en éducation. À ce « On ne peut plus rien faire » correspond très bien le « On ne peut plus rien dire » qui oppose les réticences patriarcales à la dénonciation du sexisme commun.
Bétharram est l’exemple même des effets d’un milieu clos et d’une culture qui favorisent systémiquement les violences de domination : soumission par les coups et la crainte qui peut dériver vers une soumission sidérée aux actes pédocriminels. Il existe un continuum des violences répressives et sexuelles. C’est largement démontré dans les milieux clos, par la recherche sur les populations vulnérables, tout autant qu’en milieu carcéral.
Ce n’est pas simplement la responsabilité individuelle des prédateurs qui est en jeu : dans la recherche actuelle sur les auteurs de violence sexuelle, de plus en plus est abandonnée la théorie de « la pomme pourrie », c’est-à-dire de l’individu seul déviant dans un milieu sain : on lira à cet égard l’excellent article du psychologue Nicolas Port dans la revue l’Année canonique en 2024 et portant entre autres sur les profils des prêtres agresseurs sexuels.
Le milieu culturel et le contexte institutionnel font partie des conditions du passage à l’acte, de sa détection possible et des cécités réelles ou de… mauvaise foi. On se dira alors que le catholicisme lui-même est en jeu. Son organisation est en effet largement empreinte de domination patriarcale. Celle-ci agit dans le vocabulaire (« Mon père »), dans la hiérarchie du genre qui est minoration du féminin, officialisée par l’impossible ordination des femmes, ce qui est contesté par le féminisme chrétien.
L’enseignement catholique est lui-même fracturé idéologiquement et si « l’ordre » reste un argument de légitimation, il n’en est pas moins que bien de ses écoles se rapprochent plus de l’univers de la pédagogie Montessori que de celui de Bétharram, suivant l’idéologie des classes moyennes supérieures.
La ligne de fracture est sans doute désormais plus politique que théologique. Certes, c’est dans l’électorat catholique et religieux qu’ont été recrutées une bonne partie des troupes de la Manif pour tous et il y a une porosité de cet électorat aux thèses identitaires extrêmes. Mais cet électorat ne s’y résume pas, loin de là, même si l’on peut craindre un élargissement des franges traditionnalistes. Cela nécessite – en éducation comme sur bien des points – un aggiornamento de la doctrine et de l’organisation du catholicisme, à cet égard l’affaire de Bétharram peut puissamment y aider.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Il serait en outre totalement contre-productif d’assimiler les violences révélées à l’ensemble des chrétiens : mutatis mutandis, ce serait la même erreur que celle qui assimile musulmans et terroristes… L’option fondamentaliste et pseudo-traditionnelle dans toutes les religions du livre est en jeu. Ainsi, dans une recherche menée en Israël et relatée dans un livre majeur sur la violence en contexte à l’école, Benbenishty et Astor démontrent la plus grande présence des violences sexuelles dans les écoles islamiques fondamentalistes et dans les écoles juives ultraorthodoxes, ces dernières fournissant les troupes d’extrême droite maintenant au pouvoir dans ce pays.
Enfin, une dernière erreur à éviter est de séparer le problème de la violence des adultes et celle de la violence commise par des mineurs, y compris la violence sexuelle. Bien sûr, la plupart des victimes ne deviennent pas des agresseurs et tentent de se protéger de la dure loi de conservation de la violence.
Mais il n’empêche qu’être battu est un facteur de risque important de devenir sexuellement victime, et éventuellement d’être un agresseur. Toute la littérature par facteurs de risque l’a démontré. Les témoignages recueillis à Bétharram montrent parmi les perpétrateurs de grands élèves utilisés comme surveillants. Plus loin, la parution récente d’un livre d’Aude Lorriaux, bien documenté, sur les violences sexuelles commises par des mineurs pose avec force le lien entre l’idéologie masculiniste et sa reproduction violente de ces violences par les mineurs.
Il ne s’agit pas d’y voir une jeunesse perverse, mais bien un effet de système, renforcé par une idéologie dont le trumpisme est un avatar. Les adultes peuvent aussi, terriblement, être de mauvais exemples.
Aussi, s’il est vrai qu’un meilleur contrôle des lieux éducatifs clos, une meilleure formation des personnels, une information plus précise de tous les élèves sur le consentement et la vie affective et sexuelle peuvent être une partie de la solution, il n’en reste pas moins que l’affaire de Bétharram, sans forcément être une affaire Bayrou, est bien une affaire politique.
Au cours de ma carrière j'ai pour mes recherches obtenu des subventions de l'ANR, de la Commission Européenne, de l'UNICEF, du Conseil Régional Aquitaine, de la CASDEN BP. Je n'ai plus de financements en cours. J'ai fait la préface du Livre d'Aude Lorriaux cité dans l'article.
27.05.2025 à 17:04
Joan Le Goff, Professeur des universités en sciences de gestion, IAE Paris-Est
Christine Noël-Lemaître, Maitresse de conférences en philosophie, Aix-Marseille Université (AMU)
Émilie Reinhold, Chercheuse associée en gestion, Université Paris-Est Créteil Val de Marne (UPEC)
François De March, Chercheur en sciences de gestion, Université Paris-Est Créteil Val de Marne (UPEC)
Les entreprises sont à la fois le lieu de rencontres amoureuses et sexuelles et le point de focalisation du phénomène #MeToo qui dénonce les violences sexistes et sexuelles. La recherche en management s’est peu intéressée à ce sujet, qui fait l’objet d’un colloque organisé à l’IAE Paris-Est afin d’apporter de premiers éclairages à la question suivante : comment le mouvement #MeToo est-il vécu dans le monde professionnel ?
Né en 2007 mais popularisé en 2017 lors de l’affaire Weinstein – du nom du producteur américain accusé de multiples violences sexistes et sexuelles (VSS) –, le mouvement #MeToo a amplement permis de libérer la parole des victimes de harcèlement ou d’agressions sexuelles. Tout comme sa déclinaison francophone (#balancetonporc), cette déferlante de témoignages sur les réseaux sociaux présente la caractéristique de concerner le monde professionnel, au-delà du monde du cinéma. Décliné pour différents secteurs économiques, des médias à la santé, ce système de signalement public a entraîné des changements comportementaux aussi bien parmi les salariés que parmi leurs employeurs.
Dans le même temps, l’entreprise demeure aujourd’hui encore un lieu au sein duquel s’épanouissent relations sexuelles et rencontres amoureuses, que ce soit entre collègues ou entre un subordonné et son supérieur hiérarchique. Histoires d’un soir ou romances durables constituent donc une dimension de la vie professionnelle. Leurs conséquences organisationnelles positives ou négatives sont bien réelles : départ spontané ou provoqué, conflits interpersonnels, désengagement, productivité accrue ou altérée, entrepreneuriat en couple, etc.
Pourtant, la sexualité dans les organisations est un thème notoirement délaissé dans la recherche universitaire. Certes, les études critiques en management anglophone l’ont abordée, dès 1984, avec un célèbre article de Gibson Burrell. Le sociologue britannique y pointait le processus de désexualisation dans les organisations en cours depuis le XIVe siècle, en relation avec le processus de civilisation décrit par Norbert Elias. Ce processus était engendré par l’avènement du protestantisme puritain accompagnant le développement du capitalisme. La chasse aux activités sexuelles (et à l’alcoolisme) sur les lieux de travail visait d’abord à accroître la productivité.
En 1992, Gibson Burrell poursuit son étude et se demande si le processus de « re-sexualisation » engagé dès les années 1960-1970 dans les pays occidentaux ne conduisait pas à des phénomènes d’oppression des femmes (discrimination, harcèlement sexuel) ou à leur exploitation comme objets sexuels dans les publicités ou les rapports avec la clientèle. Mais, ces recherches mises à part, la sexualité demeurait largement ignorée des travaux académiques.
Juste avant la vague #MeToo, un bilan des recherches sur la sexualité dans les organisations en prenait acte et reconnaissait que le thème restait encore, si ce n’est tabou, du moins assez peu développé dans le courant dominant en gestion alors que le contrôle, la marchandisation et la commercialisation de la sexualité n’avaient jamais été aussi importants, de même que son instrumentalisation commerciale. Le phénomène #MeToo aurait dû attiser la curiosité des chercheurs. Or, c’est le contraire qui semble s’être passé, malgré de rares exceptions.
Persuadés que, parce qu’elle imprègne et structure les organisations malgré elles, la sexualité mérite davantage d’attention dans les recherches en gestion, nous organisons un colloque pour évoquer les conséquences du phénomène #MeToo au sein des entreprises, point aveugle des retombées de cette vague de libération de la parole, dont nous publions ici les résultats de quelques contributions
À lire aussi : « Le Direktør » de Lars von Trier : une comédie d’entreprise sur le pouvoir et ses fantasmes
Farah Deruelle s’est intéressée aux résistances masculines suscitées par la régulation accrue des relations amoureuses et sexuelles au travail, perçue comme une désexualisation nécessaire par beaucoup de femmes. Après avoir mené plus de 60 entretiens, elle a observé trois formes principales de résistance :
la crainte de la fin de la séduction au travail, valeur pourtant au cœur d’une supposée identité française ;
la peur d’une aseptisation des relations professionnelles, amplifiée par l’instauration de codes de conduite et la suppression des temps festifs ;
l’appréhension d’une éventuelle censure féministe qui limiterait la liberté créative.
Un interviewé lors de l’enquête en entreprise de Farah Deruelle exprime son dépit :
« Donc voilà, c’est dur d’être un homme au XXIe siècle, hein. Y’a un peu d’humour, mais y’a un peu de vérité quand même. Tu sais pas trop comment te comporter. »
La principale conclusion de ce travail de recherche est qu’après #MeToo, de nombreux hommes craignent de subir un déclassement professionnel.
Abonnez-vous dès aujourd’hui !
Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).
Ce contexte permet à Christine Noël-Lemaître de (re)poser la question des enjeux éthiques de la sexualité sur le lieu de travail. Sa recherche scrute la dynamique des règles formelles explicitées dans les documents éthiques et juridiques diffusés en interne et en externe et des règles informelles en matière de comportement sexuel au sein des grandes entreprises cotées en France. Fondée sur une analyse des documents éthiques et une série d’entretiens exploratoires, l’étude pointe ainsi le minimalisme éthique en vigueur au sein des organisations post-#MeToo en France.
À l’inverse de la majorité des grandes entreprises, Cap Gemini ne se contente pas de rappeler que le harcèlement sexuel est illégal, mais alerte les salariés sur des comportements susceptibles d’être interprétés comme relevant d’une forme de harcèlement :
« L’un•e de mes collègues se tient toujours très près derrière moi, pose la main sur mon dos et mes épaules lorsque je suis à mon bureau. Cela me gêne énormément. S’agit-il de harcèlement ? C’est possible. Si vous le pouvez, demandez à votre collègue d’éviter de vous toucher. Ensuite, si vous estimez que cela n’a rien changé, vous pouvez en parler à votre manager. Si cela vous met mal à l’aise, vous pouvez vous adresser directement à votre responsable des ressources humaines »
François De March emprunte un chemin opposé en confrontant #MeToo à la pensée de l’écrivain et philosophe français Georges Bataille. Selon ce dernier, l’érotisme renvoie à une conception anthropologique dans laquelle l’hominisation (le passage de l’animal à l’homme) se traduit par l’apparition simultanée du travail et des interdits. La sexualité humaine s’est constituée en opposition au travail, car sa dimension violente le menace. D’abord religieux, les interdits visaient ainsi en première intention à protéger le travail de cette violence. Mais ils n’étaient pas absolus, leur transgression était toujours possible et s’exprimait dans la communauté des amants.
En attaquant exclusivement la sexualité masculine, le phénomène #MeToo ne peut pas être considéré comme un nouvel interdit. Il s’oppose radicalement à cette communauté des amants en stigmatisant uniquement l’un des deux. Les effets observables – baisse des relations sexuelles, augmentation de l’homosexualité féminine chez les jeunes, règles de plus en plus contraignantes dans les organisations – expriment la crainte croissante de la sexualité masculine. En ce sens, le phénomène #MeToo serait une négation de l’érotisme bataillien. Dès lors, le recours à la pensée de Bataille en permet une critique raisonnée, dans la lignée des écrits de Marcela Iacub et de Sabine Prokhoris. Elles dénoncent la violence de la croisade #MeToo,qu'elles estiment « beaucoup plus sévère que les anciens interdits d’origine religieuse » : dénonciations publiques sans preuves, injures vis-à-vis des incriminés, demandes d’annulations de manifestations artistiques et universitaires, menaces de violence physique, intimidations, actions en « meute ».
Comme d’autres préoccupations sociétales surgies avant elle (RSE, écologie, lutte contre les discriminations, etc.), l’action contre les violences sexistes et sexuelles au sein des entreprises est susceptible de connaître aussi bien des pratiques sincères que des détournements.
Du point de vue des dirigeants, le levier #MeToo peut être utilisé pour des fins personnelles, non sans cynisme. En s’intéressant à une organisation caritative au cœur d’un scandale fortement médiatisé (Emmaüs), Joan Le Goff montre comment #MeToo a pu ainsi être mobilisé pour y prendre le pouvoir, en dévoyant cette bonne cause au détriment des victimes (éventuelles ou attestées).
Alors qu’elle rencontre des résistances internes pour réorienter la stratégie du groupe, la nouvelle équipe de direction a tenté de disqualifier les antennes locales, héritières historiques du fondateur et des valeurs de la communauté solidaire. En impliquant ses adversaires dans un scandale sexuel (avéré), elle sait qu’ils ne pourront pas riposter, même sur d’autres sujets. Ici, #MeToo semble servir à bâillonner l’opposition pour surmonter des dissensions organisationnelles. La machine managériale peut renverser le sens d’un mouvement sociétal et en faire une ressource pour des stratagèmes, d’autant qu’une attaque sur la réputation est à la fois très efficace et peu coûteuse.
Au-delà de ces pistes de réflexion, le colloque abordera d’autres thèmes comme l’intelligence artificielle et l’industrie du sexe, l’humour sexiste ou encore l’hypocrisie organisationnelle autour de la prostitution.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
27.05.2025 à 17:04
Johanna Gast, Professeur Associé en Entrepreneuriat et Stratégie, Montpellier Business School
Chloé Zanardi, Enseignant-chercheur
Frédéric Le Roy, Professeur de Management Stratégique - MOMA et Montpellier Business School, Université de Montpellier
La France a adopté une loi de programmation militaire 2024-2030 ambitieuse : 413 milliards d’euros pour moderniser les armées. Concrètement, financer sa base industrielle et technologique de défense composée de 4 500 entreprises, dont neuf grands groupes industriels comme Thales ou MBDA, et de nombreuses PME. L’enjeu : les faire travailler ensemble dans une logique de « coopétition », une relation mixant la compétition et la coopération. Une véritable révolution copernicienne.
Face à la menace russe et à un désengagement états-unien, l’Europe se réarme. Fin avril 2025, 16 pays de l’Union européenne demandent à Bruxelles d’être temporairement dispensés des règles encadrant la stabilité budgétaire pour investir davantage dans la défense. La France n’a pas manifesté cet intérêt, mais Emmanuel Macron a évoqué en février 2025 l’idée de porter les dépenses militaires françaises de 2,1 % à 5 % du PIB.
Alors que la France se prépare à cette potentielle guerre de haute intensité, le gouvernement français met en ordre de marche sa base industrielle et technologique de défense (BITD) dans une nouvelle logique : celle de la « coopétition ». Ce mixte de coopération et de compétition entre différents acteurs qui étaient historiquement en coopération client-fournisseur est une véritable révolution copernicienne.
Pourquoi ? Hétéroclite, la BITD française repose sur des petites ou moyennes entreprises (PME) innovantes comme Decomatic ou Baumier, et de grands groupes industriels de défense comme Thales ou MBDA. Les associer sous un prisme de coopétition porte-t-il les promesses d’une industrie de défense plus agile, innovante et souveraine ? Et pour quelles réussites ? C’est l’objet du travail doctoral réalisé par Chloé Zanardi et encadré par Frédéric Le Roy et Johanna Gast.
La BITD française repose sur un écosystème structuré autour d’un petit nombre de grands groupes : Airbus Defence & Space, Thales, Safran, MBDA, Naval Group, Dassault Aviation, CEA, Ariane Group, Nexter, Arquus ; et d’un très grand nombre de PME. En 2019, sur les 26 452 fournisseurs directs du ministère des armées, 84,5 % étaient des PME et entreprises de taille intermédiaire (ETI), contre seulement 1 % de grands groupes.
Les grands groupes de défense français occupent une position de maîtres d’œuvre industriels incontournables. Ils assurent des missions allant de la recherche et développement à la vente de briques technologiques, en passant par la fourniture d’équipements et de services pour la défense. Compte tenu des besoins croissants des forces armées en matière d’innovation de rupture, ces grands groupes ont déployé des stratégies ambitieuses et mobilisé des moyens significatifs pour la recherche et développement (R&D). En 2020, Thales emploie 25 000 personnes pour la R&D, dont une majeure partie en France, et 3 000 personnes pour la recherche et technologie (R&T) sur un effectif total de 65 000 personnes.
Quant aux PME, elles ne sont plus uniquement considérées comme des sous-traitants. Elles dispensent leurs solutions innovantes aux maîtres d’œuvre, mais également apportent directement des solutions aux forces armées elles-mêmes. L’entreprise Exosens développe des technologies d’amplification, de détection et d’imagerie ; MC2 Technologies, des hyperfréquences pour des applications de sûreté et de sécurité ; Akira Technologies, la conception et la réalisation de systèmes de conversion d’énergie et de bancs d’essai spéciaux.
Les PME de défense françaises ont longtemps évolué dans un schéma de relations verticales avec les grands industriels du secteur. La chute du mur de Berlin, suivie d’une réduction marquée des budgets militaires, a mis en lumière la fragilité de ce modèle. En réaction à la baisse des commandes de l’État aux grands groupes, nombre de PME se sont tournées vers le développement d’innovations technologiques à usage civil ou dual.
À partir des années 2000, ces PME ont saisi l’opportunité offerte par l’émergence de technologies disruptives telles que la robotique, le big data, l’intelligence artificielle ou l’Internet des objets. Soutenues par la création de l’Agence Innovation Défense en 2018, elles ont pu revenir sur le devant de la scène, en proposant des solutions à forte valeur ajoutée pour la défense, souvent issues de savoir-faire développés dans le secteur civil. Des entreprises spécialisées dans les drones, comme Delair ou Novadem, développent des solutions pour l’armée française. Dès lors, la relation traditionnelle de sous-traitance fait de la place à des dynamiques plus horizontales.
« N’ayons pas peur. Ni de nos idées ni de celles des autres. En un mot, innovons toujours. […] Il faut penser globalement, ne pas opposer la petite entreprise au fleuron industriel », rappelle Florence Parly, ministre des Armées de la France de 2017 à 2022, dans un discours du 22 novembre 2018.
Face au dilemme entre collaboration ou concurrence, une stratégie hybride émerge dans le secteur de la défense : la coopétition. Cette stratégie, combinant coopération et compétition, permet aux PME de collaborer avec des industriels majeurs sur certains projets, tout en conservant leur indépendance sur d’autres segments. Longtemps réservée aux relations entre grands industriels, la coopétition entre les PME et les grands groupes a déjà été observée dans d’autres secteurs, comme le montrent nos recherches dans l’agrochimie.
Dans la défense, nous observons l’émergence de stratégies de coopétition asymétrique, où l’agilité des PME complète la puissance de feu des grands groupes. Elles peuvent se matérialiser à travers des dispositifs favorisant la co-innovation comme le challenge Cohoma, organisé par l’armée de Terre, ou encore le projet Centurion, organisé et coordonné par la direction générale de l’armement (DGA). Le challenge Cohoma a pour ambition de fédérer les acteurs de la robotique autour d’un projet commun, en constituant des équipes mixtes regroupant grands industriels, chercheurs universitaires et start-ups spécialisées.
Si la coopétition est porteuse de fortes potentialités, plusieurs obstacles freinent l’engagement des entreprises dans ce type de stratégie, tout en pouvant compromettre son bon déroulement. Premièrement, un déséquilibre important en termes de ressources et de poids sur le marché subsiste entre les PME et les grands groupes. Ces derniers, forts de leur position historique et de leur force de frappe structurelle, matérielle et humaine, peuvent être tentés d’exploiter leur domination et de jouer sur la dépendance encore existante des PME aux grands groupes du secteur.
Deuxièmement, nous avons constaté des craintes chez les deux coopétiteurs. Du côté des PME, la crainte est double : voir leurs compétences et ressources absorbées par le grand groupe à des fins concurrentielles, et subir une captation déséquilibrée de la valeur co-créée dans le cadre de la coopétition. Du côté des grands groupes, la coopétition demeure une stratégie portée par les directions générales, mais encore peu intégrée dans les pratiques opérationnelles. Le syndrome NIH (« Not Invented Here »), encore très présent dans ces équipes, constitue un frein majeur aux démarches de co-innovation.
Sans cadre clair, une PME peut se retrouver à transmettre son savoir-faire sans en récolter les fruits, voire être évincée du projet une fois l’innovation intégrée. Les études de Fernandez, Le Roy et Chiambaretto montrent que des mécanismes de management clairs sont essentiels pour que la coopétition fonctionne de manière équitable. C’est pourquoi un encadrement s’avère essentiel pour superviser et faciliter la coopétition entre les PME et les grands groupes de défense.
Dans l’industrie de la défense, l’acteur public joue un double rôle de client et de régulateur. En supervisant activement le tissu industriel, il peut jouer un rôle structurant pour favoriser des relations coopétitives équilibrées entre PME et grands groupes. Il lui est possible, notamment, de faciliter l’accès direct des PME au marché en simplifiant les dispositifs de soutien, en finançant le passage à l’échelle et en clarifiant les besoins opérationnels.
Le régulateur client peut utilement contribuer à instaurer un climat de confiance entre les coopétiteurs en multipliant les échanges directs. Il s’agit à la fois de sensibiliser les PME à la protection de leur propriété intellectuelle et aux risques inhérents à la coopétition, et de promouvoir auprès des grands groupes des pratiques d’innovation coopétitive équilibrées. La DGA, par l’intermédiaire de son médiateurou de son « plan en faveur des ETI, PME et start-ups » (PEPS), peut fluidifier les relations commerciales, agir comme tiers de confiance, promouvoir les bonnes pratiques contractuelles et encourager le partage d’information stratégique.
De façon générale, la coopétition entre PME et grands groupes dans l’industrie de la défense semble être la stratégie à suivre pour redonner à la France une capacité militaire innovante et puissante.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
27.05.2025 à 17:03
Mokhtar Bouzouina, PhD en sciences de gestion, Université Paris Nanterre – Université Paris Lumières
Faouzi Bensebaa, Professeur de sciences de gestion, Université Paris Nanterre – Université Paris Lumières
La finale de la Ligue des champions de l’UEFA oppose le Paris Saint-Germain et l’Inter de Milan. Focus sur la rivalité des équipes en coulisse, celle des présidents de club. Les moteurs : l’ego, les émotions et les médias sportifs qui mettent le feu aux poudres. Comment l’expliquer ?
Nasser Al-Khelaïfi, le président du Paris Saint-Germain (PSG), et Giuseppe Marotta, le président de l’Inter de Milan, n’ont pas échangé d’invectives par média interposé en vue de la finale légendaire du football. Si le président parisien ne règne pas en maître en Ligue des champions, il montre les muscles en ligue 1 : « John, John, John… Arrête de parler ! Tu comprends rien. T’es qu’un cow-boy qui vient de nulle part et tu viens nous parler », conspue-t-il John Textor, le propriétaire de l’OL. Plus qu’un échange musclé, cette altercation révèle une réalité peu explorée : celle de la compétition entre dirigeants de clubs sportifs.
Pendant longtemps, dans les manuels de stratégie, la concurrence est essentiellement fondée sur une mécanique rationnelle. Selon Porter, les entreprises sont censées fonctionner en avantages/coûts, selon Lieberman et Montgomery, être first mover ou selon Barney, s’appuyer des ressources et des compétences idiosyncrasiques, liées au tempérament d’une personne.
Mais si la concurrence entre entreprises ne se jouait pas uniquement sur des chiffres, des modèles d’analyse abstraits ou des stratégies froidement rationnelles, mais plutôt dans l’interaction humaine entre décideurs ? Les théories du management classique se tromperaient-elles ?
Cette contribution s’appuie sur une thèse soutenue en décembre 2024 à l’Université Paris-Nanterre. Elle intègre le facteur humain dans l’analyse de la dynamique concurrentielle, à partir d’entretiens avec des dirigeants de clubs de football professionnel, en Ligue 1 et en Ligue 2.
Les dirigeants d’entreprises sont perçus comme des stratèges méthodiques, alignant des décisions optimisées, s’appuyant sur des outils censés être adéquats et ayant fait leurs preuves : matrice SWOT, modèle des cinq forces, dilemme du prisonnier, etc. Cette grille de lecture montre vite ses limites lorsque les environnements obéissent à d’autres logiques.
Dans le secteur du football professionnel, fortement médiatisé, où les émotions et les enjeux symboliques sont omniprésents, la concurrence prend une dimension plus personnelle. C’est ce que rappelait la sociologie stratégique de Crozier et Friedberg en s’intéressant à la dynamique des jeux d’acteurs, et la stratégie individuelle de chaque personne dans une organisation. Un président rappelle :
« On a toujours dans la tête que le football, c’est l’espace de 90 ou 95 minutes, mais pour moi, ça me fait immédiatement penser à la compétition. Et très souvent, même les dirigeants y sont. Les dirigeants viennent dans ce monde-là parce que c’est des gens qui aiment la compétition. »
La concurrence dans le football ne suit pas seulement une logique d’optimisation, elle suit aussi une logique d’affrontement personnel. En ce sens, la rivalité personnelle devient une dimension au cœur de la dynamique concurrentielle. Un autre président témoigne :
« Entre clubs, on ne peut pas se faire de sales coups, c’est le sport qui décide, c’est le carré vert comme on dit. Mais entre individus, parfois, il y a des coups bas… »
Pour certains dirigeants, posséder un club de football n’est pas une simple opération économique. C’est un vecteur d’image, une scène sur laquelle se joue autre chose que le business. Comme le confie un autre dirigeant :
« Il y a pas mal de dirigeants qui ont tellement les moyens que finalement un club de football, ce n’est pas le centre de leur univers. Ils vont y chercher autre chose que ce qu’ils peuvent chercher dans leur business au quotidien. »
À lire aussi : Le football remonte-t-il à l’Antiquité gréco-romaine ?
Dans les hautes sphères du football professionnel – Ligue 1 et Ligue 2 –, c’est très feutré en surface… mais explosif en coulisse. Loin des caméras, la concurrence se reflète le plus souvent dans les egos entre les dirigeants des clubs. Ce ne sont pas les clubs qui s’affrontent, mais les personnes qui les possèdent et/ou les dirigent. Comme le reconnaît un président, « il y a une rivalité entre dirigeants parce qu’il y a des problèmes d’ego entre les personnes ».
Et lorsque les egos se heurtent, la logique dérape. Ici, on ne défie pas le business model de l’autre, mais on se confronte à un autre président, à un dirigeant, voire à un individu. Un autre dirigeant confesse avec lucidité :
« Il y a des dirigeants qui ne s’aiment pas ou qui m’aiment pas ; il y a des jalousies qui se créent entre dirigeants et ça pousse certains à faire des choses qui n’ont pas de sens pour leurs clubs. Certains dirigeants vont parfois prendre une décision qui n’est pas guidée par la cohérence de leur projet, mais par des satisfecits donnés pendant quinze jours. »
L’univers du football professionnel n’est guère une anomalie dans l’univers des affaires. Bien au contraire. C’est simplement plus visible et exacerbé. La médiatisation agit comme un révélateur. Un dirigeant le confirme avec un regard transversal sur sa propre expérience :
« Avant, je travaillais dans le secteur bancaire. Le PDG de Lehman Brothers était en concurrence avec le PDG de Merrill Lynch et de Goldman Sachs. D’énormes egos aussi qui brassaient d’autres chiffres qui n’ont rien à voir avec le secteur du football. »
Ailleurs, ces rivalités existent tout autant… hors caméra. Le secteur du luxe l’illustre parfaitement avec Bernard Arnault et François Pinault. On découvre un univers où les dirigeants s’affrontent, les gestes sont codés, les messages soigneusement adressés. Mais tout se joue dans l’ombre. Là où le football affiche ses conflits à la Une des journaux sportifs, le luxe les habille de silence et de symboles avec des acquisitions prestigieuses, des fondations artistiques ou des gestes ostentatoires mais feutrés. Le moteur reste le même : des hommes en quête de domination symbolique autant qu’économique.
Et puisque la famille Arnault possède le Paris Football Club (PFC) et la famille Pinault, le Stade rennais, la rivalité peut maintenant se jouer sur le carré vert.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Il ne s’agit nullement de remettre en cause les fondements de la concurrence, tant s’en faut. L’idée : élargir le spectre de son analyse par l’intégration de l’interaction humaine qui joue un rôle loin d’être négligeable. Cette dernière est structurée par une dimension émotionnelle et des interactions personnelles. Elles substituent à la rivalité organisationnelle une confrontation personnalisée centrée sur l’individu, perçu comme l’ennemi à dépasser ou à éliminer symboliquement. Mais, attention, il n’y a pas de mise à mort au rendez-vous !
Cette dimension semble pourtant quasiment absente dans les théories dominantes de la stratégie des organisations. Elle constituerait un champ d’analyse stratégique à part entière permettant de mieux comprendre non seulement la genèse des stratégies, mais également les modalités concrètes de leur mise en œuvre. Exit alors la boîte noire organisationnelle !
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
27.05.2025 à 17:03
Warren Buckland, Reader in Film Studies, Oxford Brookes University
Alors que The Phoenician Scheme, le nouveau Wes Anderson, sort en salles le 28 mai, les réseaux sociaux débordent de pastiches. Mais comment capter vraiment son style ? Mode d’emploi pour recréer la magie andersonienne… sans se tromper de recette.
Les films de Wes Anderson tiennent souvent à une seule image saisissante. Ce goût pour le visuel s’est affirmé dès La Famille Tenenbaum (2001), lorsque Margot (Gwyneth Paltrow) descend du bus – une scène devenue emblématique. Depuis, cette esthétique singulière a conquis de nombreux fans, qui traquent le « style Anderson » dans les moindres recoins de leur quotidien.
La page Instagram Accidentally Wes Anderson, créée en 2017, a connu un succès fulgurant en publiant des photographies de lieux réels qui, par hasard, correspondent à l’univers visuel d’un film de Wes Anderson.
Par exemple, un métro milanais semble tout droit sorti de son imaginaire, avec son agencement symétrique, ses murs bleu pastel et ses barres jaunes éclatantes. Sur les réseaux sociaux, des internautes « romantisent » leur quotidien à la manière des films d’Anderson. Tout a commencé avec Ava Williams, qui a publié une vidéo d’un trajet en train sur TikTok, avec cette légende : « T’as intérêt à pas faire genre t’es dans un film de Wes Anderson quand j’arrive. »
Avec la sortie prochaine d’un nouveau film, The Phoenician Scheme (en salles françaises le 28 mai 2025), les réseaux sociaux vont sans doute être inondés de nouvelles tentatives d’imitation. Mais toutes ces pastiches ne sont pas forcément réussies.
Le style Wes Anderson que tentent de reproduire ces internautes est une esthétique insaisissable, qui ne prend forme que par une combinaison spécifique d’éléments.
Penser l’esthétique d’Anderson comme une combinaison d’éléments revient à l’envisager comme une recette.
Quand on fait un gâteau, il ne suffit pas d’avoir la liste des ingrédients : il faut aussi les bonnes proportions. De nombreux chercheurs en cinéma ont identifié les principales caractéristiques (les ingrédients) du style andersonien. On y retrouve :
un angle de caméra frontal
des plans-tableaux
un cadrage symétrique (souvent centré)
une vue en plongée (vue d’en haut)
une caméra fixe ou un mouvement de caméra mis en avant
du ralenti
une séquence en montage accompagnée d’une bande-son (rock ou musique instrumentale décalée)
des palettes de couleurs harmonieuses.
Mais pour imiter Wes Anderson, il faut combiner ces ingrédients dans les bonnes proportions.
Cette combinaison stylistique typique émerge dans son troisième long métrage, La Famille Tenenbaum (2001). Ce film se distingue par son usage constant de plans-tableaux, où les personnages sont disposés de manière formelle, sur le même plan, face au spectateur. Ces images sont immédiatement reconnaissables par leur composition frappante et leur effet dramatique.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Prenons la séquence où Anderson nous présente sa « galerie de personnages (22 ans plus tard) » (comme l’indique le carton-titre). Tous les personnages sont montrés face à un miroir. Ici, la caméra prend la place du miroir, ce qui les amène à regarder directement l’objectif.
Ces images-tableaux sont renforcées par une caméra fixe et un cadrage centré (les personnages sont positionnés au centre de l’image), ce qui accentue la symétrie et l’immobilité.
Anderson varie les combinaisons de ces plans-tableaux. Le film s’ouvre sur un plan-tableau symétrique et statique d’un livre de bibliothèque (The Royal Tenenbaums), filmé en plongée (vue du dessus), la caméra étant perpendiculaire au comptoir. Ce premier plan combine donc pas moins de cinq éléments : angle frontal, plan-tableau, cadrage centré, vue en plongée et caméra fixe.
L’originalité du style andersonien ne réside pas dans chacun de ces éléments pris isolément, mais dans leur combinaison spécifique.
Autre exemple emblématique : Margot retrouve Richie (Luke Wilson) après son voyage en mer.
Elle descend du bus et marche vers la caméra – donc vers Richie, qui se trouve derrière l’objectif. Ce plan combine une nouvelle fois angle frontal, plan-tableau et cadrage centré. Mais il s’y ajoute cette fois une caméra en mouvement (qui recule pour suivre Margot) et un ralenti, le tout accompagné de la chanson These Days interprétée par Nico.
L’usage systématique des plans-tableaux dans La Famille Tenenbaum (et dans les films suivants) se conjugue avec d’autres éléments stylistiques pour créer une esthétique cohérente.
Les traits qu’Anderson combine dans ses films ne sont pas arbitraires. Tous remplissent une même fonction : attirer l’attention sur la forme, et instaurer une distance entre les spectateurs et les personnages.
Anderson rejette les techniques narratives classiques (celles dites « invisibles ») au profit d’un cinéma réflexif, où le regard du spectateur est guidé vers une observation clinique et distante de personnages excentriques évoluant dans des univers tout aussi singuliers.
Alors, si vous souhaitez transformer un moment de votre quotidien en scène andersonienne, pensez d’abord à l’histoire que vous voulez raconter, et combinez avec soin les huit ingrédients qui font toute la magie d’un véritable plan signé Wes Anderson.
Warren Buckland ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
27.05.2025 à 12:12
Jean-Yves Goffi, Professeur, Université Grenoble Alpes (UGA)
Quelles sont les conséquences de la théorie de l’évolution de Darwin sur la croyance en la situation exceptionnelle de l’humain ? Cette question est au cœur de la réflexion du philosophe américain James Rachels, spécialiste d’éthique, dans Animaux humains. Les implications morales du darwinisme (Éliott éditions, 2025). Une réponse possible aux thèses créationnistes qui ont le vent en poupe, notamment aux États-Unis.
Dans un passage célèbre des conférences rassemblées sous le titre Introduction à la psychanalyse, Freud affirme que l’amour-propre naïf de l’humanité a dû endurer deux cinglants démentis infligés par la science et doit se préparer à en affronter un troisième.
Le premier, associé au nom de Copernic, ce fut lorsqu’elle a montré que la Terre, n’est pas le centre de l’Univers mais ne constitue qu’une portion minuscule du système d’un monde dont on peut à peine se représenter l’immensité.
Le second, associé au nom de Darwin, date de l’époque où la recherche biologique a réduit à rien le prétendu privilège humain au sein de la Création en établissant sa descendance du règne animal et en affirmant le caractère irréductible de sa nature animale.
Le troisième, associé au nom de Freud lui-même, résultera du fait que la recherche psychologique est en train d’établir que le moi n’est pas le maître en sa propre demeure et qu’il ne peut atteindre, en se fondant sur ce dont il est conscient, que de maigres informations relatives à ce qui se joue dans la vie psychique.
On devine qu’en procédant ainsi, Freud présente à son auditoire un Darwin passablement simplifié et enrôlé dans un propos qu’il n’aurait peut-être pas cautionné. Premièrement, il est discutable de présenter Darwin comme un biologiste, le cursus des études au XIXe siècle étant très différent de ce qu’il est de nos jours.
Son statut dans l’institution scientifique est d’ailleurs un peu particulier : à une époque où la science se professionnalise dans la cadre de l’Université, il représente encore par quelque côté la science d’amateurs éclairés du XVIIIᵉ siècle.
La première partie du livre du philosophe américain James Rachels qui vient d’être traduit en français sous le nom Animaux humains. Les implications morales du darwinisme tente de rendre compte objectivement de son parcours.
Darwin est un naturaliste. Il a commencé, puis abandonné des études de médecine. Il s’est tourné, sans grand enthousiasme, vers la théologie afin de devenir pasteur de l’Église anglicane. Passionné par l’observation des êtres vivants et visiblement doué, il a été remarqué par plusieurs de ses professeurs et recommandé par l’un d’eux pour être embarqué comme naturaliste à bord d’un navire de la Royal Navy, au cours d’une campagne de cartographie de la côte sud-américaine (1831-1836).
Les rapports et les échantillons adressés au pays pendant cette période furent jugés si intéressants qu’à son retour, il fut élu au conseil de la Société de géographie, puis devint membre de la prestigieuse Royal Society.
Il travailla assidûment, recueillit et systématisa ses observations et publia en novembre 1859 l’Origine des espèces au moyen de la sélection naturelle, ou la lutte pour l’existence dans la nature (selon la traduction du livre en français, ndlr). Dans cet ouvrage, qui n’est pas destiné aux spécialistes, Darwin affirme qu’il développe un seul long argument ; en voici les deux conclusions principales, assez modestes en apparence :
Premièrement, dans le monde du vivant, les espèces n’ont pas été créées séparément mais descendent d’autres espèces. Deuxièmement, c’est le mécanisme de la sélection naturelle qui est le moyen de ce processus. Comme il naît bien plus d’individus de chaque espèce qu’il n’en peut survivre, tout être présentant par rapport à ses congénères une variation qui lui est favorable, si infime semble-t-elle, a une plus grande chance de survivre et d’avoir une descendance manifestant cette modification.
Darwin est assez prudent pour ne pas employer le terme « évolution » ; il est assez prudent, également, pour différer l’application à l’être humain de sa théorie.
Mais il n’est pas besoin d’être grand clerc pour s’apercevoir du caractère considérable de ses implications : le monde n’est pas resté inchangé depuis sa création ; il est d’ailleurs impropre de le concevoir comme l’effet d’un acte créateur ; on peut donc retracer son histoire sans l’intervention d’un créateur sage et bienveillant ; le statut du divers n’est pas de manifester imparfaitement des réalités invariables ; il est l’effet du mouvement par lequel la vie se propage, etc.
La notion d’implication est précisément au cœur de l’interprétation de Darwin proposée par James Rachels : mais il s’agit d’implications morales. Pour y voir plus clair, intéressons-nous au titre original de son ouvrage : Created from Animals est une expression difficile à traduire en français. Il s’agit en fait d’une formule de Darwin lui-même, extraite de son Notebook C (page 196-197), qui s’énonce ainsi :
« Dans son arrogance, l’homme se croit une grande œuvre, digne de l’intervention d’une divinité. Il est plus humble et, je crois, plus vrai de considérer qu’il a été créé à partir des animaux. »
James Rachels est connu par ses travaux en éthique appliquée, très représentatifs de ce qu’était cette discipline au tournant des années soixante et soixante-dix du siècle dernier. Il y est question, en effet, de discrimination raciale, d’avortement, de recherche médicale sur le fœtus, de la faim dans le monde, de l’euthanasie, etc.
Sur toutes ces questions, l’auteur adopte des positions qui sont maintenant devenues banales, mais qui s’inscrivaient à l’époque dans un courant de contestation de la morale traditionnelle et, plus particulièrement, du manque d’humilité dont – avec les meilleures intentions du monde – elle faisait preuve.
Dans Animaux humains, il ne va pas chercher à extraire des normes morales à partir des thèses de Darwin. Il ne soutient pas non plus la thèse ridicule selon laquelle l’être humain serait, de part en part, un animal comme les autres. Il va plutôt montrer que le propos darwinien rend difficilement tenable la croyance en la situation exceptionnelle de l’être humain au sein de l’univers qui est au fondement de cette morale traditionnelle.
À lire aussi : Humains, animaux, cellules, plantes : tous conscients ?
L’histoire immémoriale du vivant n’est pas le développement d’un plan divin visant à placer l’homme, créé à l’image et à la ressemblance de Dieu, au sommet des êtres et à part d’eux. L’être humain n’est pas non plus le seul être investi de dignité du fait de la possession d’une faculté unique : la raison.
Celle-ci, en effet, n’est pas une affaire de tout ou rien, mais de plus ou moins. Il faut plutôt voir les êtres humains et les autres animaux comme les membres d’une même famille, les premiers ayant développé des instincts – en particulier altruistes – que les autres ont parfois déjà manifestés, bien que d’une façon moins élaborée.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
L’œuvre de Darwin a toujours été l’objet d’interprétations antagonistes, et parfois même violemment antagonistes. On pense, bien sûr, à une opposition frontale comme celle que l’on trouve entre André Pichot, la Société pure : de Darwin à Hitler (Flammarion, 2000) et Patrick Tort, l’Effet Darwin. Sélection naturelle et naissance de la civilisation (Seuil, 2008).
Une chose est certaine cependant : elle est, moyennant des apports qui faisaient défaut à Darwin – on pense, évidemment, à la génétique – du côté de la science et non de l’idéologie.
C’est ainsi que ses théories, bien qu’elles n’aient pas pour objet de constituer une réfutation en règle des thèses créationnistes fondées sur une lecture littérale de la Bible, mettent en évidence le caractère dogmatique et arbitraire de celles-ci. Il ne sera pas question ici des causes ou des raisons expliquant leur vogue, spécialement aux États-Unis, mais de leur contenu. Le livre d’Eugenie C. Scott, Evolution vs Creationism. An Introduction, (University of California Press, 2009) constitue une bonne introduction à la question.
Les thèses darwiniennes, en effet, mettent en danger leur prétention à la vérité. Les théories créationnistes affirment que l’Univers a été créé par un dieu personnel, que pour l’essentiel il n’a pas changé depuis la Création et, enfin, qu’il exprime un dessein de la Divinité.
En ce sens, la plus importante implication du darwinisme est bien de rendre possible une perspective pour laquelle l’homme n’est ni le sens ni le but de l’Univers.
Jean-Yves Goffi a dirigé la thèse de Florian Couturier (soutenance en 2014), le traducteur de l’ouvrage de James Rachels Animaux humains. Les implications morales du darwinisme (Éliott éditions). J.-Y. Goffi a rédigé la préface de cette traduction.
Jean-Yves Goffi ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
27.05.2025 à 11:54
Sandrine Wetzler, PhD, chef de projets scientifiques - Mission nutrivigilance, Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses)
Les substituts au sel de table, à base de potassium, peuvent présenter des risques pour la santé de populations spécifiques (insuffisants cardiaques et rénaux, hypertendus, diabétiques, sujets âgés…). L’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses) recommande d’informer davantage les consommateurs concernés, notamment au moyen d’un étiquetage sur les emballages de ces produits.
En pharmacie comme en supermarché, des substituts au « sel de table » sont proposés à la vente pour accompagner les personnes soumises à un « régime sans sel » pour raisons de santé, ou qui souhaitent diminuer leur apport en sodium conformément aux recommandations des instances nationales et à celles de l’Organisation mondiale de la santé (OMS).
L’OMS estime que, dans le monde, environ 1,9 million de décès par an sont liés à une consommation de sodium trop élevée. En effet, il est clairement établi qu’il existe un lien entre un apport excessif de sel sodé et l’hypertension artérielle, cause d’une augmentation du risque de maladies cardiovasculaires.
L’OMS préconise de consommer moins de 2 g de sodium par jour (soit moins de 5 g de sel de table). Les populations dont la consommation de sel est trop élevée se tournent parfois vers des substituts de sel sans savoir que ces produits ne sont pas sans risque.
Ces produits sont à base de chlorure de potassium. Leur consommation peut notamment se révéler potentiellement dangereuse pour les personnes ayant comme antécédents médicaux une hypertension artérielle, une insuffisance cardiaque, rénale ou encore un diabète.
À lire aussi : Nouvelle recherche : des mélanges d’additifs alimentaires associés à une augmentation du risque de diabète de type 2
Ainsi, en octobre 2018, un cardiologue a alerté l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses) concernant un risque d’excès de potassium (hyperkaliémie) dans le sang avec des conséquences sévères, voire mortelles, liées à la consommation de chlorure de potassium.
Il s’agissait de chlorure de potassium utilisé comme au substitut au « sel de table » (ou chlorure de sodium) dans un contexte de régime « pauvre en sel » (c’est-à-dire hyposodé, dans le langage médical). L’Anses a aussitôt engagé une expertise visant à évaluer les risques associés à la consommation de ces produits.
Le potassium est pourtant un minéral essentiel à l’organisme, présent dans l’ensemble de nos cellules. Il joue notamment un rôle fondamental dans la transmission nerveuse, la contraction musculaire et la fonction cardiaque. Il est également impliqué dans la sécrétion d’insuline, dans les métabolismes des glucides et des protéines ainsi que dans l’équilibre acido-basique de l’organisme.
Dans son rapport de 2021 proposant une mise à jour des références nutritionnelles en vitamines et minéraux, l’Anses a estimé qu’un apport en potassium de 3 500 mg/j avait un effet bénéfique sur la pression artérielle chez les adultes et que des apports en potassium inférieurs à 3 500 mg/j étaient associés à un risque plus élevé d’accident vasculaire cérébral. Faute de données suffisamment robustes pour fixer un besoin nutritionnel moyen, un apport satisfaisant de 3 500 mg/j a été défini pour les hommes et pour les femmes.
Chaque mardi, le plein d’infos santé : nutrition, bien-être, nouveaux traitements… Abonnez-vous gratuitement dès aujourd’hui.
En France, les apports en potassium sont en moyenne de 3 484 mg/j chez les hommes et de 2 755 mg/j chez les femmes (Anses, chiffres publiés en 2017). Ils sont légèrement plus élevés chez les hommes, principalement en raison des plus fortes quantités alimentaires qu’ils consomment.
À noter qu’une concentration trop faible de potassium dans le sang (ou hypokaliémie) – qui résulte d’un apport alimentaire insuffisant en potassium, ce qui occasionne des crampes, de la fatigue et/ou encore des troubles urinaires – est exceptionnelle. Cette situation n’est guère rencontrée que dans le cadre de régimes très hypocaloriques ou de malnutrition.
Les principaux groupes alimentaires qui contribuent aux apports en potassium dans l’alimentation sont les féculents, les produits céréaliers, les légumes ainsi que les produits laitiers. Le chocolat ou la banane font également partie des aliments naturellement sources de potassium (selon les données de la table de composition nutritionnelle des aliments Ciqual).
Outre les substituts de sels sodés, le chlorure de potassium est également utilisé dans de nombreux produits alimentaires, en raison notamment des processus de fabrication (enrichissement des denrées en potassium, additifs et auxiliaires technologiques) sans que cela soit clairement indiqué sur ces produits.
Pour la population générale en bonne santé, les risques pour la santé d’un apport alimentaire élevé en potassium, c’est-à-dire au-delà des recommandations nutritionnelles, semblent limités.
En revanche, pour certains groupes dans la population, en particulier ceux dont l’excrétion rénale de potassium est altérée, un tel apport peut conduire à une concentration trop élevée de potassium dans le sang (ou hyperkaliémie, définie pour environ 5,5 millimoles par litre, soit 215 mg/l chez les adultes) et, dans certains cas, avoir des effets néfastes sur la fonction cardiaque.
Les manifestations cliniques de l’hyperkaliémie légère à modérée sont généralement non spécifiques, par exemple une faiblesse généralisée, une paralysie, des nausées, des vomissements et une diarrhée.
Une hyperkaliémie élevée (supérieure à 6,5 millimoles par litre, soit environ 254 mg/l) peut conduire à des signes cliniques variables selon la cause et l’état de santé du patient : les plus dangereux sont des troubles du rythme cardiaque, potentiellement mortels. Les risques liés à l’excès de potassium sont majorés par la déshydratation, chez les personnes âgées notamment.
La base de données internationale de l’OMS (Vigilyze), qui recense tous les effets indésirables des médicaments, a été interrogée pour identifier tous les cas d’hyperkaliémie à travers le monde depuis 1986.
Sur plus de 23 000 cas (comprenant environ un millier de cas d’évolution fatale), un peu moins de 3 000 sont recensés en France. La cause était principalement d’origine médicamenteuse, notamment chez des patients diabétiques (de type 2), des insuffisants cardiaques et insuffisants rénaux, traités par des médicaments diminuant l’excrétion rénale du potassium ou apportant du potassium.
Ainsi, en considérant ces observations et l’ensemble des données de la littérature scientifique, il apparaît que les personnes les plus à risque d’hyperkaliémie en cas d’utilisation inappropriée de sels de potassium sont :
les patients insuffisants rénaux au stade 4 dit « stade de l’insuffisance rénale terminale » ;
les patients diabétiques ;
les patients insuffisants cardiaques ;
les patients hypertendus ;
les sujets âgés, ceux-ci étant plus fréquemment traités pour l’hypertension artérielle, le diabète, l’insuffisance cardiaque ou une diminution de la fonction rénale.
L’Agence européenne de l’alimentation (Efsa) rapporte aussi quelques études de cas qui ont indiqué qu’une supplémentation en potassium de 5 000 à 7 000 mg/j pouvait aussi avoir des effets indésirables sur la fonction cardiaque d’adultes en bonne santé. Elle a également identifié des situations à risque chez les individus réalisant des activités susceptibles d’entraîner une déshydratation (activité sportive, travail en pleine chaleur…).
Les personnes présentant l’une ou l’autre des situations à risque forment un ensemble non négligeable de la population française. Ainsi, l’Agence nationale de sécurité sanitaire (Anses) a recommandé que les personnes qui doivent diminuer leurs apports en sel ou augmenter leurs apports en potassium soient informées des risques d’hyperkaliémie liée aux interactions avec les substituts à base de chlorure de sodium.
Les pouvoirs publics ont donc été alertés sur les dangers encourus par les consommateurs du fait d’un manque d’information sur les étiquettes concernant l’utilisation des sels de potassium, en particulier pour les personnes non suivies ou mal suivies présentant une des affections qui majorent le risque.
Il a été suggéré d’ajouter des mentions sur les produits concernés, comme :
« Les personnes traitées pour hypertension artérielle, diabète, insuffisance cardiaque ou ayant une fonction rénale réduite sont invitées à ne consommer le produit que sous contrôle médical. »
Par ailleurs, depuis 2006, l’Anses recommande que le consommateur soit informé lors de l’achat de compléments alimentaires contenant du potassium ou de substitut de sel que ceux-ci sont contre-indiqués en cas d’insuffisance rénale ou de régime pauvre en potassium.
L’Anses a également attiré l’attention des pouvoirs publics sur l’existence des trois allégations de santé autorisées dans la réglementation européenne pour le potassium, dont l’une indique que « le potassium contribue au maintien d’une pression sanguine normale ». Cette allégation pourrait inciter les sujets hypertendus à se tourner vers les denrées proposant du chlorure de potassium et ainsi à s’exposer à un risque sanitaire.
En conclusion, il convient de rappeler l’importance d’un suivi médical rigoureux et régulier des personnes à risque et de manière générale, de la bonne information au consommateur de ces substituts de sel alimentaire, afin de réduire significativement le risque d’hyperkaliémie.
Sandrine Wetzler ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
27.05.2025 à 09:33
Service Environnement, The Conversation France
La nouvelle obligation du tri à la source pour les collectivités, en vigueur depuis début 2024, permettra d’éviter l’incinération ou l’enfouissement de biodéchets qui auraient pu être valorisés pour produire des amendements organiques ou du biogaz, explique Muriel Bruschet, de l'Ademe.
Depuis le 1ᵉʳ janvier 2024, les collectivités doivent proposer à leurs habitants une solution de tri à la source et de valorisation de l’ensemble de leurs déchets alimentaires. En 2017, les biodéchets (soit les déchets alimentaires et déchets verts) représentaient 1/3 des ordures ménagères en France.
Cette nouvelle étape permet d’éviter l’incinération ou l’enfouissement, tout en valorisant ces déchets qui auront deux destinations principales : les amendements organiques (agriculture) et le biométhane (énergie).
Pour suivre au plus près les questions environnementales, retrouvez chaque jeudi notre newsletter thématique « Ici la Terre ».
Cette réglementation est le fruit d’un long processus débuté en 2010, repris en 2015 pour en fixer l’échéance au 1ᵉʳ janvier 2025. L'Union européenne a finalement repris cette mesure et en a avancé l’échéance à 2024.
La loi n’étant pas punitive, la seule sanction est indirecte : la taxe générale sur les activités polluantes (TGAP), qui s’applique aux poubelles noires, va passer de 17 (2019) à 65 euros la tonne (2025). Les collectivités ont donc intérêt, en principe, à en diminuer le volume.
Deux choix s’offrent à elles : la gestion de proximité ou la collecte. Dans le premier cas, il s’agit de compostage individuel ou partagé. Dans le second cas, les biodéchets sont collectés et envoyés vers une unité de traitement : soit une compostière industrielle, soit un méthaniseur.
Commençons par l’usage le plus répandu, le compostage. Au cours de ce processus qui dure entre 4 et 6 mois et fait monter la température des biodéchets jusqu’à 70 °C, la matière se transforme en compost. Ce dernier est ensuite revendu au milieu agricole et va enrichir le sol en matière organique, lui conférer une meilleure rétention de l’eau et limiter l’érosion des sols. Il diminue en parallèle les besoins en engrais, dont l’usage augmente à mesure que les sols se dégradent.
L’autre possibilité est la méthanisation : sous l’action de microorganismes naturellement présents dans les biodéchets, la matière organique, confinée en enceinte fermée en l’absence d’oxygène (contrairement au compostage), subit une fermentation anaérobique et se dégrade. De cette réaction est obtenue du biogaz ainsi qu’une fraction solide – le digestat – qui est soit recompostée soit épandue directement sur des sols agricoles.
Le choix va surtout répondre à des enjeux territoriaux. Dans les zones qui pratiquent l’élevage, les méthaniseurs sont nombreux, car ils permettent d’en valoriser les effluents. Dans le sud de la France au contraire, les plates-formes de compostage sont plus nombreuses, puisque les cultures sont plutôt maraîchères (vergers, viticulture, etc.).
Où installer les nouvelles plates-formes ? Comment adapter l’existant ? À cela se mêlent des enjeux d’acceptabilité, ces solutions pouvant générer des nuisances selon l’endroit où elles se trouvent. Des études sont en cours pour évaluer les coûts et les bénéfices environnementaux associés.
Ce texte est la version courte de l’article écrit par Muriel Bruschet (Ademe).
Cet article a été édité par le service Environnement de The Conversation à partir de la version longue écrite par Muriel Bruschet (Ademe).
26.05.2025 à 16:55
Laurent Delisle, Chercheur associé en Mathématiques, ECE Paris
Amine Jaouadi, Research associate professor, ECE Paris
Avez-vous déjà vécu une expérience esthétique face à une œuvre d’art ?
S’asseoir dans le musée Marmottan pour admirer la beauté des Nymphéas, de Monet ; avoir un lien intime avec Mona Lisa, de Léonard de Vinci, alors qu’elle capte votre regard malgré vos petits déplacements au Louvre en dépit de l’affluence ; ressentir de l’anxiété en regardant le Cri, de Munch, ou encore, devant une toile de Pollock, trouver de la beauté dans ce qui peut sembler de prime abord un fatras de jets de peinture.
Cette peinture exposée à New York, aux États-Unis, a été créée par Jackson Pollock (1912-1950) avec sa technique du « dripping », qui consiste à verser ou éclabousser de la peinture sur une toile plutôt que de l’appliquer avec des coups de pinceau.
Bien que la technique puisse sembler chaotique, l’art controversé de Pollock a mis en évidence une remarquable structure mathématique, appelée « fractale », comme cela a été discuté dans un article scientifique publié dans Nature, en 1999.
Résoudre des équations, décrire les forces de la nature, prédire les fluctuations des marchés sont des exemples révélant la puissance des mathématiques. Les arts tels que la peinture et la sculpture peuvent aussi s’inspirer des propriétés mathématiques telles que les symétries, les formes géométriques, les rapports et l’autosimilarité (le caractère d’un objet dans lequel on peut trouver des similarités en l’observant à différentes échelles).
Par exemple, le dessin Homme de Vitruve, de Léonard de Vinci, représente le corps humain inscrit dans un carré et un cercle avec des rapports se rapprochant du nombre d’or ou, encore, la superposition de formes géométriques des toiles cubistes de Picasso.
Et aussi, comme nous le décrivons ici, l’autosimilarité et les propriétés fractales des toiles de Jackson Pollock.
La « dimension » est un outil pouvant quantifier un objet naturel ou abstrait. Par exemple, un point est de dimension nulle, une ligne est de dimension 1, le cube Rubik est tridimensionnel. Ces exemples montrent que la dimension d’objets communs est entière.
Cependant, la nature peut créer des objets surprenants de dimension non entière ! En effet, le mathématicien Benoît Mandelbrot a montré que le littoral de la France est de périmètre infini mais de superficie finie (551 695 km2). Le chou romanesco est un drôle de légume de volume fini possédant une superficie infinie. Ces exemples sont des fractales.
Comment pouvons-nous décrire ces objets curieux ? Pouvons-nous calculer leur dimension ?
Mandelbrot a aussi développé de nombreux ensembles de fractales – on peut sur certains sites zoomer et voyager dans ces espaces étranges aux noms poétiques, comme la vallée des hippocampes.
Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Les fractales ne sont pas qu’une création de mathématiciens, mais aussi de la nature. Les arbres, les nuages, la foudre présentent des irrégularités pouvant être quantifiées à l’aide des fractales. Mandelbrot a dit :
« Les nuages ne sont pas des sphères, les montagnes ne sont pas des cônes, les littoraux ne sont pas des cercles, l’écorce d’un arbre n’est pas lisse et la foudre ne se déplace pas en ligne droite. »
Nous retrouvons aussi les fractales en biologie, en géologie et en santé. Par exemple, la dimension fractale de signaux issus d’encéphalogrammes a été utilisée afin de détecter des irrégularités typiques de la maladie de Parkinson. Nous les retrouvons aussi dans la description du réchauffement climatique, à travers la quantification des taux de CO2 et l’analyse de l’évolution temporelle de la température terrestre.
Comment mesurer la « taille » d’un objet quand il n’est pas qu’une simple ligne ou un carré ? Les mathématiciens utilisent une méthode astucieuse du « box counting ». Imaginez que vous tentez de couvrir un objet avec des petites boîtes.
Plus les boîtes sont petites, plus il vous faudra de boîtes pour couvrir l’objet. Le box counting utilise cette idée, voici son fonctionnement :
Utiliser des boîtes côté a pour couvrir l’objet.
Compter combien de boîtes N(a) couvrent l’objet.
Calculer la dimension D par la formule :
Durant sa période du dripping, Pollock perfectionna sa technique en jouant sur la complexité des couleurs utilisées et des effets lumineux produits dans ses toiles. Derrière ce perfectionnement artistique, l’artiste, sans le savoir, augmenta la dimension fractale de ses réalisations.
En quadrillant les toiles avec des boîtes de côté de plus en plus fin et en utilisant l’algorithme de box counting, les mathématiciens ont, entre autres, déterminé les dimensions fractales des toiles de Pollock : certaines boîtes seront emplies de couleurs, d’autres non et c’est en quelque sorte le ratio entre les deux qui permet d’établir la dimension. Ainsi, le box counting a permis d’établir que la toile Alchemy a une dimension fractale égale à 1,5 et que la toile Autumn Rhythm (Number 30) est de dimension 1,66.
Les mathématiciens se sont ainsi rendu compte que la dimension fractale des toiles de Pollock avait augmenté au fil de sa carrière.
Mais si l’artiste perfectionnait techniquement la méthode de dripping, il n’est pas certain que l’expérience esthétique du public en soit grandie. En effet, dans un sondage publié en 2005, il en est ressorti que les gens avaient une préférence pour ses peintures avec une dimension fractale allant de 1,3 à 1,5 – des valeurs qui s’approchent des fractales induites par la nature.
Ceci est peut être lié au fait que la reconnaissance d’objets de la nature dans les objets fractales produisait une meilleure expérience esthétique que les fractales de dimension plus élevée difficilement identifiables à des objets communs ou naturels, comme l’a montré, dès 1990, une étude sur la psychologie de la perception.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
26.05.2025 à 16:54
Serge Hercberg, Professeur Emérite de Nutrition Université Sorbonne Paris Nord (Paris 13) - Praticien Hospitalier Département de Santé Publique, Hôpital Avicenne (AP-HP), Equipe de Recherche en Epidémiologie Nutritionnelle, U1153 Inserm,Inra,Cnam, Université Sorbonne Paris Nord
Chantal Julia, Maitre de Conférence Université Paris 13, Praticien Hospitalier, Hôpital Avicenne (AP-HP), Equipe de Recherche en Epidémiologie Nutritionnelle, U1153 Inserm,Inra,Cnam, Université Sorbonne Paris Nord
Emmanuelle Kesse-Guyot, Directrice de recherche en épidémiologie nutritionnelle, Inrae
Mathilde Touvier, Directrice de l'Equipe de Recherche en Epidémiologie Nutritionnelle, U1153 Inserm,Inrae, Cnam, Université Sorbonne Paris Nord, Université Paris Cité, Inserm
Du citron glacé pour traiter le cancer, des aliments brûleurs de graisses, du curcuma pour prévenir les maladies cardiaques… les fausses informations concernant l’alimentation sont légion, souvent diffusées par des acteurs peu scrupuleux pour servir leurs intérêts. Au mépris des connaissances acquises grâce à la recherche scientifique.
Le ministre de la santé Yannick Neuder a annoncé en avril 2025 sa volonté de faire de la lutte contre la désinformation médicale une priorité de son ministère. On ne peut que se féliciter de cette décision qui vise à rétablir la rationalité scientifique face à la prolifération de fausses informations qui circulent aujourd’hui, notamment par l’intermédiaire des réseaux sociaux et des grandes plateformes numériques de partage de contenu.
Remise en cause de l’intérêt des vaccins, de certains traitements médicaux, discréditation des recommandations et des mesures scientifiquement étayées qui visent à lutter contre les comportements défavorables à la santé… La diffusion d’allégations remettant en cause les connaissances basées sur les recherches scientifiques peut avoir des conséquences en matière de prévention et de prise en charge des maladies au niveau individuel et collectif, comme le soulignent notamment des rapports de l’Organisation mondiale de la santé et du Parlement européen.
De ce point de vue, la nutrition est un terrain particulièrement propice pour la désinformation, en raison des dimensions affectives, émotionnelles, culturelles et sociales qu’elle comporte, lesquelles sont autant de portes d’entrée pour faciliter la pénétration des fausses informations.
Le secteur de l’alimentation est au cœur de gigantesques enjeux économiques. Rien qu’en France, le chiffre d’affaires généré par les entreprises représentées par l’Association nationale des industries alimentaires (Ania) est estimé à 210 milliards d’euros par an, tandis que celui de la grande distribution s’élève à plus de 225 milliards d’euros par an.
Dans ce contexte, les grands acteurs économiques qui produisent et commercialisent des aliments souhaitent protéger leur rentabilité et leur croissance afin de maintenir ou d’augmenter leurs profits. Pour défendre leurs intérêts, certains d’entre eux développent des actions de lobbying visant à influencer les politiques publiques et contrer les réglementations qu’ils considèrent aller à l’encontre de leurs intérêts.
Les lobbys sont capables de pressions fortes, de natures diverses, se manifestant classiquement par des actions tendant à influencer directement le contenu d’un texte réglementaire ou législatif. Par exemple, parmi les différentes stratégies utilisées pour bloquer ou au moins retarder sa mise en place, on a pu voir à l’occasion du vote de la loi « Santé » de 2016, des modèles d’amendement établis par l’Ania fournis clés en main, copies conformes des documents officiels de l’Assemblée, à des parlementaires complaisants qui n’avaient qu’à y ajouter leur signature et les soutenir en séance en leur nom propre.
À ce titre, la bataille menée par les industriels agroalimentaires pour bloquer la mise en place du logo nutritionnel Nutri-Score en France est très emblématique. Elle a notamment été documentée par l’un des auteurs de ces lignes, ainsi que par l’organisation non gouvernementale le Bureau européen des unions de consommateurs (Beuc).
Le Beuc a publié en octobre 2023, un rapport – surnommé les « Nutri-Score Papers » – s’appuyant sur des informations très précises et documentées obtenues grâce à une requête faite auprès de la Commission européenne par une autre ONG, Foodwatch EU.
Cette démarche a permis d’avoir accès aux réunions (ainsi qu’aux détails de leurs procès-verbaux) qui ont eu lieu en 2022 entre deux directions générales de la Commission européenne (la direction générale de la santé et de la sécurité alimentaire, ou DG Santé, et la direction générale de l’agriculture et du développement rural, ou DG Agri) et diverses parties prenantes, parmi lesquelles la représentation permanente de l’Italie auprès de la Commission européenne associée à Federalimentare, qui défend les intérêts des industriels agroalimentaires.
Ce rapport met en évidence comment le lobbying mené a influé sur les projets de la Commission sur l’étiquetage des denrées alimentaires. Il a en particulier empêché le Nutri-Score d’être reconnu comme le logo unique et obligatoire pour l’Europe, alors même que son intérêt en matière de santé publique a été démontré par des travaux scientifiques très rigoureux menés notamment (mais pas uniquement) par notre équipe de recherche.
Les documents rendus publics par le Beuc montrent en détail l’usage fait de la désinformation. L’organisation Federalimentare (représentant les industriels agroalimentaires italiens) a par exemple affirmé que « le Nutri-Score ne repose pas sur des bases scientifiques ». Et ce, alors même que plus de 150 articles scientifiques publiés dans des revues internationales à comité de lecture ont démontré son intérêt et son efficacité. Cette structure a même suggéré que « la consommation de produits à base de cacao provenant de pays du Sud diminuerait à cause de leur classification par le Nutri-Score, ce qui augmenterait l’immigration en Europe ».
Il ne s’agit là que de deux exemples parmi les nombreuses fausses informations diffusées par les lobbyistes. Un travail de sape qui a fini par payer, puisqu’il a abouti au blocage de l’adoption obligatoire du Nutri-Score par les 27 pays européens.
Le secteur de l’alcool est aussi concerné par ces pratiques de lobbying exacerbé. Là encore, la façon dont les lobbies, en déployant de multiples stratégies, orientent les décisions publiques à leur avantage a été bien documentée.
Les fausses informations concernant l’alimentation circulent via de nombreux canaux : médias classiques, réseaux sociaux, plateformes numériques de partage de contenus (Youtube, etc.)… Elles se retrouvent aussi dans des endroits moins évidents tels que certains colloques pseudo scientifiques, ou même dans l’arène politique.
Les supermarchés ne sont pas en reste, et nombre d’étiquettes comportent des mentions marketing à tout le moins discutables destinées à orienter les décisions des consommateurs : pots de yaourts « aux fruits » qui affichent sur leur emballage de façon très visible de grandes quantités de fruits, alors que le produit n’en contient que quelques pour cent, emploi à outrance du terme « naturel » (dans la dénomination des produits, des ingrédients, des visuels utilisés sur l’emballage) comme argument de vente suggérant un bénéfice santé ou a minima l’innocuité du produit (par effet de halo).
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Certains industriels n’hésitent pas à tenter de détourner la réalité nutritionnelle d’un produit, notamment via la publicité : le jury de déontologie publicitaire a ainsi émis un rappel à l’ordre suite à la diffusion d’une publicité affirmant que « […] le sucre est une plante […] ». Une autre stratégie courante consiste à mettre en exergue un composant spécifique en occultant les éléments négatifs qu’il contient (axer la communication sur les probiotiques d’un yaourt liquide, quand le produit lui-même contient par ailleurs autant voire plus de sucres qu’un soda…).
Les fake news visent également à jeter le doute sur les travaux scientifiques qui soutiennent les recommandations et valident les mesures de santé publique.
Ainsi, la crédibilité des chercheurs académiques à l’origine des études validant le Nutri-Score (publiées dans des revues scientifiques internationales à comité de lecture) a été attaquée par certains lobbyistes au prétexte qu’ils auraient un « conflit d’intérêts pour avoir contribué au développement de l’outil ».
Autre stratégie parfois employée par les lobbies : le financement de travaux visant à « produire du doute » (une approche qui a été bien documentée dans le cas du tabac).
Notre expérience de ces questions nous a appris que les profils des diffuseurs sont variés. Certains s’expriment à titre individuel : gourous, influenceurs ou coachs projettent ainsi dans leurs discours leurs opinions personnelles, liées à leurs croyances, leurs idéologies. Très souvent, ces déclarations sont également guidées par des intérêts économiques, l’accroissement de la visibilité sur les plateformes numériques permettant non seulement d’améliorer la monétisation des comptes concernés, mais aussi de recruter des clients qui achèteront livres, programmes, produits placés par des firmes contre rémunération, etc.
Ils sont à l’origine de fake news qui ont souvent très relayées : du citron glacé pour traiter le cancer au curcuma pour prévenir les maladies cardiaques, en passant par les brûleurs de graisses et autres compléments alimentaires aux prétendues multiples vertus jamais étayées par aucune étude scientifique de qualité.
Certains pourvoyeurs de désinformation peuvent être plus difficiles à détecter. C’est par exemple le cas de certains professionnels de santé qui n’hésitent pas à relayer leurs recommandations « faites maison », dépourvues de bases scientifiques et allant parfois à l’encontre des recommandations officielles.
Ainsi, alors que la recommandation des organismes d’expertise officiels français (Anses, Haut Conseil de la santé publique ou Santé publique France) est de ne pas dépasser 500 g de viande par semaine (en privilégiant la volaille), certains professionnels n’hésitent pas à recommander d’en consommer quotidiennement 200 g, ou de faire manger deux fois par jour de la viande rouge aux enfants et adolescents. Des informations dépourvues de scientificité, mais souvent largement relayées, notamment par les industriels du secteur…
Les acteurs économiques du champ de l’agroalimentaire interviennent aussi dans l’espace public soit très directement, soit via des « faux-nez » (collectifs, pseudo centres d’information, think tanks, influenceurs…).
Enfin, certains membres de la classe politique n’hésitent pas à relayer des éléments de langage empruntés aux lobbyistes du secteur agro-industriel pour défendre certains produits, firmes ou filières, motivés par des raisons personnelles ou électoralistes (via des arguments que l’on pourrait qualifier de « gastro-régionalistes » ou « gastro-nationalistes »…). Quitte à aller à l’encontre de mesures de santé publiques combattues par ces acteurs économiques.
En 2023, des chercheurs ont publié les résultats d’une méta-analyse portant sur 64 études ayant eu pour objet d’évaluer la qualité et la précision des informations nutritionnelles disponibles pour le public (principalement sur des sites Internet).
Soulignant les risques de biais de sélection lors de la mise en place de tels travaux d’évaluation, les auteurs de la méta-analyse estiment cependant qu’on peut considérer, d’après leurs résultats, que les informations nutritionnelles en ligne sont souvent inexactes et de mauvaise qualité. Selon eux, les consommateurs qui les utilisent risquent d’être mal informés. Il est donc nécessaire de prendre des mesures pour améliorer les connaissances du public, ainsi que la fiabilité des informations nutritionnelles en ligne.
La désinformation dans le domaine de la nutrition – et ses conséquences sur la santé des consommateurs – n’est pas un phénomène nouveau. Elle trouve cependant aujourd’hui une résonance particulière, en raison du développement des réseaux sociaux et des plateformes digitales qui facilitent une large diffusion des fake news, de la défiance vis à-à-vis de la science, des « experts », et de l’État, ainsi qu’en raison de l’importance des enjeux économiques qui sous-tendent les achats et les consommations alimentaires.
Comme dans le cas d’autres secteurs touchés par la désinformation (climat, environnement, vaccination, société, etc.), lutter contre les fake news nutritionnelles s’avère d’une extraordinaire complexité. Il donc est effectivement plus que temps que les personnes engagées dans ce combat bénéficient d’un soutien s’inscrivant dans une réelle « politique publique » !
Chantal Julia a reçu des financements de publics (Santé publique France, Ministère de la Santé, Joint Action prevent NCDs, IRESP...).
Emmanuelle Kesse-Guyot a reçu des financements publics (ANR, INRAE, Ademe, Ecophyto, FRM)
Mathilde Touvier a reçu des financements publics ou associatifs à but non lucratif pour ses recherches (ERC, ANR France 2030, INCa, Ministère de la Santé...).
Serge Hercberg ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
26.05.2025 à 16:54
Fabien Bottini, Professeur des Universités en droit public, Le Mans Université
La liste des droits et libertés comme leur articulation ont significativement évolué depuis 1789 et tout au long des XIXe et XXe siècles. À partir des années 1970, les droits économiques s’imposent au détriment des droits sociaux. Comment penser la hiérarchie des droits au regard des défis – notamment environnementaux – du XXIe siècle ?
Parce que « tout problème est une opportunité déguisée », comme l’explique Deepack Chopra, les critiques contre l’État de droit sont l’occasion de repenser sa finalité, de façon à l’adapter aux défis du XXIe siècle.
Trait caractéristique des démocraties libérales, l’État de droit subit en effet aujourd’hui le feu des régimes autoritaires ou « illibéraux » et d’une Amérique ploutocratique.
Or, s’il convient de le préserver, c’est parce qu’il permet une soumission effective des autorités publiques au droit qu’elles édictent, afin de prévenir leur arbitraire et d’assurer le respect des droits et libertés de chacun, sous le contrôle de juges indépendants du pouvoir politique et impartiaux.
Mais, ce n’est pas parce qu’il convient de défendre le principe de son maintien, qu’il faut faire l’économie d’une réflexion sur son évolution. Il paraît notamment nécessaire de repenser la relation des droits économiques (droit de propriété, libertés d’entreprendre, du commerce et de l’industrie, contractuelle…) et non économiques (droits politiques, sociaux, culturels et environnementaux) qu’il contribue à garantir, pour faciliter la grande bascule des activités carbonées vers les activités décarbonées, d’une façon qui ne laisse personne au bord du chemin, face au risque de dépassement des neuf limites planétaires.
Les droits de l’homme (droits à la liberté individuelle, de propriété, à la sûreté, de résistance à l’oppression) devaient, en 1789, être la boussole éthique de l’action des gouvernants sous le contrôle des gouvernés, permis par l’exercice de droits du citoyen garantissant un certain nombre de libertés politiques (droits de vote et d’éligibilité mais aussi libertés d’opinion, d’expression, d’association…). Sous la IIIe République, les libertés publiques ont par la suite opéré la traduction juridique des droits hérités de la Révolution pour imposer leur respect à l’administration.
Car, alors que les femmes et les hommes de 1789 pensaient qu’il suffirait de rappeler à chacun l’étendue de ses droits dans un texte solennel pour que l’administration les respecte sous le contrôle des électeurs, il est apparu nécessaire, à partir des années 1870, d’ouvrir davantage au justiciable la possibilité de contester leur violation devant le juge.
Amorcée par des arrêts du Tribunal des conflits et du Conseil d’État au tournant du XXe siècle, cette évolution a servi de support à l’essor des droits sociaux (droit du travail, sécurité sociale…) et été confortée à la fin de la Seconde Guerre mondiale.
Dès 1946, cependant, le souvenir des lois liberticides votées sous Vichy a conduit le constituant à aller plus loin, en inaugurant sous la IVe République un contrôle de constitutionnalité des lois dont les modalités concrètes ont été renforcées lors de l’entrée en vigueur de la Constitution de 1958 portant Vᵉ République.
Mais ce n’est qu’avec la reconnaissance, par le Conseil constitutionnel, en 1971, du caractère constitutionnel du préambule de ce texte suprême (et par voie de conséquence de la Déclaration de 1789, du Préambule de 1946, puis de la Charte de l’environnement de 2004 auxquels il renvoie) que l’État de droit est devenu une réalité. Si cette évolution a été renforcée par l’ouverture à l’opposition du droit de le saisir en 1974, encore a-t-il fallu attendre 1990 pour que le juge constitutionnel en déduise que le respect des « droits fondamentaux » est garanti par la Constitution.
La liste des droits et libertés et la façon de les articuler ont ainsi significativement évolué depuis 1789 et tout au long des XIXe et XXe siècles. Un changement majeur a eu lieu dans les années 1970, lorsque la rhétorique des droits fondamentaux héritée de la charte de l’ONU de 1945 a été utilisée pour étendre les droits des individus aux entreprises.
Car, si le droit français a toujours été animé par le souci de protéger la dignité humaine, l’État de droit hérité des années 1970 a, ce faisant, opéré un nouvel équilibre entre les droits économiques et non économiques. C’est la conséquence d’une hiérarchie « substantielle de la fondamentalité » apparue en pratique, de façon à affirmer la primauté des premiers sur les seconds à la suite des chocs pétroliers, dans le contexte de l’édification et de l’entretien d’un grand marché mondial et européen.
Car la garantie des droits économiques nécessaires au bon fonctionnement du marché a alors pris l’ascendant sur celle des droits non économiques, dans le sens où les premiers ont bénéficié d’une protection renforcée, conduisant à les faire prévaloir en cas de conflit sur les seconds, ces derniers étant en quelque sorte mis à leur service. C’est la conséquence de l’affirmation d’un ordre public concurrentiel ou économique faisant de l’objectif de bon fonctionnement du marché une priorité de l’action publique, sous le contrôle du juge.
C’est ainsi que les droits sociaux ont été transformés en « droits des pauvres » et « pauvres droits », alors que les droits environnementaux, tout en ayant le mérite d’exister dans les textes, ne jouaient que s’ils n’entravaient pas la croissance des activités marchandes, fussent-elles carbonées.
Rétrospectivement, cette hiérarchie implicite des droits fondamentaux a contribué à l’accroissement des inégalités, en favorisant la concentration des richesses entre les mains de quelques-uns qui ébranle de nos jours le pacte social de notre démocratie. Mais elle a également encouragé le développement d’activités économiques fossiles, à l’origine de l’effondrement du vivant.
Depuis les années 1990, la rhétorique des droits fondamentaux héritée des années 1970 est toutefois concurrencée par celle des droits humains. S’il peut sembler anodin, ce nouveau glissement sémantique est potentiellement lourd de conséquences. Car, comme le passage des droits de l’homme aux libertés publiques puis des libertés publiques aux droits fondamentaux, ce changement lexical porte les germes d’une nouvelle théorie des droits et, à travers elle, d’un nouvel État de droit pour le XXIe siècle.
Le constituant français a d’ailleurs, de façon symbolique, refusé d’inscrire en 2008 l’expression « droits fondamentaux » dans la constitution pendant que la version française du Pacte pour l’avenir de l’ONU de septembre 2024 préfère désormais se référer aux droits humains. Or, outre qu’elle permet de mieux rendre compte de « l’égalité des sexes » que celle de droits de l’homme, nos dernières recherches montrent que l’expression pose les bases d’un nouveau rapport de l’espèce humaine avec la nature.
Car, alors que la rhétorique des droits fondamentaux avait, dans les années 1970, conduit à mettre l’accent sur les questions économiques, celle des droits humains tend à les « réencastrer » dans la réalité sociale et environnementale. Tandis que la première était fondée sur l’idée que la seule responsabilité sociale des entreprises était d’accroître leurs profits, la seconde défend au contraire le rôle qu’elles ont à jouer pour lutter contre les inégalités et réussir la transition.
Alors que la rhétorique des droits fondamentaux était fidèle à l’injonction de Descartes faite à l’Homme de se rendre « maître et possesseur de la nature » – dans la mesure où elle a accompagné une exploitation sans limites des ressources physiques de la planète –, celle des droits humains tend à reconnaître la personnalité juridique, sinon à la nature toute entière, du moins à certaines de ses incarnations (comme des animaux ou des fleuves). Tandis que la première se souciait avant tout des droits des générations actuelles, dans une perspective intragénérationnelle, la seconde les prend également en compte dans une perspective intergénérationnelle, pour préserver « « la capacité des générations futures et des autres peuples à satisfaire leurs propres besoins » …
La question se pose ainsi de savoir si la France et l’UE sauront résister à la nouvelle administration américaine pour continuer d’avancer dans l’élaboration de ce nouveau récit collectif, pour préserver l’idéal de liberté, d’égalité et de fraternité, d’une façon compatible avec les nouvelles menaces qui le mettent à l’épreuve. Ce n’est pas certain, mais ce n’est pas impossible non plus tant « l’histoire n’avance pas en lignes droites », comme le relevait Isaiah Berlin.
Les critiques faites à l’État de droit devraient ainsi se lire la lumière de ces enjeux, si l’on veut contribuer, via la liberté politique et les droits culturels, à la mise en place d’un nouvel équilibre entre les droits économiques, sociaux et environnementaux, qui permette de faciliter la grande bascule des activités carbonées vers celles de nature décarbonée, en ne laissant personne au bord du chemin.
Fabien Bottini est chargé de mission pour la Fondafip, le think-thank des Finances publiques, membre de l'Observatoire de l'éthique publique (OEP) et de la MSH Ange Guépin. Il a perçu ou perçoit des subventions de la part du LexFEIM et du Thémis-UM, laboratoires de recherche en droit, et de la Mission de recherche Droit & Justice. Il est par ailleurs titulaire de la chaire "Innovation" de l'Institut Universitaire de France et de la chaire "Neutralité Carbone 2040" de Le Mans Université qui financent également en partie ses travaux.
26.05.2025 à 16:53
David Jeffery, Senior Lecturer in British Politics, University of Liverpool
Alors que le débat sur la fin de vie bat son plein en France, il est intéressant d’examiner le cas du Royaume-Uni, où le débat parlementaire est également en cours, les députés de la Chambre des Communes ayant ouvert la voie, par un vote tenu le 29 novembre 2024 – 330 voix pour et 275 contre — à l’adoption d’un texte autorisant l’aide médicale à mourir. Sur ce sujet éminemment sensible, les convictions religieuses des parlementaires entrent en ligne de compte au moins autant que leur appartenance politique, comme le montre cette analyse détaillée de leur vote du 29 novembre dernier.
Comme pour de nombreuses questions morales, il s’agit d’un vote libre – les députés n’ont pas à appliquer de consignes imposées par leurs partis respectifs. Après le vote du 29 novembre, les députés ont été nombreux à expliquer les raisons pour lesquelles ils ont voté en faveur ou non du texte, évoquant notamment leur propre expérience aux côtés d’un proche vivant ses derniers jours, leurs discussions avec leurs électeurs, l’expérience d’autres pays en matière de suicide assisté… et, aussi, leurs convictions religieuses (au Royaume-Uni, celles-ci sont connues pour chacun des 650 membres de la Chambre des Communes).
Lors de ce premier vote, des tendances se sont clairement dégagées en fonction de l’appartenance religieuse des députés :
Les députés sans religion (36,4 % du total) étaient beaucoup plus susceptibles de soutenir l’aide à mourir. Dans ce groupe, 76 % ont voté pour, tandis que 18 % seulement ont voté contre.
Les députés chrétiens (54,7 %) étaient, dans l’ensemble, plutôt enclins à s’opposer au projet de loi. 57 % d’entre eux ont voté contre, l’opposition la plus prononcée venant des catholiques, qui se sont opposés à 74 %.
Les députés musulmans (3,9 %) ont été encore plus nombreux à voter contre, 84 % d’entre eux s’y étant opposés.
Les députés juifs (2 %) et sikhs (1 %) étaient environ deux fois plus nombreux à soutenir le projet de loi qu’à s’y opposer.
Les députés hindous (0,9 %) étaient plus nombreux à s’y opposer qu’à le soutenir, avec la même marge. La seule députée bouddhiste, Suella Braverman, a voté contre.
Au-delà de leur propre appartenance ethnique, politique ou religieuse, les opinions de leurs électeurs ont également pu influencer le vote des députés. Pour étudier cette question, j’ai effectué une analyse de régression (une méthode statistique permettant de trouver une relation entre divers facteurs) qui incluait une série de variables relatives aux circonscriptions, telles que la proportion de résidents blancs et le pourcentage de chaque groupe religieux (ainsi que de ceux qui s’identifient comme non religieux).
J’ai également pris en compte le pourcentage d’électeurs non diplômés, de diplômés, de ceux qui déclarent une forme de handicap. Dans le modèle complet, qui intégrait toutes ces variables, aucune des variables religieuses ne s’est révélée statistiquement significative, ce qui suggère que le lobbying religieux local n’a pas eu d’effet mesurable sur le vote des députés.
Toutefois, il est intéressant de remarquer que les députés dont la circonscription compte une proportion plus élevée de personnes handicapées sont plus susceptibles de voter en faveur de l’aide à mourir. Il n’est pas clair que ce soit une relation de cause à effet, suggérant que leurs électeurs ont fait pression sur eux pour qu’ils soutiennent le projet de loi, ou s’il s’agit d’une corrélation entre le fait que les personnes handicapées sont plus susceptibles de vivre dans des circonscriptions du Parti travailliste.
Comment les députés ont voté l’aide à mourir en novembre 2024 ?
Caractéristiques | Total | Oui | Non | Abstention |
---|---|---|---|---|
Total | 642 | 331 (52%) | 276 (43%) | 35 (5%) |
Femme | 261 | 143 (55%) | 107 (41%) | 11 (4.2%) |
Minorité ethnique | 90 | 30 (33%) | 57 (63%) | 3 (3.3%) |
LGBT | 71 | 49 (69%) | 18 (25%) | 4 (5.6%) |
Partis politiques | ||||
Parti Travailliste | 411 | 236 (57%) | 155 (38%) | 20 (4.9%) |
Parti Conservateur | 121 | 23 (19%) | 93 (77%) | 5 (4.1%) |
Libéraux-démocrates | 72 | 61 (85%) | 11 (15%) | 0 (0%) |
Parti National écossais | 9 | 0 (0%) | 0 (0%) | 9 (100%) |
Parti pour l'Indépendance du Royaume-Uni | 6 | 0 (0%) | 6 (100%) | 0 (0%) |
Parti unioniste démocratique | 5 | 0 (0%) | 5 (100%) | 0 (0%) |
Reform UK | 5 | 3 (60%) | 2 (40%) | 0 (0%) |
Parti vert | 4 | 4 (100%) | 0 (0%) | 0 (0%) |
Plaid Cymru (centre gauche) | 4 | 3 (75%) | 1 (25%) | 0 (0%) |
Parti social-démocrate et travailliste | 2 | 1 (50%) | 0 (0%) | 1 (50%) |
Alliance | 1 | 0 (0%) | 1 (100%) | 0 (0%) |
Voix unioniste traditionnelle | 1 | 0 (0%) | 1 (100%) | 0 (0%) |
Parti unioniste d'Ulster | 1 | 0 (0%) | 1 (100%) | 0 (0%) |
Religion | ||||
Non religieux | 234 | 179 (76%) | 43 (18%) | 12 (5.1%) |
Chrétien | 351 | 132 (38%) | 199 (57%) | 20 (5.7%) |
Catholique | 35 | 7 (20%) | 26 (74%) | 2 (5.7%) |
Musulman | 25 | 2 (8.0%) | 21 (84%) | 2 (8.0%) |
Juif | 13 | 8 (62%) | 4 (31%) | 1 (7.7%) |
Sikh | 12 | 8 (67%) | 4 (33%) | 0 (0%) |
Hindou | 6 | 2 (33%) | 4 (67%) | 0 (0%) |
Bouddhiste | 1 | 0 (0%) | 1 (100%) | 0 (0%) |
Note : le décompte des voix diffère de celui donné par le site web du Parlement parce que j’ai inclus les scrutateurs des deux côtés et que j’ai considéré les députés qui ont voté à la fois oui et non comme des votes d’abstention.
Lors de ce premier vote, les femmes députées étaient légèrement plus nombreuses à voter en faveur de l’aide à mourir que contre. Les députés LGBT penchent fortement en faveur de la modification de la loi (69 % d’entre eux ont voté pour).
Les députés issus de minorités ethniques ont, quant à eux, fortement penché dans la direction opposée, 63 % d’entre eux ayant voté contre.
Comme on pouvait s’y attendre, compte tenu du soutien ouvert du premier ministre Keir Starmer à la mort assistée, les députés travaillistes ont soutenu le projet de loi, avec 57 % de votes favorables et 38 % de votes défavorables.
Les libéraux-démocrates l’ont également soutenu à une écrasante majorité (85 %), tandis que 77 % des députés conservateurs ont voté contre. Tous les partis unionistes d’Irlande du Nord, ainsi que le député unioniste indépendant, ont voté contre le projet de loi, sans aucune abstention.
Les députés de Reform UK étaient partagés, avec deux contre et trois pour.
Un phénomène intéressant s’est fait jour à la gauche de l’échiquier politique. Lors des élections générales de 2024, le Parti vert et les « indépendants de Gaza » s’étaient opposés au Parti travailliste. Dans ce vote libre, nous avons vu les contrastes sociaux entre ces deux groupes se manifester. Tous les députés verts ont soutenu l’aide à mourir, tandis que tous les indépendants pro-Gaza – et leur allié, l’ancien leader du parti travailliste Jeremy Corbyn – s’y sont opposés. Ce clivage fait écho à la distinction entre les « libéraux identitaires de conviction » et les « libéraux par nécessité » issus des minorités ethniques qu’ont établie Maria Sobolewska et Robert Ford dans Brexitland.
Ce dernier groupe s’aligne sur les libéraux de conviction sur les questions de discrimination pour des raisons personnelles, mais adopte souvent des positions opposées sur des questions sociétales telles que l’aide à mourir. Les débats tels que celui actuellement en cours sur cette dernière question mettent en évidence les tensions au sein de cette coalition.
La religion étant une affaire personnelle, il n’existe pas de base de données officielles qui enregistre l’appartenance des députés. Il est donc souvent impossible de vérifier la façon dont les opinions religieuses influencent le comportement électoral. Pour combler cette lacune, j’ai constitué un ensemble de données en utilisant une méthodologie en trois étapes pour déterminer l’appartenance religieuse des députés.
En effet, je vérifie d’abord si un député est membre d’un groupe religieux, tel que Christians in Parliament. Ensuite, si un député a publiquement fait part de ses convictions religieuses – par exemple, dans un discours ou une interview – il est également classé en conséquence.
Résultats : parmi les députés (à l’exclusion du président et des députés du Sinn Fein, qui ne siègent pas), 54,7 % (351) sont chrétiens, dont 5,5 % (35) sont catholiques ; 36,4 % (234) sont sans religion ; 3,9 % (25) sont musulmans ; 2 % (13) sont juifs ; 1,9 % (12) sont sikhs ; 0,9 % (6) sont hindous ; et 0,2 % (1) sont bouddhistes.
Toutefois, ces deux premières étapes ne concernent qu’une fraction des députés. Tous les députés sont tenus de prêter un serment d’allégeance à la Couronne lorsqu’ils entrent en fonctions. Ce serment peut être fait sur un texte religieux ou une affirmation non religieuse, et il est essentiel que les députés puissent choisir le texte sur lequel ils prêtent serment – ce qui fait de cette décision une indication significative et publiquement visible de leur croyance.
Cela nous amène à la troisième étape : le texte religieux (ou l’absence de texte) utilisé lors de la cérémonie de prestation de serment est considéré comme une source supplémentaire de preuves pour la classification.
Ces trois sources sont utilisées par ordre de priorité. Par exemple, Tim Farron est un membre chrétien du Parlement et a parlé ouvertement de sa foi, mais il a choisi d’affirmer sans utiliser de texte religieux. Malgré cela, il est classé comme chrétien sur la base des deux premiers critères.
Dans cette affaire, ce qui a été particulièrement intéressant, ce sont les différences de vote entre les groupes chrétiens. J’ai pu distinguer ces groupes parce que lorsque les députés prêtent serment, les catholiques demandent généralement des versions spécifiques de la Bible – comme la Nouvelle Bible de Jérusalem – alors que les autres peuvent simplement demander la Bible et se voient remettre la version King James. Le fait de distinguer les catholiques dans une catégorie à part permet de nuancer l’analyse de la composition religieuse du Parlement. Une répartition complète de la religion des députés, ainsi que les données utilisées pour ce projet, sont disponibles ici.
Nous serons bientôt en mesure de voir comment ces marqueurs interagissent avec le vote en troisième lecture.
David Jeffery ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
26.05.2025 à 16:53
Julien Gourdon, Economiste, Agence Française de Développement (AFD)
Simon Azuélos, Analyste Afrique, Agence Française de Développement (AFD)
Les droits de douane promulgués par l’administration Trump vont affecter de façons variées les pays africains. Décryptage.
Les régimes tarifaires introduits par Donald Trump à l’encontre de très nombreux pays vont bouleverser le système financier mondial ainsi que d’innombrables relations commerciales, entraînant de profondes distorsions sur les marchés et un ralentissement généralisé de la croissance.
Ce développement aura nécessairement un impact sur les pays les plus pauvres, notamment sur 39 pays à faible revenu d’Afrique qui bénéficiaient d’un accès en franchise de droits aux marchés états-uniens depuis 2000 en vertu de la loi sur la croissance et les opportunités en Afrique (African Growth and Opportunity Act, AGOA).
Cependant, le risque pour les économies africaines viendra davantage de la volatilité des prix des matières premières, qui pourrait mettre en péril leur équilibre extérieur et des chocs sur les taux souverains africains.
Le 8 avril 2025, les États-Unis ont imposé aux pays africains des droits de douane élevés, allant de 10 % à 50 % (pour le Lesotho) sous le scénario « reciprocal tariff » (droits de douane réciproques)
Le lendemain, 9 avril, l’administration Trump a annoncé mettre en pause ce scénario et avoir adopté, pour tous les exportateurs, un taux de 10 %, dit « universal tariff » (droits de douane universels).
Les droits de douane moyens imposés aux pays africains étaient de 3,7 % en 2024 (en tenant compte de leurs paniers d’exportations, qui diffèrent d’un pays à l’autre). Ils seront de 10 % pour chaque pays en cas de mise en œuvre du scénario universal tariff, et de 30 % en moyenne si c’est le scénario reciprocal tariff qui est finalement appliqué.
L’augmentation de ces tarifs sera en fait bien plus importante si l’on considère que 34 pays du continent bénéficient d’un accès privilégié (zéro tarif sur une vaste quantité de biens) au marché des États-Unis via l’AGOA, et que 35 pays profitent du Système généralisé des préférences (SGP) des États-Unis, résultant en un tarif moyen pour les exportations africaines de 1,3 % : les hausses seront donc encore plus conséquentes, que ce soit sous le scénario universal ou sous le scénario reciprocal tariff.
Cependant, les États-Unis représentent un marché d’exportation relativement restreint pour la plupart des pays du continent. 5,8 % seulement des exportations africaines sont à destination de ce marché (Figure 1) et, pour vingt-cinq pays, la part de ce marché dans leurs exportations totales est inférieure à 2 %.
Figure 1 : Tarifs pour les pays africains sur le marché états-unien
Source : Auteurs, sur la base de World Integrated Trade Solution (World Bank).
Trente-deux pays représentent moins de 4 % des exportations africaines totales vers les États-Unis. Les principaux exportateurs vers les États-Unis sont l’Afrique du Sud, le Nigeria, le Ghana, l’Angola et la Côte d’Ivoire.
Si l’on considère à la fois le changement de droits de douane et la dépendance au marché américain, 12 pays du continent seront plus particulièrement touchés (Figure 2) : le Lesotho, Madagascar, le Botswana, l’Afrique du Sud, la Côte d’Ivoire, le Nigeria, le Malawi, Djibouti, le Ghana, le Kenya, le Sénégal et l’Éthiopie.
Figure 2 : Exposition des pays africains aux nouveaux tarifs américains
Source : Auteurs, sur la base de World Integrated Trade Solution (World Bank). Note : la taille des bulles est fonction du montant des exportations du pays vers les États-Unis.
Notons que l’énergie et les minerais sont exemptés des nouveaux droits de douane, de sorte que les principaux exportateurs de pétrole, de gaz et de produits miniers ne seront pas très affectés. Il s’agit notamment de l’Angola, du Tchad, de la RDC, du Ghana et du Nigeria. Mais pour quelques-uns, l’impact pourrait être sévère, en particulier ceux qui dépendent des États-Unis comme marché d’exportation.
Pour le Lesotho, Maurice et Madagascar, qui exportent des vêtements, le choc subi est particulièrement dévastateur car ce sont les États-Unis qui ont permis cette croissance en exemptant les intrants de pays tiers (les tissus) des droits de douane. Le Kenya est également un grand exportateur de vêtements, mais avec un droit de douane de 20 %, il est désormais relativement plus compétitif.
Figure 3 : Type de biens exportés vers les États-Unis et vers le reste du monde
Les États-Unis sont également une destination d’exportation importante pour l’Afrique du Sud, mais elle sera mieux placée pour surmonter le choc, grâce à son économie plus diversifiée. La Côte d’Ivoire, premier producteur mondial de cacao, est frappée d’un droit de 21 % sous le scénario « reciprocal tariff ». L’Éthiopie, avant d’être suspendue du programme AGOA pour des raisons politiques, avait connu une explosion de ses exportations textiles vers les États-Unis.
Si, dans l’ensemble, le commerce mondial pourrait connaître un ralentissement, certains pays africains et secteurs compétitifs à l’échelle mondiale peuvent se tourner vers de nouveaux marchés pour mieux résister aux changements de politique et aux autres risques liés à la chaîne d’approvisionnement. En fin de compte, ces droits de douane pousseront les nations africaines à former de nouvelles alliances ainsi qu’à approfondir les échanges commerciaux établis avec l’UE et avec la Chine, l’Inde et les pays du Golfe.
La Chine, en particulier, a tout à gagner, elle qui l’an dernier a supprimé les droits de douane sur les marchandises en provenance de 33 pays africains. Ces chocs extérieurs rappellent l’urgence de renforcer l’intégration économique du continent au travers de la Zone de libre-échange continentale africaine (ZLECAf), qui n’est pas seulement un projet politique au niveau continental, mais bien une nécessité stratégique.
Si la plupart des pays ne sont que très peu impactés du fait de leur faible exposition, une dizaine de pays, en particulier ceux qui avaient développé des industries autres que les produits pétroliers et minerais – exemptés de ces droits de douane – seront touchés plus fortement. Cependant, l’effet négatif pour les économies du continent pourrait se situer ailleurs…
Le contexte actuel de guerre commerciale entre la Chine et les États-Unis entraîne un risque de ralentissement de la demande pour les matières premières africaines de la part de la Chine (les prix de référence des métaux ont chuté brutalement au début du mois d’avril) et une volatilité accrue des prix des matières premières, ce qui affectera les recettes d’exportation des pays africains.
Avant ce conflit commercial, le ralentissement de la croissance économique et l’offre abondante de pétrole depuis 2024 avaient déjà provoqué une chute des prix mondiaux des matières premières, avec un recul dans les prévisions de 12 % en 2025 puis de 5 % en 2026, marquant la fin de l’envolée des prix liée à la reprise économique après la crise Covid et l’invasion russe de l’Ukraine.
Si les tensions commerciales s’intensifient ou si l’incertitude s’aggrave, la demande globale de matières premières risque de s’affaiblir encore davantage, et les prix de baisser.
Figure 4 : Évolution des prix des produits de base
Source : Commodity Markets (World Bank)
Déjà confrontés à des coûts d’emprunt élevés et à un accès limité aux financements extérieurs, les pays d’Afrique subsaharienne doivent mobiliser chaque année plus de 70 milliards de dollars de financements extérieurs bruts pour couvrir leurs besoins, soit environ 6 % de leur PIB régional. La hausse des tensions commerciales risque d’aggraver ces défis, en accentuant l’aversion pour le risque des investisseurs et en rendant plus difficile l’accès aux marchés financiers internationaux.
La montée de l’aversion pour le risque a déclenché une forte vente des obligations souveraines africaines, provoquant une hausse généralisée des spreads souverains. Les spreads des obligations souveraines africaines ont augmenté en moyenne d’environ 100 points de base en quelques semaines. Cette hausse du coût du risque rend le refinancement externe plus difficile pour les pays africains, malgré des tentatives de stabilisation des marchés après l’annonce d’un arrêt partiel des nouveaux tarifs le 9 avril.
Les primes de risque plus élevées devraient persister au-delà du choc immédiat, dans un contexte de durcissement des conditions financières mondiales, de ralentissement de la croissance globale et de volatilité accrue des marchés des matières premières. Ce nouvel environnement fragilise particulièrement les économies d’Afrique subsaharienne qui dépendent des marchés internationaux pour leur financement.
Après plusieurs années de crises successives, l’Afrique était bien engagée dans une reprise progressive. Ce dynamisme reposait sur la reprise des investissements publics, le rebond des exportations de matières premières et la diversification économique en cours.
Toutefois, le durcissement des conditions financières mondiales, la hausse des coûts d’emprunt, le ralentissement de la demande extérieure et la baisse de certains prix de matières premières ont rapidement assombri les perspectives. En attestent les projections FMI pour 2025 et 2026 sorties ce mois-ci, en nette baisse relativement aux projections d’octobre 2024, ainsi le FMI a abaissé sa prévision de croissance pour l’Afrique en 2025, de 4,2 % à 3,8 %, en raison de ces incertitudes accrues.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
26.05.2025 à 16:53
Marc Fontecave, Professeur, titulaire de la chaire de chimie des processus biologiques au Collège de France, membre de l'Académie des sciences, Collège de France
Yves Bréchet, Professeur à Monash University (Australie) et membre de l'Académie des sciences, Monash University
Que penser de la programmation pluriannuelle de l’énergie (PPE) dévoilée en mars 2025 ? Pour l’Académie des sciences, qui a livré un avis sur la question, le texte souffre de plusieurs incohérences. En misant sur la surproduction, une telle politique pourrait entraîner une volatilité accrue des prix de l’électricité, accélérer la dégradation des capacités nucléaires, en cas de sous-utilisation, et enfin affecter la stabilité des réseaux électriques sur le territoire.
C’était un texte attendu de longue date. La programmation pluriannuelle de l’énergie (PPE), qui doit fixer les objectifs de la politique énergétique nationale à l’horizon 2035, a été rendue publique en mars 2025. Il s’agit d’une version révisée, faisant suite à une première version soumise à la consultation publique organisée à la fin de l’année 2024.
Ce document se donne notamment l’ambition de transformer notre système énergétique pour réduire sa dépendance vis-à-vis des ressources carbonées fossiles tout en garantissant la sécurité d’approvisionnement. Est-il à la hauteur des enjeux climatiques et énergétiques ?
Après avoir procédé à son analyse rigoureuse, l’Académie des sciences a récemment diffusé un avis sur cette nouvelle PPE assorti de recommandations. Nous en livrons ici les principaux messages.
Commençons par rappeler quelques spécificités du mix énergétique français. L’électricité constitue 26 % de la consommation d’énergie totale des Français. Comme l’a montré le dernier bilan électrique de RTE, l’intensité carbone de notre production électrique, soit 21,3 g équivalent CO2 par kilowatt-heure (kWh) en 2024, est l’une des plus faibles du monde.
Cette production remarquablement décarbonée, nous la devons à des choix de politique énergétique anciens, dictés notamment par une exigence de souveraineté énergétique. Ce sont eux qui ont doté la France d’un parc nucléaire et de barrages hydrauliques. Bas carbone et pilotables, ces infrastructures fournissent plus de 80 % de notre électricité.
Depuis, ces sources historiques ont été complétées par des productions éoliennes et solaires, ce qui conduit à une part de la production d’électricité d'origine renouvelable qui atteignait 28 % en 2024. Même s’il s’agit d’un excellent point de départ, ce n’est pas le point d’arrivée d’une trajectoire de politique climatique.
Une telle trajectoire doit viser à diminuer notre dépendance vis-à-vis des ressources fossiles. Elles représentent aujourd’hui 58 % de notre consommation d’énergie finale et nous coûtent chaque année en moyenne environ 60 milliards d’euros.
À lire aussi : Climat : le casse-tête de la « stratégie nationale bas carbone »
Nous consommons du pétrole, du gaz et du charbon pour les transports, le chauffage et l’industrie. Il faut bien comprendre qu’il n’est pas possible, même en diminuant notre consommation totale, de remplacer complètement et à court terme ces sources, même si on peut espérer y substituer – en partie – des combustibles alternatifs renouvelables (en grande partie issus de la biomasse : bois, biogaz, biocarburants…), comme le soulignait un autre avis de l’Académie des sciences en janvier 2024.
Dans ces conditions, la seule issue réside dans l’électrification de plusieurs secteurs. D’abord celui des transports, au travers des véhicules électriques, mais également de l’habitat, en déployant davantage de pompes à chaleur, et enfin dans l’industrie, en y développant l’hydrogène vert et l’acier vert et les fours électriques. Ceci constitue donc aujourd’hui un axe clé de toute politique énergétique, en France, en Europe et dans le monde.
En parallèle, il est nécessaire de développer les politiques de sobriété énergétique. Il s’agit d’optimiser les dépenses énergétiques industrielles, les rendements des convertisseurs d’énergie, d’améliorer l’isolation des bâtiments et d’alléger les transports au sol et aériens. C’est ce double effort de sobriété énergétique et d’électrification de notre économie qui nous permettra de remplir nos objectifs de sortie progressive des énergies fossiles.
Évidemment, une telle augmentation à venir de la consommation électrique, tant absolue que relative, doit être assurée par augmentation de la production d’électricité, toujours bas carbone. Mais il y a quelques règles à respecter de façon rigoureuse.
La plus importante sans doute est que, dans un monde sans capacités de stockage d’électricité à grande échelle, comme c’est le cas aujourd’hui, il faut disposer d’un socle significatif de capacités de production à la fois pilotables (dont le niveau de production peut être modulé en fonction de la demande) et dotées de mécanismes d’inertie suffisants(fournis par des volants d'inertie, qui aident à stabiliser le réseau après une interruption de la production. Cela tient à la capacité des rotors à continuer pendant un certain temps à tourner à la bonne fréquence et à convertir l'énergie cinétique de rotation en électricité.)
Aujourd’hui, ces mécanismes permettent le meilleur contrôle de la fréquence des réseaux électriques, en particulier en sortie de centrales thermiques et nucléaires.
Il faut donc limiter la part des sources d’énergie intermittentes, sous peine d’instabilités. Ou en tout cas, ne l'accroître qu’à un rythme permettant le développement de moyens de stockage électrique en complément, pour que ces ressources soient pilotables et sûres pour la stabilité du réseau électrique.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
En 2021, une étude conjointe de RTE et de l’AIE identifiait les conditions permettant d’intégrer davantage de sources d’énergies intermittentes au mix électrique : la disponibilité de capacités pilotables pour assurer à tout moment une puissance au moins égale à la puissance demandées (éventuellement à l'aide de réserves opérationnelles), le renforcement des réseaux électriques et enfin la disponibilité de capacités de stockage à toutes les échelles de temps. Aujourd’hui, aucune n’est satisfaite.
Dans ce contexte, une course non maîtrisée à l’installation de capacités intermittentes pourrait conduire à des difficultés croissantes de contrôle de la stabilité du système électrique.
À lire aussi : Blackout dans le sud de l’Europe : une instabilité rare du réseau électrique
Dans son avis sur le texte final de programmation pluriannuelle de l’énergie (PPE), proposé par le gouvernement en mars 2025, l’Académie des sciences a donc sonné l’alerte. D’une certaine façon, elle rejoint l’avis public du haut-commissaire à l’énergie atomique, rendu public un mois plus tôt.
Si l’Académie se félicite de voir enfin disparaître de la politique énergétique française la perspective de la fermeture de réacteurs nucléaires en parfait état de fonctionnement, elle s’étonne de voir, pour l’horizon 2035, une addition massive de production électrique – de l’ordre de 200 TWh – à une production qui atteint déjà 540 TWh.
Le premier problème, c’est que cet objectif de production s’appuie sur une hypothèse d’augmentation équivalente de la consommation électrique.
Or, cette hypothèse ne prend pas en compte le fait bien établi, comme le montre le graphe ci-dessous, que, contrairement aux espoirs d’électrification de la société, la consommation électrique de la France diminue globalement depuis 2017. La tendance est la même dans les autres grands pays européens. Cette consommation atteignait 449 TWh en 2024, et rien n’indique un renversement fulgurant à venir de cette tendance pour les prochaines années.
Cette baisse de la consommation tient à plusieurs facteurs :
le premier est l’effort de sobriété que s’imposent les ménages et les secteurs industriels, confrontés à un prix de l’électricité excessif ;
le deuxième est lié à un retour de la désindustrialisation, qui conduit à une baisse de la consommation d'électricité de l'industrie ;
le troisième tient à la difficulté, économique mais aussi technologique, que pose l’électrification des usages. Le déploiement des voitures électriques ne progresse que lentement, l’hydrogène issu de l’électrolyse de l’eau est toujours trop inefficace en termes de rendements et trop cher, les e-carburants ne sont pas accessibles à des coûts raisonnables, le secteur sidérurgique est en grande difficulté et a mis en pause les projets de production d’acier vert (produit par hydrogénation ou électrolyse des oxydes de fer)…
Si une certaine surcapacité a des vertus, notamment car elle permet d’exporter de l’électricité – comme nous l’avons fait à hauteur de 100 TWh en 2024 pour une facture de 5 milliards d’euros, rien ne justifie d’aller beaucoup plus loin. Une surcapacité excessive conduirait par ailleurs à une gestion plus contrainte de l’équilibre entre l’offre et la demande. De plus, une telle sous-utilisation des équipements contribuerait à augmenter les coûts de production au kWh.
L’Académie des sciences soulève dans son avis un second problème posé par le texte de la PPE3. Celui-ci tient au fait que l’énergie additionnelle visée à l’horizon 2035 sera exclusivement fournie par des énergies renouvelables variables et non pilotables : l’éolien pour une centaine de TWh et le solaire pour une centaine de TWh également.
On comprend bien que l’enjeu est de permettre à la France de montrer à la Commission européenne qu’elle respecte les engagements communs de construire un système électrique reposant à 42,5 % sur des énergies renouvelables.
Mais atteindre un tel niveau sous des délais si courts aura plusieurs conséquences délétères.
Tout d’abord, une volatilité accrue des prix de l’électricité, avec des périodes de plus en plus fréquentes de prix très élevés – ou à l'inverse, de prix négatifs. Cette dernière situation survient, sur les marchés de gros, lorsque l'offre excède la demande dans des proportions trop importantes, ce qui oblige les producteurs à payer pour que leur électricité soit consommée, souvent pour éviter d'arrêter et de redémarrer des centrales, une procédure complexe et coûteuse.
La nécessité, pour assurer l’équilibre entre offre et demande, d’une modulation excessive de la production nucléaire. Ceci entraînera des contraintes sur la gestion du parc électronucléaire et un sous-emploi de ce parc, ce qui est coûteux au plan économique et induit des risques de dégradation des réacteurs.
Enfin, cela entraînera des tensions sur les réseaux électriques, qu’il faudra adapter. La variabilité de la production d'ENR est source d'incertitudes quant aux adaptations à mettre en place. Ceci ajoutera des coûts supplémentaires considérables au fonctionnement du système énergétique.
Construire une politique énergétique rationnelle nécessite une réflexion à long terme qui doit intégrer non seulement la production d’électricité mais également son stockage, son transport, sa distribution et sa consommation pour les différents usages.
Une telle politique doit donc, pour éviter des surproductions excessives très coûteuses, mieux estimer les besoins réels des consommateurs et les contraintes nouvelles en termes de réseaux et de stockage électriques. Ceci doit passer par des évaluations rigoureuses.
Pour cela, elle doit également mieux prendre en compte les difficultés objectives de l’électrification de la société et admettre la nécessité de mener des recherches pour la réussir, sans se voiler la face sur les échelles de temps nécessaires.
Il importe de ne pas « mettre la charrue avant les bœufs ». Assurons-nous d’abord de la pérennité de notre parc électronucléaire, qui est à la fois décarboné et pilotable. Et ne développons les énergies renouvelables (qui peuvent être, en effet, déployées plus rapidement) qu’à la mesure des besoins réels de consommation, au rythme de notre capacité à moderniser le réseau électrique pour en assurer la stabilité et à assurer l’équilibre entre sources variables et sources pilotables. Ceci devra d’ailleurs être complété par des capacités de stockage qui restent à développer.
Le colloque « Les grands enjeux de l'énergie », co-organisé par l'Académie des sciences et l'Académie des technologies, se tiendra les 20 et 21 juin 2025 en partenariat avec The Conversation et Le Point. Inscription gratuite en ligne.
Marc Fontecave est membre du comité de prospective en énergie de l'Académie des sciences. Il est également l'auteur de l'avis de l'Académie des sciences sur la PPE3.
Yves Brechet est membre du comité de prospective en énergie de l'Académie des sciences.
26.05.2025 à 16:52
Maëlle Ochoa, Doctorante en didactique des langues secondes, Université de Bordeaux
L’acquisition de l’écrit est un processus complexe, qui s’étale sur toute une scolarité. Et l’omniprésence d’outils numériques implique de repenser son apprentissage, dans la mesure où les écrans supposent un autre traitement des informations. Du cahier à l’ordinateur ou au smartphone, les logiques ne sont plus les mêmes. Quelques pistes de réflexion.
« L’écriture n’est pas en progrès ; il semble même qu’elle soit plutôt en décadence. » Si vous pensez lire là un extrait de l’annonce de François Bayrou, en mars dernier, à l’occasion de l’annonce d’un plan pour l’écriture à l’école, vous vous trompez. Il s’agit d’une citation de l’inspecteur d’académie Irénée Carré, en 1889.
La maîtrise de l’écrit et son enseignement ont toujours fait l’objet de prises de parole politiques, reflétant les enjeux sociaux autour de l’écriture qui, en plus d’être un puissant transformateur cognitif, est un outil indispensable pour s’insérer socialement. Que ce soit dans une langue maternelle ou dans une langue étrangère, sur papier ou sur écran, écrire, c’est penser.
En tant que besoin social, l’écrit catalyse des inégalités. Ajoutée à d’autres facteurs, sa maîtrise permet d’accéder à une meilleure réussite scolaire, académique, professionnelle, sociale. Et cette réussite est davantage susceptible de conduire à des situations dans lesquelles on continue à réfléchir et s’enrichir intellectuellement.
On comprend donc bien la nécessite d’enseigner l’écrit à l’école, et jusqu’à l’université. De plus, si les problématiques d’enseignement de l’écriture questionnent les professionnels depuis longtemps, l’omniprésence de l’écriture numérique soulève de nouvelles questions. Quelles différences entre l’écriture sur papier et l’écriture sur écran ? Qu’implique l’écriture numérique, à la fois sur le plan social et celui de son acquisition ?
Écrire est une activité complexe et coûteuse sur le plan cognitif. Pour écrire, vous devez mettre en œuvre un grand nombre de processus de manière simultanée : récupérer des informations dans la mémoire à long terme, transformer ces informations sémantiques en texte, produire le texte à la main ou le taper, vérifier le résultat en le comparant avec les buts initiaux, tenir compte de votre lecteur, respecter un certain nombre de normes linguistiques et discursives…
Si vous écrivez dans une langue étrangère, il y a des défis supplémentaires : vous n’avez peut-être pas accès à tout le lexique nécessaire, les opérations prennent plus de temps, vous avez votre langue maternelle en tête, etc.
À lire aussi : Apprendre à écrire : peut-on remplacer papier et crayon par tablette et stylet ?
Lorsque vous écrivez dans un espace numérique, d’autres spécificités sont aussi à prendre en compte. Il faut distinguer l’écrit numérisé, qui est une sorte d’écrit papier sur un support différent, de l’écrit numérique, qui implique une compréhension de l’environnement informatique. Maîtriser l’écrit numérique ne signifie pas apprendre à écrire ou à lire sur un écran. Cela suppose d’être capable à la fois de traiter des informations et de construire du sens en tenant compte de la machine.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Activer ou suivre des liens hypertextes, commenter un article, interagir avec le contenu grâce à des emojis, des likes ou des réactions, utiliser une messagerie instantannée, ou une IA générative, concevoir des diaporamas, collaborer sur un même document sont des exemples de situations qui relèvent de l’écriture numérique. Ces actions impliquent des processus qui ne peuvent être mis en œuvre dans le cas d’une écriture sur papier d’un texte numérisé.
Du point de vue de l’attention, l’apprentissage dans un espace numérique peut être facilité par une utilisation précise et appropriée de certains outils comme les plates-formes permettant de réguler l’écoute d’un document audio en autonomie par exemple, les liens permettant d’avoir accès à des informations supplémentaires, les correcteurs. Mais il peut aussi être entravé quand on est confronté à de trop nombreuses informations à la fois, ou qu’on ne cesse de naviguer d’un onglet à un autre.
Dans le cadre de mes recherches, je me suis intéressée en particulier à l’apport de la traduction neuronale automatique, avec des outils comme DeepL, pour l’enseignement de la production écrite en français langue étrangère.
Il s’agit de comprendre dans quelle mesure l’utilisation de DeepL permet d’améliorer les performances des rédacteurs. Pour cela, j’ai mené une étude expérimentale auprès d’étudiants chinois à l’université en France. Les étudiants ont d’abord rédigé un essai sans aide, puis un deuxième essai pour lequel ils pouvaient recourir librement à DeepL.
À lire aussi : Apprendre à traduire : à l’ère de l’IA, faut-il encore faire des exercices de thème et de version ?
Les écrans des étudiants ont été enregistrés pendant la rédaction. Cette technique permet d’observer et de comparer les activités de rédaction : le temps de frappe sur le clavier, le temps passé à traduire, les temps de pause entre chaque étape, les mouvements du curseur, etc.
Les résultats de cette étude ont mis en évidence des profils de rédacteurs variés. Lorsqu’ils peuvent utiliser DeepL, certains étudiants utilisent beaucoup leur langue maternelle et font ainsi plus de pauses, ce qui est bon signe puisque les pauses permettraient de s’intéresser à l’aspect global du texte, à sa cohérence, aux idées qu’il contient. D’autres étudiants passent plus de temps à écrire en français, ce qui pourrait correspondre aux objectifs des enseignants. De futures études permettront peut-être de faire des liens entre ces profils de rédacteurs et la progression des étudiants.
Nous avons également remarqué que, lorsqu’un étudiant passe d’une opération à l’autre rapidement, et de nombreuses fois, ses performances à l’écrit ont tendance à diminuer. Cela rejoint d’autres conclusions de recherche selon lesquelles les nombreux changements d’activités augmentent la charge cognitive et peuvent avoir un impact négatif sur les performances des étudiants.
Ces analyses ont aussi permis de montrer comment les apprenants se saisissent de l’outil et d’identifier différentes stratégies, qui peuvent être discutées avec les étudiants :
traduire des phrases ou des expressions de la langue maternelle vers la langue étrangère peut servir à lancer ou compléter la production ;
alterner les langues peut permettre de construire des idées complexes ;
traduire le texte entièrement peut servir à obtenir une version corrigée, à récupérer certains éléments, à rédiger uniquement en langue maternelle ;
Comparer la version en langue maternelle et la version en langue étrangère peut permettre de réfléchir sur la langue.
Les étudiants peuvent déléguer certaines opérations, ce qui facilite le processus de rédaction. Attention, toutefois, il est aussi possible d’éviter des opérations. Or, dans une visée cognitive de l’apprentissage des langues, on ne cherche par à faire éviter les opérations qui conduisent à résoudre des problèmes, mais à les accompagner. C’est ce qui amène les étudiants à résoudre des problèmes de plus en plus complexes par eux-mêmes.
Les traducteurs en ligne sont des aides à l’écriture qui peuvent servir l’enseignement de l’écrit en langue étrangère. Tenir compte de la façon dont le traducteur amène les étudiants à traiter l’information et à construire le sens apparaît essentiel pour enseigner l’écriture numérique.
Maëlle Ochoa ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
26.05.2025 à 16:52
Dalia Ibrahim, Economiste, IÉSEG School of Management
Audrey Allegret, Maître de conférences, Université de Toulon
Jean-Pierre Allegret, Professeur des universités, Macroéconomie internationale, Université Côte d’Azur
Depuis la réélection de Donald Trump, l’asymétrie de pouvoir entre les États-Unis et l’Union européenne saute aux yeux et porte un nom : le dollar. La puissance de la monnaie états-unienne pose un défi aux Européens. Un défi important, mais pas insurmontable.
Depuis la prise de fonction de Donald Trump en janvier 2025, les relations économiques internationales ont connu un regain de tensions. Le retour d’un protectionnisme assumé et l’élargissement des sanctions économiques ont contribué à accroître l’instabilité mondiale. Pour la zone euro, ces développements mettent en lumière une réalité structurelle : sa dépendance stratégique vis-à-vis des décisions économiques et financières américaines.
La position dominante du dollar américain ne fait plus débat. De nombreux travaux, du paradigme de la monnaie dominante à celui d’un cycle financier mondial porté par le crédit américain, mettent en évidence son rôle déterminant à l’échelle mondiale. En moyenne, le dollar représente près de 60 % du total des actifs et engagements des banques internationales, ce qui illustre son poids prépondérant dans les flux financiers globaux.
À cela s’ajoute son double statut : monnaie de réserve internationale et monnaie de référence pour la facturation des échanges commerciaux. En d’autres termes, le dollar occupe une place centrale dans l’architecture financière mondiale, tant pour les réserves de change des banques centrales que pour les transactions commerciales et financières entre entreprises privées.
Graphique : Des banques européennes dépendantes au dollar dans un contexte de tensions géopolitiques accrues (actifs et engagements en trillions de dollars)
Les banques européennes sont particulièrement actives sur le marché du financement en dollars (Graphique ci-dessus), ce qui les rend sensibles à l’influence des banques globales américaines. L’évolution récente des politiques américaines aggrave cette dépendance : les nouvelles mesures commerciales de l’administration Trump – notamment l’instauration de droits de douane universels et l’élargissement des sanctions extraterritoriales – ont encore renforcé la position centrale du dollar, en incitant les entreprises à sécuriser leurs transactions en devise américaine pour éviter les restrictions, mettant davantage sous pression les systèmes bancaires européens déjà engagés dans le financement en dollars.
Cette pression accrue illustre la difficulté pour la zone euro de préserver sa souveraineté économique dans un contexte où les décisions américaines ont des répercussions directes sur sa stabilité financière. Un phénomène d’autant plus préoccupant que cette dépendance expose la zone euro aux chocs financiers générés par les États-Unis eux-mêmes.
Les dernières turbulences sur les marchés américains en témoignent. En avril 2025, la guerre commerciale relancée par l’administration Trump a provoqué une volatilité inhabituelle, y compris sur le marché obligataire américain – pourtant traditionnellement considéré comme une valeur refuge. Les mouvements inattendus des taux sur les obligations du Trésor américain et la pression sur le financement en dollars ont soulevé des doutes sur la capacité des États-Unis à jouer leur rôle habituel de stabilisateur financier mondial. Cette instabilité révèle à quel point la dépendance structurelle de la zone euro à l’égard des États-Unis peut devenir un facteur de risque systémique.
Cette dépendance financière au dollar ne reflète pas seulement un déséquilibre monétaire : elle s’inscrit dans un rapport de pouvoir plus large entre les États-Unis et la zone euro. Pour mieux comprendre cette dynamique, on peut s’appuyer sur une grille d’analyse développée par deux politologues américains, Robert O. Keohane et Joseph S. Nye, qui ont introduit le concept d’interdépendance complexe. Ce concept sert à montrer comment la dépendance mutuelle entre États peut se transformer en levier d’influence.
À lire aussi : Annonces de Donald Trump : ce que la réactivité des traders dit des marchés financiers mondiaux
Se basant sur le concept d’interdépendance complexe, ils distinguent deux formes d’interdépendance asymétrique. La première forme, intitulée « sensibilité », désigne le degré auquel les conditions économiques dans un pays peuvent être affectées – positivement ou négativement – par des événements extérieurs. La seconde forme, appelée « vulnérabilité », concerne la capacité ou l’incapacité d’un pays à répondre ou à s’adapter à ces chocs externes. Autrement dit, la sensibilité mesure l’exposition immédiate à un changement, tandis que la vulnérabilité mesure l’incapacité structurelle à s’en détacher.
C’est dans ce cadre qu’il faut comprendre la place du dollar : sa domination dans les réserves de change des banques centrales, la dollarisation du commerce mondial, des marchés de capitaux et des systèmes de paiements internationaux donnent aux États-Unis une capacité d’influence disproportionnée. Ils peuvent ainsi agir sur le reste du monde en modifiant leur politique économique, en transmettant des chocs financiers domestiques ou en changeant unilatéralement les règles du jeu.
Ce dernier point est particulièrement important dans le contexte géopolitique actuel. Depuis la réélection de Donald Trump, l’administration américaine a intensifié l’usage des sanctions financières à des fins diplomatiques. Par exemple, Washington annonce, en avril 2025, un durcissement des sanctions secondaires liées aux échanges avec l’Iran, touchant potentiellement des entreprises européennes exposées sur les marchés chinois et moyen-orientaux. Ces mesures, prises de manière unilatérale et sans coordination avec ses alliés, mettent directement en lumière le manque d’autonomie stratégique de la zone euro face à un outil monétaire qui reste sous contrôle américain.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Quelle stratégie la zone euro peut-elle mettre en place en réponse à ces sanctions extraterritoriales ? Jusqu’à présent, les nations et institutions européennes ont privilégié une stratégie de relations internationales fondée sur le respect des règles du multilatéralisme sans se soucier de la dimension géopolitique des relations économiques internationales. Les Européens ont accepté de facto le rôle de leader joué par les Américains dans l’ordre libéral international. Ce comportement a conduit, d’une part, à la domination du dollar comme monnaie pivot internationale et, d’autre part, à la prééminence des conceptions américaines sur la déréglementation financière donnant une place centrale à son système financier au niveau mondial.
L’utilisation croissante de l’arme économique, en lien avec les tensions géopolitiques, a poussé l’Union européenne à revoir sa posture. À cela s’ajoutent les incertitudes liées à la politique étrangère américaine, qui varie fortement selon les administrations successives. Ce tournant trouve son origine dans l’élection en 2019 à la présidence de la Commission européenne d’Ursula von der Leyen. Cette dernière a en effet affirmé la volonté de doter l’Union européenne d’une vision géostratégique. Sur le plan monétaire, Josep Borrell, haut représentant de l’Union européenne pour les affaires étrangères et la politique de sécurité, a souligné en 2021 que l’une des « faiblesses » de l’UE était sa dépendance au dollar, qui ne lui permettait pas d’avoir une « autonomie stratégique ».
Les tensions actuelles rendent cette autonomie encore plus urgente. La multiplication des barrières commerciales et la fragmentation du commerce mondial, renforcée par l’agenda protectionniste américain, posent un défi direct à la stabilité financière de l’Union européenne.
Ce contexte met en lumière une réalité structurelle : le système financier de la zone euro est en réalité loin d’être autonome vis-à-vis des États-Unis, ce qui confirme l’asymétrie de dépendance évoquée précédemment. Or, comme l’a souligné Benjamin J. Cohen, l’autonomie – qui traduit le pouvoir interne – est un préalable à l’expression d’une influence extérieure (pouvoir externe).
À lire aussi : Le déficit commercial entre les États-Unis et l’Union européenne : un déséquilibre plus structurel qu’il n’y paraît
Deux axes stratégiques sont particulièrement déterminants pour renforcer l’autonomie financière et monétaire de la zone euro face aux pressions extérieures.
Le premier axe stratégique pour renforcer l’autonomie de la zone euro concerne l’émergence des monnaies numériques de banques centrales, qui ouvre de nouvelles perspectives. En facilitant et en accélérant la diffusion internationale des monnaies, la numérisation change la donne, conduisant à un profond bouleversement des rivalités monétaires. Dans le contexte de compétition géopolitique avec les États-Unis, la Chine a déjà lancé sa monnaie numérique, e-CNY.
La zone euro est déjà relativement avancée dans son projet de monnaie numérique. Dans la compétition entre puissances, le futur euro numérique pourrait être un outil puissant pour gagner en autonomie vis-à-vis des États-Unis. En effet, la numérisation rend les systèmes de paiement internationaux plus efficaces en réduisant les coûts tout en améliorant la rapidité. Il existe donc une incitation pour les marchés à utiliser ce type d’instrument. Cet outil est d’autant plus essentiel que jusqu’à présent, les États-Unis ne semblent pas disposés à saisir l’opportunité de façonner le futur système monétaire international numérique.
Le second axe stratégique pour renforcer l’autonomie de la zone euro repose sur l’évolution structurelle du système financier européen. Dans cette perspective, le développement d’une véritable Union des marchés financiers apparaît comme une étape incontournable. L’objectif est non seulement de permettre aux investisseurs internationaux d’accéder à des marchés financiers plus liquides et plus profonds, mais aussi et surtout d’augmenter l’offre d’actifs sûrs libellés en euros. La mise en œuvre du fonds de relance Next Generation EU (NGEU) constitue une étape importante dans la recherche d’une autonomie accrue. Cela marque une rupture dans la politique adoptée jusqu’ici par l’Union européenne. Ce second axe stratégique est d’autant plus important qu’aucune monnaie internationale « significative » n’a émergé sans un vaste système financier. Ce constat est renforcé par l’observation de la centralité des États-Unis au sein du réseau du système financier mondial.
Dans ce contexte, les derniers mois ont mis en évidence le coût de l’absence d’une véritable autonomie stratégique pour la zone euro. La guerre commerciale relancée par l’administration Trump et les réactions en chaîne sur les marchés financiers montrent que la zone reste de manière structurelle exposée aux décisions prises à Washington.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
26.05.2025 à 13:11
Olivier Meier, Professeur des Universités, président de l'Observatoire ASAP, Université Paris-Est Créteil Val de Marne (UPEC)
Julien Fernando, Doctorant en sciences de gestion rattaché au laboratoire LIPHA, Université Paris-Est Créteil Val de Marne (UPEC)
La réussite, ou l’échec d’une fusion, est attribuée au travail fourni ex post par les équipes. Et si l’issue de ces opérations se décidait beaucoup plus tôt, dès la négociation entre les différentes parties, la phase finale n’étant que l’aboutissement de ce qui s’est déroulé en aval ?
Et si le concept « d’intégration post-fusion » contribuait aux échecs qu’il prétend résoudre ? Depuis près de vingt ans, ce concept s’est imposé comme une évidence chez les professionnels, consultants et chercheurs en fusions-acquisitions. Pourtant, il repose sur un postulat discutable : l’intégration ne commencerait qu’après la signature de l’accord, une fois la responsabilité juridique transférée à l’acquéreur.
Cette lecture technico-financière occulte une réalité fondamentale : les décisions prises en phase pré-fusion comme la tactique de négociation, la due diligence ou l’estimation des synergies, déterminent la manière d’intégrer les entités, comme nous l’avons montré.
En effet, le paradigme dominant invite à penser les projets de fusions-acquisitions comme deux phases indépendantes, avec une « pré-fusion » où l’on négocie le deal (approche stratégique et financière) et une « post-fusion » (logique culturelle et organisationnelle), où l’on intègre les équipes et les organisations. Or, de nombreuses recherches montrent qu’une partie du succès de l’intégration se joue avant l’annonce officielle du deal. Négliger cette continuité entre l’amont et l’aval de ces opérations induit des biais susceptibles de compromettre la concrétisation des synergies attendues.
Lors des négociations, de nombreux rapprochements d’envergure sont positionnés comme des fusions « entre égaux », sans qu’il y ait de réalité effective en phase d’intégration. Le principe d’égalité vise essentiellement à faciliter l’accord en rassurant les parties prenantes sur le futur équilibre des pouvoirs.
Cependant, durant l’intégration, une approche purement égalitaire s’accorde difficilement avec les décisions à prendre pour exploiter les synergies (nouvelle gouvernance, harmonisation du modèle opérationnel, maintien des systèmes d’information…). On assiste donc à un décalage entre les intentions affichées lors des négociations et la réalité concrète de l’opération.
À lire aussi : Fusions-acquisitions : comment combiner des savoir-faire complémentaires après un rachat ?
Le scepticisme à l’égard de cette « stratégie de négociation entre égaux » tient au fait que de nombreux rapprochements entre égaux se sont révélés des postures et ont dérivé vers des logiques de domination voire des divorces (par exemple, Technip-FMC ou Lafarge-Holcim. Ces exemples illustrent à quel point l’équilibre affiché lors des négociations peut rapidement céder la place à des rapports de force, compromettant ainsi la création de valeur attendue de la fusion.
Dans ce contexte, tout l’enjeu est de recourir à un principe de pragmatisme, en articulant les enjeux amont et aval du projet, afin d’assurer une intégration harmonieuse et porteuse de synergies réelles.
Pour formuler des recommandations pratiques, il convient ainsi de préciser les contraintes qui pèsent sur les responsables de projets de fusion. Dans un délai relativement court, l’entreprise doit sélectionner une cible, la valoriser, estimer les synergies potentielles, structurer l’offre, négocier et obtenir un accord. L’acquéreur se voit souvent contraint de s’entourer d’une multitude de spécialistes, dont l’intérêt prioritaire est d’aboutir à un accord (banquiers et avocats d’affaires, consultants en stratégie, etc.). Par ailleurs, les décideurs sont amenés à prioriser l’ingénierie financière et juridique (valorisation des actifs et des passifs, structuration de l’offre, business plan, retours sur investissement…) au détriment des problématiques humaines.
Cependant, les chiffrages utiles pour convaincre les dirigeants et actionnaires ne résonneront pas de la même manière chez les managers et salariés. Pour renforcer l’adhésion collective, il est essentiel de construire dès l’amont un discours fédérateur. Le projet doit être mis en avant comme une solution indispensable face à des menaces (situation financière, nouveaux entrants, nouvelles attentes des clients, etc.) ou des opportunités (rupture technologique, nouveaux besoins à satisfaire, etc.) Il est également indispensable de traduire l’intérêt du rapprochement pour les salariés. De ce fait, différents dispositifs devront être anticipés dès la phase pré-fusion, afin de rassurer les collaborateurs (garanties sociales, plan de rétention, mobilités…) et créer de vraies synergies une fois l’achat réalisé.
Abonnez-vous dès aujourd’hui !
Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).
Le deuxième risque majeur tient à la pression temporelle et concurrentielle. Les décideurs peuvent tomber dans le piège bien connu de « l’escalade de l’engagement » : plus les efforts investis dans le projet sont importants, plus il devient psychologiquement coûteux d’y renoncer, même lorsque des signaux d’alerte apparaissent. De plus, les difficultés potentielles d’intégration peuvent être volontairement minimisées par pragmatisme, notamment lorsque les cibles disponibles sont rares.
Pour éviter ce biais, l’implication des futurs acteurs de l’intégration dès la phase de due diligence s’avère judicieuse. D’ailleurs, ces audits autrefois centrés sur la conformité, sont de plus en plus orientés vers l’analyse des enjeux d’intégration (diagnostic culturel, test des modèles de synergies, scénarios organisationnels…) Dans ce domaine, les progrès liés à l’intelligence artificielle pourraient à terme permettre aux équipes de consacrer davantage de temps aux problématiques d’intégration.
Le troisième facteur est lié à l’asymétrie d’information entre les partenaires. Tout d’abord, le cadre réglementaire et les accords de confidentialité limitent considérablement l’accès à l’information. De plus, les négociations sont marquées par une forte incertitude sur la conclusion d’un accord. Tant que l’accord n’est pas sécurisé, ni l’acheteur ni le vendeur n’ont intérêt à ouvrir pleinement le débat sur l’intégration. Les vendeurs, en particulier, ont tout intérêt à restreindre la divulgation de données sensibles afin d’éviter toute exploitation ultérieure par acheteurs.
Pour fiabiliser les projections du business plan, il est crucial de le confronter au plus tôt avec les équipes de la cible. Les managers peuvent également apporter un regard critique sur les coûts cachés de l’intégration. De même, construire une relation de confiance dès les négociations s’avère essentiel pour limiter la rétention d’information. Le capital de confiance établi dès cette phase pourra être déterminant pour résoudre ultérieurement des questions épineuses comme l’harmonisation des offres, la convergence des systèmes d’information ou l’alignement des politiques RH.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
26.05.2025 à 13:11
Asma Houcine, Professeur associée en comptabilité-finance et qualifiée au grade maître de conférences, Excelia
Imen Derouiche, Research scientist, University of Luxembourg
C’est le résultat d’une étude menée entre 2006 et 2019 : intégrer plus de femmes dans les conseils, ce n’est pas seulement se conformer à la loi Copé-Zimmermann de 2011 ou à la directive européenne de 2024, c’est se donner les moyens de mieux répondre aux attentes des parties prenantes.
D’ici la fin de l’année, toutes les grandes entreprises cotées en Europe – plus de 250 salariés et réalisant un chiffre d’affaires de 50 millions d’euros – devront avoir 40 % des postes d’administrateurs non exécutifs occupés par des membres du sexe sous-représenté. Aujourd’hui en Europe, 35,6 % des administrateurs sont des femmes. Une mise en conformité respectée par la plupart des entreprises.
Notre recherche s’appuie sur un échantillon d’entreprises françaises cotées en bourse entre 2006 et 2019 comme Bouygues, Air France, Saint-Gobain, Carrefour, Michelin, Danone, ou LVMH. Elle vise à comprendre si la présence des femmes dans les conseils d’administration joue un rôle dans l’amélioration de la performance sociétale des entreprises. Cette dernière est mesurée à travers les critères « Environnement, social, gouvernance » (ESG). Ils englobent notamment les émissions de gaz à effet de serre, les conditions de travail, la parité, l’intégrité des pratiques commerciales ou encore les relations entretenues avec les communautés locales.
Pour renforcer la rigueur de notre analyse, nous avons intégré un facteur institutionnel important : la loi Copé-Zimmermann adoptée en 2011. Cette loi impose aux entreprises françaises cotées, ainsi qu’à celles de plus de 500 salariés et de plus de 50 millions d’euros de chiffre d’affaires, de porter la proportion de femmes dans leurs conseils d’administration à 40 % d’ici 2017. Ce changement législatif constitue un tournant dans la gouvernance des grandes entreprises françaises. Il offre une opportunité unique d’observer les effets concrets de la diversité imposée sur les performances non financières.
Avec quelle efficacité et quelle efficience ?
Nos résultats sont sans ambiguïté. Les entreprises dont les conseils d’administration sont plus diversifiés du point de vue du genre tendent à obtenir de meilleurs scores en matière de performance ESG. Elle augmente de 32,71 % pour chaque point supplémentaire de la proportion de femmes siégeant à un conseil d’administration. Ces entreprises sont de facto plus susceptibles d’adopter des politiques internes favorables aux salariés, de mettre en œuvre des démarches éthiques concrètes ou d’afficher davantage de transparence dans leur communication stratégique.
L’une des explications avancées repose sur l’apport de perspectives différentes. Les femmes administratrices, souvent issues de parcours professionnels variés, introduisent des points de vue complémentaires à ceux des hommes. L’apport : élargir les débats, enrichir les analyses et aboutir à des décisions plus équilibrées. Les femmes présenteraient des traits communaux plus marqués, tels que l’affection, la bienveillance et la sensibilité interpersonnelle. Elle contribuerait à une meilleure prise en compte des intérêts des différentes parties prenantes, selon le sociologue des organisations Edward Freeman.
Notre étude va plus loin en s’intéressant à un type spécifique d’entreprise : les entreprises familiales. Ces structures, constituant 71 % des PME et 73 % des ETI, présentent des caractéristiques particulières. Souvent contrôlées par une ou plusieurs familles fondatrices, elles sont très attentives à leur réputation sur le long terme. L’image qu’elles renvoient auprès des investisseurs, des clients ou des pouvoirs publics est perçue comme un capital essentiel à préserver.
À lire aussi : Les entreprises familiales, un modèle plus écologique ?
Dans ce contexte, la diversité de genre dans la gouvernance prend une dimension stratégique supplémentaire. La présence de femmes au sein des conseils d’administration agit comme un signal positif envers l’environnement externe. Elle montre que l’entreprise s’adapte aux évolutions sociétales, sociales et environnementales. Autrement dit, l’inclusion des femmes devient un vecteur de légitimité, au-delà de sa dimension interne.
Abonnez-vous dès aujourd’hui !
Chaque lundi, des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH, marketing, finance…).
Les entreprises familiales privilégient souvent les relations de long terme, orientée vers la pérennité et la transmission à la génération suivante, contrairement à certaines entreprises cotées, soumises à la pression des résultats immédiats. Elles mettent en avant des valeurs comme la loyauté, la transmission ou la responsabilité intergénérationnelle. Ces principes sont en phase avec les objectifs de la responsabilité sociétale des entreprises (RSE). La présence de femmes dans les instances dirigeantes permet de renforcer cet alignement entre les valeurs proclamées et les décisions stratégiques prises au quotidien.
Notre étude souligne un autre point important : la simple nomination d’une ou deux femmes ne suffit pas à transformer en profondeur les pratiques de gouvernance. Pour que la diversité de genre produise des effets tangibles, il faut atteindre ce que les spécialistes appellent une masse critique. Concrètement, cela signifie qu’il faut dépasser un seuil souvent estimé autour de 30 % pour que les femmes puissent réellement peser dans les délibérations et influencer les orientations de l’entreprise.
En dessous de ce seuil, leur présence risque de rester symbolique, sans impact réel sur les décisions. Selon Refinitiv, les femmes dans les conseils d’administration des entreprises du CAC All-tradable ne représentent que 10,23 % des membres. Cette notion de masse critique rappelle que la diversité ne se décrète pas. Elle se construit dans la durée, par des politiques volontaristes et des changements profonds de culture organisationnelle. Elle implique aussi de créer un environnement où les voix minoritaires peuvent s’exprimer librement, sans crainte de marginalisation.
Cette étude peut éclairer les entreprises et les décideurs publics. Pour les premières, elles soulignent que la parité dans les instances dirigeantes ne relève pas uniquement de l’éthique ou de l’image. Elle constitue un véritable levier stratégique pour améliorer la performance globale de l’entreprise, y compris sur les dimensions non financières. Pour les pouvoirs publics, ces résultats viennent appuyer la légitimité des quotas de genre, régulièrement débattus dans l’espace public.
En définitive, notre recherche met en évidence un point central : la diversité de genre ne relève pas uniquement d’une exigence morale ou politique. Elle s’inscrit pleinement dans les logiques de performance et de création de valeur, notamment dans les entreprises familiales, où les liens entre gouvernance et réputation sont particulièrement forts. En favorisant une meilleure représentativité dans les conseils d’administration, les entreprises peuvent non seulement mieux anticiper les enjeux sociétaux, mais aussi renforcer leur résilience et leur impact positif sur la société.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
26.05.2025 à 13:11
Gregorio Fuschillo, Professeur Associé de marketing, Kedge Business School
Luigi Cantone, Professeur à l'Université, University of Naples Federico II
Teresa Marrone, Chercheuse en économie et en gestion , University of Naples Federico II
Certaines marques mettent en avant le territoire dont elles sont issues pour développer leur image. C’est le cas de la marque Garofalo inséparable de la région de Gragnano en Italie. Comment répliquer un tel succès pour d’autres produits issus d’autres régions ?
Lorsqu’on parle de vins de Bordeaux, on ne se réfère pas seulement à la région, mais aussi à des produits qui incarnent le lieu et en deviennent les symboles. De même, si Dom Pérignon est une marque emblématique de champagne, son succès est-il dû à la seule qualité du vin ou à la réputation de la région qui le produit ? Ainsi, l’intrication entre produit, région et marque est telle qu’une question se pose : qui, de la région ou du produit, doit son prestige à l’autre ? Une interrogation qui n’est pas sans rappeler la fameuse question de la poule et de l’œuf.
Les stratégies de place branding (ou marketing territorial) s’appuient sur des labels comme l’appellation d’origine protégée (AOP) pour renforcer l’influence des régions ou des territoires dans la valorisation de leurs produits et de leurs marques. On peut définir les place brands comme ceux qui proviennent d’un territoire ou d’une région spécifique, tissant historiquement des liens naturels et culturels avec celui-ci et gagnant une signification culturelle au fil du temps. Ces liens naturels et culturels avec le lieu, lui conférant une importance symbolique et identitaire accrue.
Par exemple, le lieu joue un rôle essentiel dans l’attribution d’un statut iconique à des produits comme les fromages du Vermont, le whisky écossais ou le sirop d’érable du Québec. Le place brand est le fruit d’un effort collectif impliquant producteurs, cultivateurs, fournisseurs et institutions.
À lire aussi : Le restaurant Régis et Jacques Marcon : une stratégie trois étoiles pour son territoire
Les régions et territoires peuvent devenir des vecteurs puissants de significations et de valeurs culturelles pour les consommateurs. Ils racontent des histoires qui renforcent l’ancrage des marques dans un lieu donné et participent à leur succès.
Ainsi, alors que les marques régionales reposent avant tout sur le savoir-faire humain plutôt que sur le lien étroit entre lieu physique et matières premières, les marques territoriales (comme le champagne) dépendent intrinsèquement à la fois de leur environnement naturel et culturel.
Notre étude porte sur le rôle des régions dans la relation entre la marque régionale (place brand), la marque locale (celle de l’entreprise locale) et le produit iconique. Pour mieux comprendre cette dynamique, nous avons analysé le cas particulier des pâtes : un produit devenu une icône, reconnu à l’échelle mondiale mais profondément enraciné dans la culture et l’identité locale.
Abonnez-vous dès aujourd’hui !
Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).
Gragnano est une petite ville près de Naples. La tradition meunière y remonte à l’époque romaine, lorsque les moulins à eau fournissaient de la farine aux villes voisines telles que Pompéi, Herculanum et Stabies. Depuis lors, la meunerie a joué un rôle essentiel dans la culture locale, jetant ainsi les bases de la production de pâtes sèches. Dès le XVIe siècle, la fabrication des pâtes était déjà une tradition bien établie à Gragnano.
À la fin du XIXe siècle, pendant une période de migration italienne, l’industrie des pâtes de Gragnano était en plein essor. Des paquets de pâtes traversaient l’océan aux côtés des légions de migrants italiens, atteignant les coins les plus reculés du monde. Cependant, Gragnano connut un déclin important à la suite des deux guerres mondiales. Pendant la période de reconstruction d’après-guerre, les marques de pâtes basées dans le centre de l’Italie, comme Barilla et DeCecco, prirent de l’ampleur et s’imposèrent comme des leaders en Italie, puis dans le monde, à une époque où la production industrielle et la consommation de masse étaient en plein essor.
Dans les années 1990, avec la montée du « mouvement slow food » et un regain d’intérêt pour les terroirs et les régions locales, Gragnano connut une renaissance en tant que lieu emblématique de production des pâtes. En 2003, les principaux fabricants de pâtes de la ville, dont Garofalo, créèrent le Consortium de Gragnano-« Cité des Pâtes ». Ce consortium joua un rôle clé dans l’obtention de l’indication géographique protégée (IGP) pour Gragnano et dans la consécration de son statut de cité des pâtes. À ce jour, Gragnano est la seule région productrice de pâtes à détenir le label IGP.
Notre étude sur la région de Gragnano et la marque Garofalo montre que, d’un point de vue stratégique, le territoire constitue une ressource clé pour le branding culturel. Il porte des traditions, des récits et des mythes dont les marques peuvent s’inspirer pour devenir iconiques.
Trois axes stratégiques se dégagent :
Le territoire comme catalyseur d’iconisation. Loin d’être une contrainte, le territoire peut favoriser l’émergence de marques iconiques. Il fonctionne comme un réservoir culturel, structurant des significations collectives qui évoluent au sein de la société et accompagnent son changement. En s’alignant sur ces valeurs, une marque renforce son ancrage et contribue, à son tour, à la construction de l’identité du territoire.
Un rempart contre la dés-iconisation. Dans un contexte de globalisation, les marques engagées dans une compétition sur les valeurs culturelles peuvent risquer de perdre leur statut d’icône face à une concurrence aguerrie. En mettant en avant l’héritage local plutôt que des valeurs nationales, elles peuvent se positionner de manière différenciée tout en évitant la concurrence avec les grands groupes internationaux.
Un levier de connexion identitaire. Dans un monde en quête d’authenticité, le territoire devient un ancrage culturel puissant, offrant aux consommateurs une stabilité identitaire. Il ne concerne pas seulement les marques alimentaires, mais toutes celles misant sur l’unicité culturelle et l’authenticité.
En somme, le territoire ne se limite pas à un cadre géographique : il est un vecteur de sens, un outil marketing puissant qui, bien exploité, peut transformer une marque, fût-elle petite dans un marché de géants, en véritable icône culturelle.
Cet article a été écrit en collaboration avec Emidio Mansi, directeur commercial de Pastificio Lucio Garofalo S.p.A.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
26.05.2025 à 13:10
Eric Séverin, Professeur des Universités Finance - Comptabilité, Université de Lille
David Veganzones, Associate professor, ESCE International Business School
Les entreprises zombies sont un danger pour l’économie, car elles mobilisent des ressources qui pourraient être mieux utilisées ailleurs. Comment perfectionner leur identification pour agir plus efficacement ?
Les entreprises zombies, ces sociétés non rentables qui survivent uniquement grâce à des financements prolongés, constituent un défi majeur pour l’économie. Leur présence entrave l’innovation, ralentit la croissance et fausse l’allocation des ressources financières. Pourtant, elles ne forment pas un ensemble homogène et leurs trajectoires financières suivent souvent des schémas complexes.
Dans une étude récente, nous avons proposé une approche innovante pour affiner leur identification et mieux comprendre leur évolution. En s’appuyant sur l’intelligence artificielle (IA) et les méthodes de machine learning, ce travail vise à anticiper la zombification des entreprises et à fournir aux décideurs économiques des outils permettant d’en limiter l’impact.
À lire aussi : Entreprises zombies : de l’urgence de les chasser pour renforcer nos économies
L’analyse repose sur une combinaison de techniques d’apprentissage automatique, en particulier les cartes auto-organisatrices (Self-Organizing Maps, SOM) et les machines à vecteurs de support (Support Vector Machines, SVM).
Les SOM sont utilisés pour visualiser la structure financière des entreprises sur plusieurs années, mettant ainsi en évidence des tendances et des schémas de détérioration qui échappent aux analyses traditionnelles. Cette modélisation permet de regrouper les entreprises selon des similarités financières et d’identifier celles qui présentent des signes inquiétants de difficulté.
Les SVM interviennent ensuite pour affiner la classification et améliorer la capacité prédictive du modèle. En exploitant une grande quantité de données financières, cet algorithme permet de distinguer plus précisément les entreprises viables de celles en voie de zombification. L’approche combinée SOM-SVM offre ainsi une analyse plus fine et plus performante que les modèles classiques, en intégrant des dynamiques financières souvent complexes et non linéaires.
Notre étude met en lumière une typologie des entreprises zombies qui permet d’enrichir la compréhension de ce phénomène. Toutes ne se ressemblent pas et leur état de détérioration varie.
Certaines, qualifiées de « zombies extrêmes », accumulent des dettes considérables et ne génèrent plus aucun bénéfice, les condamnant à une faillite quasi inévitable. D’autres, les « zombies stagnantes », conservent une certaine solvabilité grâce à des actifs encore exploitables, mais leur rentabilité est si faible qu’elles ne peuvent ni investir ni innover. Enfin, les « zombies émergentes » constituent une dernière catégorie : ces entreprises montrent encore des signes de viabilité, mais leur situation financière se dégrade progressivement, les plaçant à la frontière de la zombification.
Abonnez-vous dès aujourd’hui !
Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).
L’étude démontre également que la zombification est un processus progressif plutôt qu’un état figé. Dans la plupart des cas, les premières alertes apparaissent avec une baisse de rentabilité et des tensions croissantes sur la trésorerie.
Pour dépasser ces difficultés, l’entreprise commence à s’endetter de manière excessive, souvent en recourant à des financements externes. Si cette phase se prolonge sans amélioration de la rentabilité, elle perd peu à peu en compétitivité et devient totalement dépendante des aides publiques ou bancaires. À terme, elle entre dans une spirale où elle ne survit plus que par des soutiens artificiels, sans réelle capacité de redressement. Cette trajectoire met en évidence la nécessité d’une détection précoce, afin d’intervenir avant que l’entreprise ne bascule dans un état irréversible.
L’un des principaux apports de cette étude réside dans le développement d’un modèle prédictif à même d’anticiper quelles entreprises risquent de devenir zombies. Si la transition vers cet état reste difficile à prévoir avec une précision absolue, certains signaux financiers se révèlent particulièrement pertinents pour alerter les analystes et les décideurs. Parmi eux, on retrouve notamment une rentabilité en déclin constant pendant plusieurs années, un endettement croissant qui n’est pas compensé par une amélioration des revenus, ainsi qu’une dépendance excessive aux financements externes.
L’approche SOM-SVM capture ces tendances avec une meilleure précision que les modèles traditionnels, en mettant en évidence des schémas de détérioration financière souvent invisibles dans une analyse purement comptable.
Cette étude apporte une contribution essentielle à la compréhension et à la gestion des entreprises zombies. En proposant une approche innovante, combinant intelligence artificielle et analyse financière, elle offre un outil pour identifier ces entreprises et anticiper leur trajectoire. La mise en évidence de différents types de zombies et de schémas de zombification progressive souligne la nécessité d’une approche différenciée : certaines entreprises peuvent être restructurées, tandis que d’autres doivent être liquidées pour éviter un gaspillage de ressources.
En intégrant des outils de prédiction avancés, cette recherche offre aux investisseurs, aux banques et aux décideurs publics une aide précieuse pour ajuster leurs décisions et limiter l’impact des entreprises zombies sur l’économie.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
26.05.2025 à 13:10
Jérôme Coullaré, Doctorant en sciences de gestion, laboratoire IAE Paris Sorbonne, Université Paris 1 Panthéon-Sorbonne
La pérennité des dispositifs « Diversité, équité et inclusion » (DEI) dans chaque entreprise repose sur leur capacité à transcender deux écueils : le diversity-bashing, renforcé par l’élection de Donald Trump, et le diversity-washing caractérisé par des dispositifs organisationnels plus soucieux d’apparence que de transformation substantielle. C’est dans cet espace étroit, entre instrumentalisation cynique et rejet idéologique, que se joue l’avenir de la diversité en entreprise.
Le géant allemand de logiciels SAP annonce supprimer certains de ses objectifs en matière de diversité et d’inclusion, afin de se conformer à l’administration Trump. En France, la ministre du travail Astrid Panosyan-Bouvet estime que ce sont « des valeurs non négociables ». Ces politiques de diversité, d’équité et d’inclusion (DEI) dans les grandes entreprises traversent une période charnière.
Alors qu’aux États-Unis l’administration Trump met fin aux initiatives DEI dans les agences fédérales et dans de grandes entreprises privées américaines, la situation en France s’est complexifiée.
Malgré les déclarations rassurantes de grandes entreprises face aux sollicitations de l’ambassade américaine les sommant de certifier l’absence de programmes DEI, des signaux inquiétants se confirment.
La lutte contre les discriminations, pourtant inscrite dans le droit positif français, continue de se dégrader. Le défenseur des droits français met en lumière la hausse des non-recours, signes d’un « renoncement extrêmement préoccupant ». Le climat international semble décomplexer certains dirigeants d’entreprises. Ils adoptent des positions plus ambivalentes sur la diversité, réduisant discrètement leurs initiatives DEI sous prétexte de prétendues pressions externes. En réalité, les entreprises françaises semblent moins menacées par des pressions économiques directes venues des États-Unis que par un revirement idéologique fondamental. Après une quinzaine d’années de conformité apparente aux principes DEI, certains dirigeants paraissent enclins à exprimer ouvertement des positions critiques à l’égard de ces politiques.
Ces dispositifs DEI déployés en France possèdent-ils la solidité structurelle nécessaire pour résister à un revirement idéologique d’envergure ? Plusieurs travaux récents en sciences de gestion révèlent des fragilités systémiques préoccupantes que l’on peut regrouper sous trois pratiques.
Ces politiques DEI concernent principalement les entreprises de plus de 250 salariés, car ces dernières sont directement visées par la Corporate Sustainability Reporting Directive (CSRD). Cette directrice européenne impose, entre autres, des obligations en matière de durabilité sociale à intégrer dans la stratégie de l’entreprise et ses documents comptables. C’est en particulier le cas de la norme sociale ESRS S1. Elle exige que la diversité soit le nouveau prisme d’analyse au travers duquel les indicateurs sociaux doivent être analysés. La directive Omnibus remet en cause les mécanismes de mesure, de contrôle et de sanction civile. En particulier, elle compromet le concept de matérialité d’impact, un instrument essentiel qui permettait d’intégrer visiblement les enjeux de diversité tant dans la stratégie que dans les documents comptables de l’entreprise.
Abonnez-vous dès aujourd’hui !
Chaque lundi, des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH, marketing, finance…).
Les dispositifs DEI en France souffrent d’une fragilité structurelle, en partie liée à des pratiques qui contournent ou manipulent les exigences légales. L’égalité homme-femme et la mesure des personnels en situation de handicap (OETH) illustrent ces pratiques.
Concernant l’égalité femmes-hommes, la loi Rixain de 2021 impose un pourcentage minimal de représentation féminine dans les instances dirigeantes et les réseaux de management. L’imprécision relative à la définition de ces réseaux offre aux entreprises une marge d’interprétation qu’elles exploitent stratégiquement. Elles ciblent des strates hiérarchiques où les objectifs quantitatifs sont plus aisément atteignables, sans transformer véritablement les structures de pouvoir.
À lire aussi : Comment lutter pour la diversité en entreprise à l’ère du trumpisme ?
Dans le second cas, pour satisfaire à l’obligation des 6 % de personnels en situation de handicap, certaines entreprises privilégient des campagnes internes incitant les salariés en poste à déclarer des handicaps légers. Autre subterfuge : le dénombrement d’alternants en situation de handicap, qui ne restent généralement pas dans l’entreprise, plutôt que de recruter des personnes en situation de handicap.
Ces stratégies d’adaptation permettent aux organisations d’afficher une conformité formelle aux exigences légales, tout en préservant les structures de pouvoir préexistantes. Elles vident de facto les dispositifs légaux de leur potentiel transformateur.
Les dispositifs de diversité peinent à pénétrer durablement les stratégies de ressources humaines. Ils restent au niveau de logiques purement communicationnelles. Les entreprises s’appuient sur des mécanismes de preuves chiffrées pour asseoir toute politique de gestion des ressources humaines. Leur problème majeur réside dans l’inconstance et l’inconsistance avec lesquelles de grandes entreprises définissent puis mesurent la diversité.
L’inconstance porte sur le flou qui entoure la définition même de diversité. Une étude entre 2002 et 2022 a montré comment de grandes entreprises du CAC 40 font l’amalgame entre lutte contre les discriminations, inclusion, sentiment d’appartenance, équité ou satisfaction au travail. Si ces approximations font le jeu des objectifs de communication, elles ne permettent pas à l’entreprise d’intégrer les politiques de diversité dans leur stratégie long terme.
L’inconsistance, elle, porte sur les méthodes de mesure de la diversité. Deux courants s’opposent radicalement. Le premier considère que la diversité est une perception individuelle « pour soi et par soi » selon les travaux de Cox. Le second considère que la diversité est une perception qui s’appréhende au niveau agrégé d’un groupe, selon la formule « la perception commune de la façon dont les choses se passent ici ».
Dans le rapport du Comité pour la mesure et l’évaluation de la diversité et des discriminations (Comedd), le sociologue et démographe François Héran ajoute à cette ambiguïté majeure, celles des modes de collecte. Le tableau ci-dessus fait la différence entre auto-perception, hétéro-perception, auto-hétéro-perception et classification. François Héran montre que ces différentes méthodes ne conduisent pas nécessairement à des mesures cohérentes. Par exemple, une personne peut ressentir un fort sentiment d’appartenance à un groupe minoritaire – auto-perception –, sans que cela ne soit reflété dans la manière dont elle est perçue par son manager – hétéro-perception – ou dans les statistiques agrégées de l’entreprise, basées sur des critères administratifs – classification.
En compromettant toute tentative de mesure rigoureuse, ces inconsistances conceptuelles, méthodologiques et pratiques finissent par discréditer les baromètres, les sondages et les enquêtes mises en avant par les entreprises. Elles érodent la confiance que salariés et parties prenantes accordaient initialement à ces mécanismes d’évaluation.
Il serait illusoire de considérer que les entreprises françaises demeurent imperméables aux courants idéologiques défavorables qui traversent actuellement l’Atlantique. Comme le souligne la sociologue Laure Bereni, leurs pratiques relèvent parfois d’un « management de la vertu », privilégiant l’image au détriment d’un engagement sincère à l’égard de la diversité.
Dans ces dispositifs, l’égalité homme-femme apparaît néanmoins comme la plus robuste en France. Cette catégorie est singulière à plusieurs égards. Les femmes ne constituent pas une minorité démographique. Les lois françaises, de la révision constitutionnelle de 1999 à la loi Rixain de 2021, ont solidement ancré cette égalité dans le droit, en la distinguant des autres dimensions de la diversité. Malgré ces avancées, les résultats restent mitigés, car ces lois ne garantissent pas une transformation profonde des pratiques managériales.
Prévenir l’effondrement des politiques DEI exige désormais une triple transformation :
un renforcement radical de l’authenticité des engagements organisationnels ;
une refonte méthodologique garantissant la rigueur scientifique des mesures déployées ;
l’ancrage d’une véritable éthique de conviction au sommet des hiérarchies décisionnelles.
Sans ces transformations profondes, les dispositifs actuels demeureront vulnérables tant aux attaques idéologiques externes qu’à l’érosion interne de leur crédibilité.
Jérôme Coullaré ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
26.05.2025 à 12:38
Antoine de Seigneurens, Chef de rubrique Économie + Entreprise, The Conversation
Christophe Bys, Chef de rubrique Economie+Entreprise
Pour recevoir le quiz chaque semaine dans votre boîte mail, abonnez-vous à notre newsletter hebdomadaire Entreprise(s).
Chaque lundi, des informations utiles pour votre carrière et tout ce qui concerne la vie de l'entreprise (stratégie, RH marketing, finance…)
Avant de jouer, prenez quelques minutes pour lire l‘article L’économie peut vous dire qui devrait gagner Roland Garros…
3, 2, 1, à vous de jouer c'est parti !
25.05.2025 à 11:36
Luca Pedruzzi, Doctorant en éthologie, Université de Rennes 1 - Université de Rennes
Alban Lemasson, Professeur à l'université de Rennes 1, directeur du laboratoire d'éthologie animale et humaine (EthoS), Université de Rennes 1 - Université de Rennes
Lorsque nous nous disputons, nous évitons généralement de nous quitter fâchés. Par un geste ou par une parole, nous cherchons à nous réconcilier ou à nous consoler. Les travaux en éthologie (étude du comportement animal), montrent que ce n’est pas le propre de l’humain. Les singes géladas sauvages (Theropithecus gelada), endémiques des hauts plateaux éthiopiens, que nous avons étudiés, sont sensibles aux signes vocaux de réconfort exprimés après des disputes entre congénères, même lorsque l’interaction ne les implique pas directement.
Notre étude, qui vient d’être publiée dans le journal scientifique PLOS One, révèle que les singes géladas sauvages (Theropithecus gelada) des hauts plateaux d’Éthiopie sont sensibles aux signes vocaux de réconfort, même lorsqu’ils ne sont pas directement impliqués dans l’interaction.
L’empathie est une sensibilité sociale qui fait appel à une caractéristique importante chez l’humain : la prosocialité, à savoir l’ensemble de nos actes volontaires dirigés vers autrui dans une logique d’entraide et dans le but de lui apporter du bien-être physique ou psychologique. Pour les éthologistes, la prosocialité existe chez des espèces non humaines formant des sociétés particulièrement tolérantes, notamment les primates et les corvidés. Par exemple, on parle de prosocialité lorsqu’un chimpanzé enlace une victime d’agression pour la consoler ou lorsque des corbeaux coopèrent de manière altruiste pour élever les jeunes ou encore partagent un repas.
Cependant, à ce jour, aucune étude ne s’était encore intéressée à la capacité de ces animaux à détecter un comportement prosocial encodé dans des signaux vocaux.
Les géladas vivent exclusivement en Éthiopie, entre 2 000 et 4 500 mètres d’altitude. Ces singes, d’une quinzaine de kilos, au physique très reconnaissable avec leur longue crinière et leur torse rouge, se distinguent par leur organisation sociale exceptionnellement complexe : leur unité sociale de base est composée d’un mâle reproducteur, de plusieurs femelles et de leurs petits. Ces unités familiales se rassemblent en groupes plus larges, formant des structures sociales multiniveaux, un peu comme des petits « villages sociaux ». Dans une société aussi complexe, la communication est essentielle pour maintenir la cohésion du groupe. Il n’est donc pas surprenant que les géladas possèdent un répertoire communicatif exceptionnellement riche, bien plus complexe que celui d’espèces étroitement apparentées comme les babouins. Leur communication inclut une grande variété de vocalisations, d’expressions faciales et de signaux corporels.
Notre projet s’est concentré sur la dynamique des conflits et de la réconciliation. Les agressions, qui se résument souvent à des poursuites et des bousculades, sont inévitables dans la vie sociale, mais menacent la stabilité du groupe. Comprendre comment les géladas gèrent et résolvent les conflits, et la fonction que joue la communication dans ce processus est essentiel. Le rôle du mâle, étant donné sa position centrale dans la dynamique sociale, nous a tout particulièrement intéressés.
Pendant six mois, dans les hauts plateaux éthiopiens, nous avons suivi plusieurs groupes de géladas sauvages afin, notamment, d’enregistrer toute une batterie de cris de détresse de femelles victimes d’agression et deux différents types de cris affiliatifs de mâles qui ont ensuite été utilisés pour réaliser une expérience de repasse par haut-parleur sur le terrain. Ces cris sont des vocalisations typiquement émises dans un contexte d’interaction sociale positive et qui joueraient un rôle dans la création, le maintien et la consolidation des liens sociaux entre individus.
Lors de ces expériences, nous avons fait écouter à des mâles adultes des séquences vocales simulant une interaction sociale entre deux congénères non familiers. Les séquences vocales étaient composées de cris de détresse de femelles, précédés ou suivis par des cris affiliatifs de mâles plus ou moins acoustiquement chargés en émotion positive. Tous les sujets ont donc perçu exactement la même quantité d’informations acoustiques, mais l’ordre de ces informations suggérait la présence ou l’absence de réconfort vocal d’un mâle envers une femelle victime d’agression.
L’environnement afro-alpin éthiopien où vivent les géladas est rude, avec une haute altitude, un relief escarpé et des conditions météorologiques fluctuantes. Mais une fois là-haut, au milieu des animaux, le spectacle est époustouflant et les efforts en valent la peine.
Réaliser des expériences de repasse en milieu naturel présente un certain nombre de défis importants. Les signaux doivent être crédibles et la situation plausible ! Il est donc primordial que les singes ne réalisent pas que les stimuli vocaux sont diffusés de manière artificielle, sinon, leurs comportements ne refléteraient pas une réaction naturelle. Cela nécessite une organisation rigoureuse : préparer les sons pour ajuster leur intensité, les diffuser au bon moment, cacher et ajuster la position du haut-parleur, etc. D’autres critères, de précautions méthodologiques classiques, sont pris en compte : éviter la pseudo-réplication (en utilisant des cris différents) lors de la composition des séquences, randomiser l’ordre des conditions et sélectionner les sujets à partir de critères stricts afin d’éviter tout biais. L’enregistrement vidéo permet d’avoir des résultats fiables et reproductibles. L’avantage de faire tout cela sur le terrain est de recueillir des données écologiquement valides, qui reflètent véritablement comment les géladas perçoivent et réagissent aux signaux vocaux sociaux dans la nature.
Une fois ces expériences réalisées, nous avons mesuré les réponses comportementales des sujets : durée du regard vers le haut-parleur, interruptions de l’activité d’alimentation, comportements de grattage – typiquement marqueurs d’attention, surprise et anxiété chez les primates.
Les géladas ont montré un intérêt accru (plus d’interruptions d’activité alimentaire et plus d’attention portée en direction du haut-parleur) lorsque l’ordre de succession des vocalisations violait les attentes sociales, à savoir lorsque les vocalisations affiliatives du mâle précédaient les cris de détresse des femelles. Cette sensibilité à la présence ou non de réconfort a également été associée à une plus grande attention portée aux séquences composées des cris très chargés en émotion positive.
Le cri de détresse d’une femelle est suivi par une vocalisation affiliative du mâle (moans) – une série de gémissements chargés émotionnellement.
Les résultats de notre étude montrent que les géladas ne se contentent pas de tendre l’oreille avec curiosité pour écouter ce qui se passe chez les autres, mais qu’ils comprennent les enjeux des interactions sociales ne les impliquant pas, qu’ils font la différence entre un conflit non résolu et une réconciliation et qu’ils s’attendent à ce que les confits soient associés à des signaux vocaux prosociaux.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Notre étude expérimentale originale, réalisée dans des conditions naturelles, contribue aux connaissances sur l’émergence évolutive de l’empathie et au fait que cette compétence sociocognitive complexe n’est définitivement pas l’apanage des humains.
Elle apporte un éclairage précieux sur les origines évolutives de l’empathie et du comportement prosocial. Elle montre que la communication vocale chez nos cousins primates n’est pas seulement une expression d’émotions, mais un outil fonctionnel permettant de réguler les relations sociales. La capacité à écouter les interactions entre tiers et de réagir en conséquence reflète une forme de cognition sociale fondamentale au cœur du fonctionnement des sociétés complexes.
Cela suggère que les capacités d’empathie et les signaux vocaux prosociaux ont probablement des racines évolutives profondes, antérieures à l’émergence de l’humain.
Les géladas nous rappellent que l’empathie et la compréhension sociale ne requièrent pas la maîtrise des mots, mais peuvent être enracinées dans une écoute attentive et des échanges vocaux significatifs. L’étude de ces primates nous permet d’entrevoir les voies évolutives qui ont façonné notre propre cerveau social, révélant que les capacités d’écouter, de comprendre et de consoler font depuis longtemps partie intégrante de la vie sociale des primates.
Ce projet a été rendu possible grâce au projet Geladas For Cooperation (Université de Pise) et à la collaboration entre l’Université de Pise, l’Université de Rennes et l’Université d’Addis-Abeba. J’ai mené cette recherche en tant que doctorant en cotutelle entre la France et l’Italie. L’équipe était composées de deux autres doctorantes, Martina Francesconi et Alice Galotti, et des professeurs Elisabetta Palagi (laboratoire d’ethologie) et Alban Lemasson (laboratoire d’éthologie animale et humaine), spécialistes de la communication et de la cognition chez les primates. Nous avons aussi bénéficié du soutien précieux de la professeure Bezawork Afework, directrice du département des sciences zoologiques à Addis-Abeba.
Alban Lemasson ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
25.05.2025 à 11:34
Valerian Benazeth, politiste, Université de Versailles Saint-Quentin-en-Yvelines (UVSQ) – Université Paris-Saclay
La loi narcotrafic, adoptée le 29 avril 2025 par l’Assemblée nationale, est essentiellement répressive. Pourtant, les recherches sur les parcours de sortie de la criminalité montrent que la répression ne peut constituer l’unique approche. Des passerelles permettant de bifurquer vers le mode de vie légal – on parle de « désistance » – sont indispensables pour éviter la récidive.
La « loi pour sortir la France du piège du narcotrafic » est essentiellement constituée de mesures répressives inspirées de la lutte contre le terrorisme : création d’un service de police « chef de file » contre la criminalité organisée ; d’un parquet national anticriminalité ; augmentation de la surveillance et des saisie pour les biens acquis illégalement ; secret sur les techniques d’enquête… En revanche, les mesures pour favoriser la sortie de la criminalité ne sont envisagées qu’à la marge. Or, les études sur le processus de « désistance » (processus d’abandon du mode de vie criminel) s’inscrivent à rebours de la stratégie politique choisie par le gouvernement. Ces travaux soulignent qu’il est nécessaire de trouver des passerelles pour compenser la perte financière, le statut, mais aussi la « marque pénale » associées à l’activité criminelle en vue d’une réinsertion durable.
Dans le cadre de ma recherche en région parisienne, de 2014 à 2018, j’ai enquêté auprès de 33 personnes ayant abandonné la criminalité. Ces personnes, anciennement impliquées dans la délinquance de rue (vol, violence, consommation et vente de substances addictives illégales…) m’ont permis d’étudier les changements de mode de vie dans leurs parcours.
La mise en couple, le fait de trouver un emploi légal, de devenir parent ou de déménager, sont des éléments de changement qui s’avèrent déterminants.
Sidi (les prénoms ont été anonymisés), 23 ans :
« Le fait d’être papa […] ça me fait beaucoup réfléchir, parce qu’avant, je ne pensais qu’à ma gueule […] donc je me dis si je fais une connerie, c’est pas moi qui paie, c’est ma petite amie et ma fille qui paient […] maintenant, ce que je veux, c’est avoir une bonne vie, travailler… »
La responsabilité d’une condamnation pénale devient collective, elle touche toute une famille, le couple et les éventuels enfants. Elle se répercutera aussi sur la possibilité de trouver un emploi sur le marché légal. Or, un autre pilier des changements de parcours consiste à occuper un emploi dans lequel on se voit faire carrière, s’épanouir et structurer une routine quotidienne.
Hamid, 31 ans :
« Ce qui aide beaucoup, c’est le travail. Déjà, d’une, pour la rémunération, on travaille tous pour de l’argent et, de deux, c’est l’occupation, on s’occupe la journée, on rentre le soir, on sait qu’on doit se lever tôt, on est fatigué… »
Ces personnes ont témoigné, dans leur immense majorité, du poids de la « seconde peine » désignant le rejet social produit par une condamnation. De fait, il est très difficile de se réinsérer sur le marché du travail légal à court terme, quand bien même existent des compétences professionnelles.
Serge qui vit désormais en dehors de la délinquance a mis des années à se refaire une place :
« Une deuxième peau, la prison c’est, je vais toujours vivre avec […] elle est là, on ne l’enlève plus, j’ai un parcours… »
Cela est d’autant plus vrai si le parcours dans le mode de vie criminel a commencé jeune, avec une personne rapidement disqualifiée du système scolaire et du marché du travail conventionnel.
Lorsque les parcours sont encore liés à la délinquance, il faut insister sur le rôle de personnes-ressources, évoluant dans un autre milieu social, qui permettent d’essayer autre chose et ailleurs, pour s’épanouir dans un mode de vie différent.
Garance, l’exprime ainsi :
« Pour s’en sortir, il faut le vouloir premièrement, faut se faire aider, même si on est quelqu’un qui a toujours fait les choses tout seul, il faut accepter de se faire engrainer dans le bon sens en fait. »
Reste que les principaux intermédiaires institutionnels qui permettent ces rencontres – les conseillers pénitentiaire d’insertion et de probation (CPIP), sont submergés de travail. Le Conseil de l’Europe recommande de 30 à 60 personnes suivies par agent, or, chaque agent gère encore trop de dossiers en France (70 en moyenne mais avec de grandes disparités selon les territoires). Les associations de réinsertion, cruciales pour aider à retrouver un logement, une formation ou un employeur, [peinent également à maintenir leur budget et leur action].
Un rapport de la mission interministérielle de lutte contre les drogues et les conduites addictives (Mildeca) présente plusieurs approches qui mériteraient d’être généralisées.
Le rapport prend en exemple les villes de Sarcelles ou de Loos, commune proche de la métropole lilloise, qui ont créé des podcasts visant à déconstruire les images de réussites parfois associées aux trafics. Il s’agit d’insister sur les risques liés à la criminalité – peines de prison, marginalisation, anxiété constante, insécurité physique.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
C’est ce que décrit Garance, 22 ans :
« Non parce que ça, c’est le cliché, comme on dit l’argent facile, parce que de trouver des clients déjà, c’est un problème […] tu sais que tu ne dors pas bien parce qu’à tout moment tu sais que tu peux te faire attraper […] Après ça, il y a les embrouilles avec les clients… »
Déconstruire le « culte de l’argent », souvent adopté dès un très jeune âge dans certains milieux défavorisés est, sans conteste, un enjeu essentiel, et souvent négligé. Les productions culturelles comme des séries sur des tueurs célèbres fictifs ou réels (Dexter, Dhammer, Ted Bundy) qui esthétisent le meurtre et la violence, au cinéma (le Parrain, Scarface, Heat) jusqu’aux jeux vidéos comme Grand Thief Auto, qui romantisent la carrière criminelle, mériteraient d’être questionnés.
L’autre politique promue par les villes de Sarcelles et de Loos consiste à mettre en lumière des parcours de réussite locale. Des rencontres avec des élèves de première, soutenues par l’association Graines de France ont été organisées avec des sportifs, des agents de l’État, des dirigeants d’entreprises issus des mêmes quartiers qui incarnent cette réussite. À Loos, l’association L59760 a réuni des danseurs de break et de hip-hop ayant fait carrière dans la police, l’armée, la santé ou l’éducation.
Avec le programme « Et toi, en 2024 ? » il s’agissait de mobiliser les habitants autour de valeurs d’efforts et de persévérance opposées à celles de l’argent facile.
Harif commente :
« Si vous saviez le nombre de petits jeunes que j’aimerais voir rester à l’école, parce que qui est le plus heureux ? C’est le mec qui a fini cadre et voilà, après c’est un choix de vie, soit tu choisis de vivre de 20 à 30, soit tu choisis de vivre de 30 à la fin de ta vie. »
Les périodes électorales sont propices au « populisme pénal » consistant à glaner des voix en prônant une surenchère punitive. Est-ce une réponse efficace ?
Éviter les parcours de vie marqués par les interventions de la justice, de la police, et de l’institution pénitentiaire est certainement la meilleure des politiques pénales.
Cibler les fragilités des personnes les plus vulnérables, dès le plus jeune âge, devrait être une priorité, via des politiques soutenant les familles, les institutions scolaires et les quartiers. Aider ceux qui sont passés par la criminalité à en sortir est également indispensable, pour une réintégration professionnelle et citoyenne pleine et entière, une fois la peine purgée.
Valerian Benazeth est membre de l'association française de criminologie. Il a reçu le soutien financier de la ville de Paris et de l'agence national de la recherche et de la technologie dans le cadre d'une Convention industrielle de formation par la recherche durant les trois premières années de sa thèse.
25.05.2025 à 11:33
Angelo Riva, Economist, Professor at the INSEEC Grande Ecole, Affiliate Researcher at the Paris School of Economics, Academic Fellow at the Institut Louis Bachelier, INSEEC Grande École
La dette publique n’est pas forcément un problème majeur, même si elle atteint des niveaux plus élevés qu’aujourd’hui. L’histoire rappelle les conditions à réunir. La situation contemporaine est-elle favorable ? Peut-elle le devenir ?
La dette publique constitue un outil central pour le financement des dépenses des États. Au fil du temps, elle a joué tantôt un rôle de moteur de développement, tantôt été une source d’instabilité. Si la dette a favorisé à la construction des États modernes, le financement des infrastructures et de la protection sociale, elle a également déclenché des crises profondes.
Aujourd’hui, la dette atteint des niveaux élevés dans nombre de pays. À la fin de l’année 2024, la dette publique représentait 113 % du PIB en France, 135 % en Italie, tandis que la moyenne de la zone euro s’établissait à 87,4 %. Aux États-Unis, ce ratio atteignait 124 % du PIB. Face aux discours catastrophistes des uns ou à ceux déniant les risques des autres, une lecture historique permet de comprendre les usages de la dette, ses dangers et les conditions de sa soutenabilité. Si les crises provoquées par la dette sont connues, les épisodes de consolidation réussie, tout aussi riches en enseignements, ont été bien moins commentés.
Les premiers emprunts publics apparaissent au Moyen Âge dans les cités-États italiennes alors que les monarchies européennes empruntaient auprès de banquiers privés. Il s’agissait de financer surtout les guerres. À partir du XVIIe siècle, les États commencent à émettre directement de la dette publique, soutenus par la mise en place d’institutions juridiques et financières assurant la protection des créanciers et la crédibilité des engagements de l’État.
Au XIXe siècle, une étape supplémentaire est franchie. La dette joue un rôle de plus en plus important dans le financement des infrastructures et des grands projets liés à l’industrialisation. Le XXe siècle est marqué par deux guerres mondiales et la Grande Dépression, qui montre le rôle stabilisateur de la dette en temps de crise. Après 1945, la dette finance aussi l’État-providence.
À partir des années 1970, une nouvelle phase d’accumulation de la dette débute, aggravée au XXIe siècle par la crise des subprimes et par la pandémie de Covid. Alors que les guerres étaient historiquement les principales causes d’endettement, les crises économiques et sanitaires en sont les moteurs en temps de paix.
Ratio Dette/PIB des pays du G20 (en %)
Note : Le nombre de pays inclus dans le calcul augmente au fil du temps pour se monter à 20 à la fin du XIXe siècle.
Le ratio dette publique/PIB dépend de trois principaux déterminants :
le solde primaire, qui correspond à la différence entre les recettes publiques hors intérêts et les dépenses publiques,
le différentiel entre le taux d’intérêt réel et le taux de croissance économique – et le terme d’ajustement stock-flux.
Si un excédent primaire réduit mécaniquement la dette, un déficit l’alourdit. Lorsque la croissance économique dépasse le coût réel de la dette, le ratio dette/PIB tend à se réduire de lui-même ; dans une économie en expansion rapide, la richesse produite croît plus vite que le coût de la dette accumulée. Autrement dit, même si l’État ne réduit pas sa dette, celle-ci devient plus soutenable, car elle représente une part décroissante du PIB. Le terme d’ajustement stock-flux capture des opérations exceptionnelles sur la dette telles que les défauts, les restructurations, les conversions et la prise en charge par l’État de dettes privées, les nationalisations et privatisations.
À lire aussi : La dette publique post-Covid sera-t-elle soutenable ?
Au XIXe siècle, plusieurs pays ont réussi à réduire considérablement leur endettement. Le Royaume-Uni a fait chuter son ratio dette/PIB de 260 % à 28 % en un siècle après les guerres napoléoniennes. Les États-Unis ont diminué leur dette de 30 % à 3 % du PIB entre la fin de la guerre de Sécession et 1914. La France, malgré l’indemnité de guerre payée à Allemagne (20 % du PIB) après 1870 et la stagnation qui a suivi la crise financière de 1882, a réussi à réduire son ratio dette/PIB de 115 % à 66 % entre 1895 et 1913.
Ces consolidations reposent sur des politiques fiscales rigoureuses produisant des excédents primaires durables. Dans un contexte de stabilité des prix garantie par l’étalon-or, le différentiel entre taux d’intérêt et croissance ne joue aucun rôle. Même avec une croissance soutenue, les taux réels restent supérieurs. Ces politiques sont largement influencées par les détenteurs de la dette, qui, issus des classes aisées, exercent une pression directe sur les gouvernements pour garantir le remboursement de leurs créances. Si ces politiques permettent de réduire l’endettement, elles s’accompagnent d’une quasi-absence de dépenses sociales et d’une montée des inégalités, dans des États qui comptent aussi sur les ressources issues de leurs empires coloniaux.
Après 1945, de nombreux pays avancés, dont le Royaume-Uni, la Belgique et les États-Unis, ont fortement réduit leurs ratios dette/PIB, qui atteignaient des sommets à la sortie de la Seconde Guerre mondiale : 270 % au Royaume-Uni, 130 % en Belgique, 120 % aux États-Unis, les pays du G20 atteignant 120 % en moyenne (voir graphique ci-dessus).
Entre 1945 et la fin des années 1970, les ratios dette/PIB ont été ramenés à des planchers historiques : 40 % en Belgique, 47 % au Royaume-Uni, 33 % aux États-Unis, la moyenne du G20 se situant à 23 %. Cette consolidation ne repose pas sur des excédents budgétaires, mais sur une forte croissance économique combinée à une inflation persistante, mais rarement excessive, et à des politiques de stricte régulation financière, orchestrée par les banques centrales. Le différentiel favorable entre taux d’intérêt et de croissance a permis de réduire le poids de la dette sans nécessiter d’excédents primaires réguliers, ce qui a facilité le financement de la reconstruction, de la modernisation économique et de l’expansion de l’État-providence et a accompagné un fort recul des inégalités.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
La période de « grande accumulation », amorcée par les chocs pétroliers au début des années 1970, s’est intensifiée avec la crise des subprimes et la pandémie.
Si la Grande Dépression des années 1930 a provoqué des pertes économiques plus importantes, la dégradation du ratio dette/PIB a été plus forte lors de l’importante récession qui a suivi la crise des subprimes, en raison de déficits primaires marqués et d’un soutien massif au secteur financier. Les politiques monétaires non conventionnelles ont cependant limité l’impact négatif du différentiel entre taux réels et croissance. La pandémie a entraîné une nouvelle flambée de la dette publique, provoquée par la chute des recettes fiscales et une hausse massive des dépenses.
De nombreux pays ont, par le passé, supporté des niveaux de dette supérieurs à ceux d’aujourd’hui, tout en réussissant à les réduire durablement. La comparaison entre le XIXe siècle et la période des Trente Glorieuses révèle deux stratégies de consolidation :
l’austérité soutenue, d’un côté,
la croissance tirée par l’investissement public, de l’autre.
Dans le contexte actuel marqué à la fois par des inégalités sociales et une dette élevées, l’Europe doit investir massivement pour décarboner et moderniser son économie ainsi que renforcer sa défense. À condition d’assumer une fiscalité plus redistributive et une régulation financière adaptée, l’investissement public, comme au lendemain de 1945, pourrait satisfaire les besoins sociaux et rendre la dette soutenable. Un investissement public ambitieux peut stimuler une croissance économique dont le taux dépasserait celui des intérêts de la dette, notamment si les banques centrales s’engagent pleinement à soutenir la transition écologique et sociale.
Par ailleurs, une fiscalité plus progressive, en particulier sur les hauts revenus et les patrimoines les plus importants, contribue non seulement à réduire les inégalités, mais aussi à renforcer la soutenabilité des finances publiques.
Angelo Riva ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
25.05.2025 à 11:32
Christophe Tuffery, Chargé de l'animation de la politique de recherche archéologique et chercheur à l'UMR 8068 TEMPS, Ministère de la Culture
Les pratiques numériques de l’archéologie se développent depuis les années 1960, avec une nette accélération du mouvement depuis le début des années 2000. Pourquoi, pour quoi faire et quels impacts ?
Levés topographiques utilisant des tachéomètres manuels ou robotisés, enregistrement des observations et des vestiges sur des tablettes et des smartphones, relevés géophysiques par géoradars, relevés topographiques par la technologie du Lidar, photogrammétrie numérique, etc. Les usages de dispositifs et de méthodes numériques se multiplient, se combinant parfois pour produire des savoirs archéologiques d’une nouvelle forme.
Les volumes de données sont de plus en plus considérables. Seule une partie d’entre elles font l’objet de publications sur Internet, que ce soit sous forme d’articles scientifiques, d’images, ou de corpus de données, avec lesquels, pour certains, il est possible d’interagir.
Cette évolution s’inscrit, en France, dans le contexte de l’essor considérable de l’archéologie préventive, régie par la loi du 17 janvier 2001 qui a affirmé le caractère public de l’archéologie préventive et sa vocation scientifique. Deux ans plus tard, la loi du 1ᵉʳ août 2003 a inscrit l’activité des fouilles préventives dans un cadre concurrentiel entre l’opérateur public national, l’Institut national de recherches archéologiques préventives (Inrap), et d’autres opérateurs, soit publics comme les services habilités de collectivités territoriales, soit privés comme des entreprises spécialisées agréées.
Ce nouveau cadre réglementaire a introduit une pression économique et temporelle puisque les opérations de diagnostic archéologique, puis de fouilles ont lieu dans des délais souvent très courts, définis par les autorisations administratives délivrées par les services compétents de l’État, les directions régionales des affaires culturelles, sous l’autorité des préfets.
Le contexte concurrentiel et de tension sur les délais d’intervention a entraîné la recherche de réduction du temps de travail, surtout sur le terrain, que ce soit pour l’enregistrement de la documentation, l’enlèvement et la conservation préventive des mobiliers archéologiques, les prélèvements scientifiques, les délais consacrés aux études et publications étant souvent plus importants.
Dès lors, le recours à des dispositifs numériques s’est inscrit dans la recherche d’une amélioration de l’efficience dès le terrain et tout au long des étapes du cycle de vie des données de l’archéologie, dans lequel interviennent des professionnels de nombreux domaines : archéologues, documentalistes, archivistes, gestionnaires de collections, informaticiens, topographes, télépilotes de drones, géophysiciens, chercheurs en archéométrie, conservateurs du patrimoine, etc.
Les travaux du groupement de recherche (ou GDR) Silex sont un exemple de la diversité des domaines de la recherche archéologiques concernés par les pratiques numériques.
Ses programmes visent à mieux connaître, caractériser et cartographier les formations géologiques contenant des silicites, plus communément appelées « silex ». Ces ressources minérales étaient parmi les plus exploitées pendant toute la préhistoire par les populations pour fabriquer leur outillage lithique. Éclats, nucleus, grattoirs, racloirs, lames, lamelles, etc. sont quelques-uns des types d’outils et de leurs déchets de taille qui se trouvent aujourd’hui en grand nombre sur les sites archéologiques, du fait de la durabilité des matériaux dont ils sont extraits. La pérennité de leur localisation dans l’espace fait également de ces matériaux des marqueurs de déplacement spatiaux.
Ainsi, en retrouvant l’origine géologique d’un objet en pierre taillé dans un site archéologique, on peut retracer les déplacements des populations du passé.
À ces fins, il est nécessaire de constituer des collections de référence permettant la comparaison entre les objets taillés et les roches naturelles : les lithothèques. Celles-ci ont été constituées depuis plusieurs décennies par des instituts de recherche, des opérateurs d’archéologie préventive et parfois des particuliers. Elles comportent plusieurs milliers d’échantillons de référence qui étaient plus ou moins bien inventoriés jusque-là et décrits d’une façon totalement hétérogène, rendant très difficiles les comparaisons. Les pratiques numériques mises en place depuis plus de quinze ans pour les recherches du GDR Silex ont concerné toutes les étapes du cycle de vie des données archéologiques.
Pour l’acquisition des données sur le terrain, une application sur smartphone et tablette sur Android et iOs a été développée. Grâce à un formulaire, longtemps débattu entre les chercheurs, les échantillons sont décrits désormais d’une façon harmonisée à l’échelle nationale. Ils s’appuient sur un document de référence pour les termes utilisés et les méthodes de caractérisation employées, qui ont fait l’objet d’un important travail de définition par plusieurs experts du domaine.
Elle est utilisée par plusieurs dizaines de chercheurs, en France essentiellement, lors de prospections sur des gîtes à silicites. Elle peut aussi être utilisée dans n’importe quel pays comme l’ont prouvé des utilisations concluantes en Europe et en Amérique latine. Les données d’emplacement des gîtes sont automatiquement enregistrées dans un formulaire, grâce à l’usage de la puce GPS du mobile, garantissant un mode unique de géolocalisation avec une précision de quelques mètres.
Dès le terrain, le formulaire sur l’application mobile permet l’envoi des données à distance sur un serveur, en utilisant l’internet mobile lorsque celui-ci est disponible. Une fois les données validées, celles-ci sont publiées en ligne et accessibles à tout internaute sur le site cartosilex.fr sous la licence ouverte Etalab 2.0.
Si les observations faites depuis le début de la mise en œuvre de ces projets ont fait ressortir l’engouement de la plupart des chercheurs pour ces dispositifs numériques et les possibilités nouvelles qu’ils offrent, l’attachement d’une partie des chercheurs à leurs pratiques et supports traditionnels de travail a pu aussi être constaté. Ainsi, il n’est pas rare de voir coexister, pour l’enregistrement d’observations de terrain, l’usage de smartphones et de carnets de terrain personnels. Le carnet de terrain est un genre de support qui se situe entre journal et document scientifique, avec lequel les chercheurs entretiennent souvent un rapport intime, mais dont le contenu n’a pas vocation à être publié en l’état.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Parvenir à faire coexister pratiques traditionnelles et pratiques numériques revêt pour l’archéologie un double enjeu.
Sur le plan méthodologique, les pratiques numériques, si elles permettent de gagner indubitablement en délais de saisie et de partage de l’information, nécessitent un temps important pour contrôler la qualité des données et des résultats issus de leur traitement. Le numérique ne doit donc pas faire l’objet d’une croyance aveugle, mais bien être accompagné de méthodes garantissant la qualité des données tout au long de leur cycle de vie, notamment grâce à l’usage d’algorithmes dédiés à la recherche d’incohérences ou encore dans l’usage de métadonnées qui permettent de fournir une traçabilité des données et d’en respecter la paternité. Il en va de la crédibilité et de l’intégrité scientifique de la recherche archéologique.
Sur le plan de l’éthique de la recherche, les responsables des projets et des équipes de recherche doivent veiller autant que possible, à ce que les pratiques numériques mises en œuvre n’impliquent pas une division au sein des collectifs de travail.
Enfin, comme tous les scientifiques, les archéologues sont des individus qui n’exercent pas tous leurs compétences d’une manière homogène. Les chercheurs n’exercent pas leur expertise uniquement avec leurs capacités cognitives, mais aussi avec leurs corps, leur sensibilité et leurs émotions, comme l’ont montré notamment les travaux de l’historienne des sciences Françoise Waquet.Respecter les savoir-faire de chacune et de chacun, tout en cherchant un équilibre pacifique et une complémentarité entre des pratiques traditionnelles et des pratiques numériques devrait pouvoir constituer un objectif consensuel pour les communautés de l’archéologie.
Cet article est publié dans le cadre de la série « Regards croisés : culture, recherche et société », publiée avec le soutien de la Délégation générale à la transmission, aux territoires et à la démocratie culturelle du ministère de la culture.
Christophe TUFFERY travaille pour le ministère de la Culture et pour l'UMR 8068 TEMPS
24.05.2025 à 13:36
Dominique Glaymann, Professeur émérite en sociologie, Université d’Evry – Université Paris-Saclay
Alors que l’enseignement supérieur se transforme, les charges administratives s’accroissent et la course aux publications s’accélère. Comment les universitaires vivent-ils leur métier aujourd’hui ? C’est ce qu’éclaire la grande enquête Enseignants-chercheurs : un grand corps malade, publiée en mai 2025 aux éditions Le Bord de l’eau, dont nous vous proposons de lire un extrait consacré à leur rapport au temps.
Les multiples activités liées à la recherche demandent à la fois du temps pour agir et pour penser, imaginer, échanger. Les chercheurs ont besoin de concentration, de recul réflexif, d’échanges formels (en réunion) et informels (autour d’un café ou entre deux réunions), donc de disponibilité d’esprit, tout le contraire de la surcharge cognitive actuelle. Il leur faut aussi, voire surtout, des temps de latence, de prise de distance, de conceptualisation. Or, ces temps-là, apparemment improductifs, mais en réalité créatifs et indispensables, varient d’un chercheur à un autre, d’un sujet à un autre, d’un moment à un autre de sa carrière. Il ne s’agit pas seulement de temps, mais aussi de concentration et de disponibilité d’esprit.
Ces temps ne peuvent suivre des normes quantifiables. Ils ne se mesurent pas en comptabilisant des publications et des citations dans des articles ou livres, la logique qui est désormais au cœur des modalités d’évaluation des chercheurs et des unités de recherche. De telles évaluations quantitatives sont incapables de prendre en considération les processus cumulatifs de construction de savoirs qui s’opèrent en se complétant et en se complexifiant.
Un résultat de recherche donnant lieu à une communication ou une publication une année N est souvent le produit de nombreuses années de recherche, de tâtonnement, de progression et d’erreurs corrigées, mais grâce auxquelles on a progressé. C’est un travail peu visible et que chaque chercheur est en général lui-même incapable de quantifier. Or, l’évaluation de plus en plus présente et déterminante pour le devenir des équipes est organisée au prix de « « dérive managériale et technocratique, [d’]individualisation de l’évaluation, [d’] effets pervers des procédures bibliométriques… ».
Organiser des recherches implique d’accepter que du temps soit « perdu » pour que des connaissances nouvelles soient « gagnées ». Cette logique essentielle est incompatible avec le culte de l’urgence et de l’évaluation court-termiste qui règne aujourd’hui et crée des contraintes qui obligent à précipiter des travaux de recherche et des publications dans un contexte où « le comptable se substitue au stratège, le court terme au long terme, la recherche du gain immédiat à la mise en place d’une production de qualité ».
L’évolution des critères d’évaluation de la recherche correspond à une dérive productiviste :
« Dans ce régime de concurrence généralisée, la notion de productivité académique intervient à tous les niveaux pour orienter l’allocation des ressources, depuis l’Université prise dans son ensemble jusqu’à chaque enseignant-chercheur pris individuellement, en passant par les départements, les maquettes et les équipes de recherche. »
La recherche de productivité et l’évaluation qui en est faite ont des effets de transformation du travail :
« Dans la recherche académique, le principal critère retenu pour mesurer la productivité d’un enseignant-chercheur est la production individuelle d’articles dans des revues répertoriées dans des listes hiérarchisées. […] Les dispositifs de bibliométrie favorisent en effet des formes de pilotage automatique de l’action évaluatrice. Néanmoins, ces avantages immédiats occultent la question centrale de la finalité de l’action : la course à la publication pour accroître un avantage bibliométrique, et pour faire de l’enseignant-chercheur un “acteur productif”, conduit-elle nécessairement à une amélioration de la réalisation de la diversité des missions qui lui incombent, et à une amélioration de la qualité des résultats scientifiques ? Cette mesure de la productivité des enseignants-chercheurs permet-elle d’assurer la qualité scientifique des individus, et la qualité globale de l’action – par exemple – du corps des économistes ? Les crises économiques, écologiques et sociales que produit le capitalisme contemporain permettent d’en douter ! »
Non seulement, cette évolution risque de fragiliser la fiabilité des résultats et des publications scientifiques, mais aussi de provoquer désillusion, découragement et désengagement parmi les enseignants-chercheurs, notamment sous l’effet d’« injonctions comptables » portant atteinte au sens de leurs missions.
« Ce que ça a changé, c’est aussi une concurrence accrue entre les enseignants-chercheurs. De mon point de vue, cela ne fait pas forcément avancer la science parce qu’ils passent énormément de temps à chercher des ressources financières. Et en plus, ils sont jugés sur cette recherche des finances. […] On parle des publications et on parle de moins en moins de l’enseignement et des responsabilités, mais la part de l’argent devient de plus en plus importante. Donc on quantifie le travail du chercheur par, allez, je vais un peu exagérer, mais c’est fait exprès, par le chiffre d’affaires qu’il va réaliser, par le nombre de projets qu’il va ramener » (Thierry, PU en automatisme en université).
« On met beaucoup plus de pression pour la publication. Moi, je ne me sens pas très impactée par ça parce que je suis pratiquement en haut de l’échelle. Donc, du coup, je me dis que je ne publierai peut-être plus, mais ça a zéro impact sur ma vie, zéro ! » (Emmanuelle, PU en informatique en université).
« Si c’est pour être des enseignants insignifiants qui produisent des recherches insignifiantes, c’est-à-dire qui ne produisent pas de sens, ce n’est pas la peine » (Aminata, PU en sciences de l’éducation et de la formation en université).
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
« Je suis à deux ans de la retraite et je n’attends que de partir. Bon ça, c’est aussi un phénomène pré-retraite, je pense que ça existe de tout temps. Mais je suis quand même une militante dans ma vie et là, je suis complètement découragée » (Élise, PU en civilisation américaine en université).
« Nous, à l’université, on se ment avec cette idée que nous sommes toujours des universitaires, des enseignants-chercheurs, la réalité, c’est que nous sommes des profs de super lycée pour 80 % d’entre nous. Nous travaillons en licence avec des gens qui ne deviendront pas juristes, ou sociologues, ou psychologues. Je pense qu’on se ment aussi sur notre statut social. Évidemment, moi, je peux porter la robe, mais quand on regarde le niveau des rémunérations et même le prestige social dans la société, on voit bien qu’il n’est plus ce qu’il a été. Donc, je pense qu’on se ment. Et moi, je voudrais juste qu’on arrête de se mentir, mais qu’on arrête de se mentir à tous les niveaux » (Tom, PU en droit public en université).
Ce phénomène vient aggraver la transformation des activités de recherche en variable d’ajustement dans les emplois du temps des EC.
« J’observe qu’on recrute les enseignants-chercheurs sur leurs qualités en recherche. Et si c’est pour les mettre sur des situations où ils ne pourront plus faire de la recherche, il y a un problème dans le système. On ne peut pas à la fois demander aux gens d’être visibles internationalement et ensuite être dans un truc où finalement ce sont juste des enseignants un peu moins bien payés que des profs de classe préparatoire. Il y a un problème » (Amin, PU en mathématiques en université).
Il est en effet impossible de repousser la préparation des cours et de ne pas être présent en cours ou en TD, il est tout aussi impossible à toutes celles et ceux qui ont une ou plusieurs responsabilités (de diplôme ou de département) de ne pas réaliser dans les délais les tâches qui reviennent à chaque rentrée (gestion des effectifs, des calendriers, des répartitions de cours, etc.) et, à chaque fin, de semestre (évaluations, retour et compilation des notes, jurys, etc.). C’est alors les temps de recherche, consacrés à des enquêtes ou des expériences, à de la lecture ou à de la rédaction qui sont repoussés, voire sacrifiés.
On notera au passage que la semestrialisation (intervenue en 2002) a multiplié par deux le nombre de rentrées et de fins de sessions de cours à gérer. Un des effets indirects majeurs de ce redécoupage est que le début de l’année universitaire se fait de plus en plus tôt (en septembre au lieu d’octobre pour la plupart des étudiants, et donc dès le 15 août pour de nombreux enseignants et administratifs) et que la fin de l’année a lieu plus tard, le temps de terminer les cours du second semestre, d’organiser les examens et de plus, dans un délai de plus en plus court, les rattrapages (autrefois organisés en septembre, avec de vraies périodes de révision pour les étudiants). Ce processus a été intensifié avec les nouvelles procédures de candidature et de recrutement des étudiants (Parcourssup et MonMaster).
Dominique Glaymann ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
24.05.2025 à 13:35
Yulia Titova, Professeur Assistant, IÉSEG School of Management
L’or a franchi la barre des 3 000 dollars, son prix le plus haut de l’histoire. Mais face à la montée des taux d’intérêt depuis la pandémie de Covid-19 et à l’émergence de nouvelles formes d’investissements comme les cryptoactifs, l’or tient-il encore la route ?
La flambée du prix de l’or ces derniers mois, marquée par le franchissement du seuil psychologique de 3 000 dollars l’once en mars 2025 et l’atteinte d’un niveau historique record en avril 2025, a suscité un certain intérêt de la part des investisseurs. On pourrait y voir un nouveau Klondike, cette ruée vers l’or au XIXe siècle.
Au milieu de cette ruée, le métal précieux conserve son attrait en période d’incertitude, de tensions géopolitiques ou d’inflation. Néanmoins, sur le long terme, l’or tend à sous-performer par rapport à d’autres classes d’actifs, comme les actions. Il peut donc jouer un rôle de couverture utile dans un portefeuille, mais y consacrer l’intégralité de son épargne… ne serait pas vraiment une idée en or.
L’offre de l’or, conditionnée principalement par les capacités d’extraction qui, à leur tour, dépendent des réserves, reste assez stable. Le prix de l’or est largement déterminé par la demande. Celle-ci se répartit entre la bijouterie (40 % en 2024), la technologie (7 %), l’investissement (24 %) et les réserves des banques centrales (21 %). L’US Bureau of Economic Analysis classe l’or comme un actif financier. Contrairement à d’autres instruments financiers, il ne génère pas de flux de trésorerie, ce qui rend sa valeur fondamentale incertaine. C’est d’ailleurs pour cette raison que l’investisseur célèbre Warren Buffett s’abstenait d’y investir.
Son rôle historique lui confère une fonction particulière sur les marchés : une valeur refuge en période d’incertitude. Même après l’abandon en 1971 de l’étalon-or, longtemps sur la base du système monétaire international, plusieurs États ont continué de maintenir jusqu’à aujourd'hui encore d’importantes réserves d’or. L’accumulation de ces réserves par les banques centrales, notamment celles des pays émergents, comme la Chine, l’Inde ou la Russie, s’inscrit dans le cadre de la dédollarisation.
Cette dernière s’est accélérée en 2022, lorsque le dollar a été utilisé comme instrument de sanction contre la Russie, puis récemment dans le contexte d’incertitude sur les tarifs douaniers imposés par les États-Unis. Ces tarifs entraînent une diminution des flux commerciaux internationaux, où le dollar reste la principale devise d’échange. Un autre facteur de la demande d’or est le niveau des taux d’intérêt réels. Lorsque les taux augmentent, investir dans des obligations d’État, considérées comme des actifs à faible risque, devient plus intéressant qu’investir dans l’or.
L’or a toujours été apprécié par les investisseurs pour deux principales caractéristiques : la conservation de son pouvoir d’achat et la faible, voire nulle ou négative, corrélation avec d’autres actifs financiers.
Contrairement à la monnaie fiduciaire, dont le pouvoir d’achat s’érode si la banque centrale « fait tourner la planche à billets », l’or est réputé résistant à l’inflation. Les réserves sont limitées, sauf découverte hypothétique de la pierre philosophale. L’idée que l’or constitue une « couverture contre l’inflation » doit néanmoins être nuancée. Pour jouer ce rôle, l’or devrait voir son prix réel demeurer constant dans le temps. Cependant, celui-ci connaît de fortes fluctuations à court terme (quelques années) et ne converge vers une « golden constant » qu’à long terme (des dizaines d’années). Celui-ci pouvant dépasser l’horizon d’investissement.
L’argument principal en faveur de l’or reste sa fonction de protection du portefeuille. Cette propriété découle du lien entre le prix de l’or et le niveau d’incertitude. Lorsque l’incertitude augmente, les prix des actifs financiers traditionnels ont tendance à chuter, tandis que le prix de l’or grimpe. L’or est perçu avant tout comme un moyen de réduire le risque d’un portefeuille, plutôt que d’en augmenter le rendement.
Investir dans l’or peut prendre deux formes : l’or physique et l’or papier.
L’or physique correspond à l’achat direct sous forme de pièces, de lingots ou de barres. Ce type d’investissement permet de détenir un actif tangible. Il présente certains inconvénients : le risque de vol est réel, la conservation nécessite parfois des solutions de stockage sécurisées – avec des coûts associés –, et la liquidité est relativement moindre par rapport à l’or papier.
L’or papier regroupe principalement deux catégories d’investissements : les ETF (trackers) adossés à l’or et les actions de sociétés aurifères. Comme SPDR Gold Shares ou iShares Gold Trust, les ETF sont des véhicules financiers qui permettent d’acheter indirectement de l’or, sans avoir à se soucier du stockage. Ils ont largement contribué à rendre le marché de l’or plus actif et liquide. Investir dans les actions de sociétés aurifères comme Barrick Gold ou Newmont est plus risqué. Leur performance ne dépend pas uniquement du prix de l’or, mais aussi de nombreux autres facteurs : risques politiques liés aux pays d’exploitation, coûts de production, gestion des réserves minières, aléas environnementaux ou encore décisions de management.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Avec le développement des cryptomonnaies, en particulier du bitcoin, la question de la pertinence de l’or comme actif d’investissement revient régulièrement. Le bitcoin est souvent présenté comme une alternative décentralisée et indépendante des décisions politiques nationales. Ces caractéristiques sont également associées à l’or, notamment en période d’incertitude macroéconomique. C’est pourquoi certains le surnomment « le nouvel or ».
À lire aussi : Le bitcoin a-t-il atteint son pic le 20 janvier 2025 ?
Mais les différences restent nombreuses. Le bitcoin souffre d’un manque de transparence sur ses détenteurs, ne repose sur aucun actif tangible – ce qui peut inquiéter certains investisseurs –, et reste marginal dans les réserves des banques centrales. Son prix est moins corrélé à l’incertitude globale. Il n’a d’ailleurs pas joué de rôle de valeur refuge lors de la pandémie de Covid-19. En 2025, sa performance positive s’explique davantage par un regain d’optimisme que par une fonction protectrice. En somme, le bitcoin ne remplace pas (encore ?) l’or comme valeur refuge.
Historiquement, une forte hausse du prix de l’or était suivie d’une baisse des rendements futurs, le prix tendant à revenir vers sa moyenne de long terme (mean reversion). Il n’est pas exclu que, dans un contexte de mutations structurelles, le prix réel de l’or atteigne désormais un niveau d’équilibre supérieur.
Il est difficile de prédire lequel de ces deux scénarios prévaudra. Les investisseurs d’aujourd’hui se trouvent face au même dilemme de l’or (golden dilemma) que ceux du passé. Jusqu’à présent, c’est le scénario du retour à la moyenne qui s’est vérifié. Le potentiel changement de point d’équilibre pourrait être alimenté par plusieurs facteurs : la montée des tensions géopolitiques, la dédollarisation partielle, l’achat massif d’or par les banques centrales des pays émergents, une instabilité financière persistante, ou encore l’incertitude macroéconomique liée à la transition climatique.
Yulia Titova ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
23.05.2025 à 18:54
Antonela Pogacean, Chercheuse au Centre de recherches internationales (CERI), Sciences Po
La victoire de Nicusor Dan, qui était loin d’aller de soi après un premier tour où il était arrivé loin derrière le candidat d’extrême droite George Simion, a réjoui et soulagé la plupart des chancelleries européennes. Mais les causes profondes de la progression de l’extrême droite n’ont pas disparu pour autant. La Roumanie reste travaillée par de profondes inégalités socio-économiques et par le mécontentement d’une partie significative de la population.
Le dimanche 18 mai, à la clôture du second tour d’une élection présidentielle à répétition, les deux candidats en lice – le maire libéral de Bucarest, Nicusor Dan (55 ans), qui se présentait comme indépendant et promouvait une critique pro-européenne du « système », et son adversaire issu de l’extrême droite, fervent partisan du mouvement trumpien MAGA, George Simion (38 ans), qui appelait pour sa part à renverser le « système » –, revendiquaient tous deux la victoire. Quelques heures plus tard, le décompte final entérinait le triomphe sans ambiguïté du premier, arrivé en tête avec 53,6 % des suffrages. Après avoir dans un premier temps reconnu sa défaite, George Simion déposait 48h plus tard un recours – rejeté – auprès de la Cour constitutionnelle pour obtenir l’annulation du scrutin en raison d’« ingérences extérieures », notamment de la France.
Comme plusieurs dirigeants européens, Emmanuel Macron a salué la victoire de Nicusor Dan dès la nuit de l’élection. En revanche, Donald Trump est resté silencieux, tandis que certains de ses proches, comme Elon Musk, ont remis les résultats en cause. L’ambassade des États-Unis à Bucarest n’a réagi que deux jours plus tard, par un bref communiqué mentionnant le président élu, sans le féliciter pour sa victoire. La Russie, dont les ingérences présumées avaient notamment conduit à l’annulation du scrutin en novembre 2024, a pour sa part qualifié les résultats d’« étranges ».
Ces réactions contrastées illustrent les tensions internationales autour d’un scrutin organisé dans un pays devenu stratégique, en raison de sa proximité avec l’Ukraine et de son soutien actif à cette dernière depuis le début de l’invasion russe à grande échelle en février 2022.
Le fort taux de participation au second tour (64,73 %, soit environ 11,5 millions d’électeurs), en nette hausse par rapport au premier (53,21 %), a bénéficié à Nicusor Dan. Ce dernier, qui au premier tour n’avait récolté que 20,99 % des suffrages contre 40,96 % pour Simion, a également profité d’un report de voix favorable, provenant tant des électeurs du candidat des partis gouvernementaux Crin Antonescu (arrivé troisième au premier tour avec 20 % des suffrages) que d’une petite majorité de ceux de Victor Ponta, ancien premier ministre social-démocrate, quatrième du scrutin avec 13 % des voix et promoteur d’un souverainisme plus modéré que celui de Simion.
Cette dynamique a permis à Nicusor Dan de combler son retard initial de 20 points pour finalement s’imposer avec une avance d’environ 800 000 voix. Ce retournement souligne à la fois la volatilité de l’électorat et la puissance de mobilisation dans un contexte de forte polarisation politique.
S’il a surtout mobilisé les classes moyennes et supérieures des grands centres urbains, le maire de Bucarest a également séduit la majeure partie des jeunes électeurs (18-30 ans) et des plus de 61 ans, tandis que la catégorie intermédiaire des 31-60 ans s’est montrée plus partagée, bien que Dan y ait tout de même obtenu 52,5 % des suffrages. De manière tout aussi significative, les Magyars de Roumanie (selon le recensement de 2011, la minorité hongroise comptait environ 1,23 million de personnes, soit environ 6,5 % de la population totale de la Roumanie à cette date) ont très largement appuyé Nicusor Dan.
Ce comportement électoral, qui peut s’expliquer tant par les propos anti-hongrois que tenait encore il y a quelques années George Simion que par la capacité de mobilisation du parti représentant la minorité hongroise de Roumanie, l’Union démocratiques des Magyars de Roumanie (UDMR), tranche avec leur alignement habituel sur les positions du premier ministre hongrois Viktor Orban, qui avait initialement apporté son soutien au candidat Simion dans une logique de renforcement du camp souverainiste au sein de l’UE, avant de se rétracter.
Les résultats des votes à l’étranger reflètent la portée géopolitique de cette élection. Les citoyens binationaux de la République de Moldavie, sensibles au positionnement pro-européen de Nicusor Dan, lui ont accordé un soutien massif (88 % des suffrages exprimés sur le territoire moldave, soit plus de 130 000 voix). Rappelons que depuis 1991, la Roumanie accorde la citoyenneté aux Moldaves pouvant prouver une ascendance roumaine antérieure à l’annexion soviétique de 1940 ; cette politique s’appuie sur les liens historiques entre les deux pays et permet à près d’un million de Moldaves (sur 2,5 millions au total) d’accéder à la citoyenneté européenne.
Dans les communautés roumaines d’Europe occidentale – plus diverses qu’on ne le laisse entendre –, George Simion, largement en tête au premier tour, a vu son avance s’amenuiser lors du second. À l’échelle du vote à l’étranger, sa part est passée de 60 % à 55,8 %, avec, là encore, une nette hausse de la mobilisation au deuxième tour (1 645 458 suffrages contre 966 006 au premier). Les électeurs de l’étranger représentant 14 % du total des votants. Pour une partie des Roumains d’Europe de l’Ouest – parfois éloignés de la vie politique nationale depuis des années –, la dramatisation des enjeux, notamment autour des relations avec l’UE et des risques d’une évolution autoritaire du pays, a ravivé l’intérêt pour le scrutin. Souvent liés à des migrations de travail récentes et inscrits dans des réseaux communautaires mobilisés comme ressource face à la précarité, les électeurs de Simion résidant en Europe occidentale ont, eux, exprimé un profond sentiment d’abandon de la part de l’État roumain.
Plus généralement, l’affect le plus mobilisé et qui a permis la victoire du maire de Bucarest a été la peur : peur de l’effondrement économique, alors que la Roumanie est sous la pression des marchés et de l’UE, en raison d’un déficit record de 9,3 % ; peur de l’isolement au sein de l’UE, qui serait profitable à la Russie ; peur des tensions sociales qu’aurait pu exacerber l’agressivité du candidat de l’extrême droite s’il avait été élu président.
Il serait en revanche illusoire de croire à une adhésion massive au projet technocratique et néolibéral de « bon gouvernement » promu par Nicusor Dan. Du côté des partisans de Simion – qui a repris à son compte des éléments de la rhétorique nationaliste roumaine traditionnelle, teintée d’orthodoxie religieuse et de ressentiment envers les grandes puissances –, le vote a été avant tout une expression de colère contre l’establishment, une colère ayant des racines socio-économiques.
La séquence présidentielle récente clôt un cycle électoral entamé près d’un an auparavant, avec les élections européennes du 9 juin 2024. Par la maîtrise des horloges électorales, les deux partis dominants depuis le début des années 2010 – le Parti social-démocrate (PSD) et le Parti national libéral (PNL), en coalition depuis l’automne 2021 – avaient alors réussi à obtenir de bons résultats (près de 48,5 % des suffrages).
L’organisation simultanée d’élections pour les communes et départements et des élections européennes leur avait permis d’orienter les débats vers les enjeux locaux et de mobiliser des clientèles bien ancrées territorialement. Toutefois, cette stratégie s’est révélée inefficace lors des élections législatives du 1er décembre 2024, intercalées entre les deux tours de la présidentielle : le recul du PSD et du PNL a été marqué, tandis que l’extrême droite, relativement marginale (9 %) auparavant, a conquis plus d’un tiers des sièges au Parlement. Pis encore : les candidats des partis au gouvernement ont été éliminés dès le premier tour de la présidentielle.
Le second tour prévu le 8 décembre, finalement annulé après des hésitations institutionnelles qui n’ont toujours pas été complètement clarifiées, devait opposer le candidat d’extrême droite Calin Georgescu (22,9 %) à Elena Lasconi (19,18 %), issue d’un parti (l'USR, sigle signifiant Sauvez la Roumanie) fondé par Nicusor Dan en 2015 mais dont ce dernier s’était dissocié deux ans après sa création.
À lire aussi : Percée de l’extrême droite pro-russe, élections annulées… La Roumanie en pleine ébullition
Par-delà le changement de casting, la même configuration s’est imposée dans une version encore plus favorable à l’extrême droite en mai 2025, même si le candidat libéral a finalement réussi à l’emporter. Deux visions antagonistes de la critique de l’establishment se sont affrontées.
La première, celle du maire de Bucarest, centrée sur la dénonciation de la corruption, est en partie inspirée par une vision néolibérale du rôle de l’État et les méthodes du New Public management, avec pour mots d’ordre l’efficacité administrative et la réduction des dépenses de l’État et une méfiance à l’égard de la redistribution. Elle va de pair avec une idéalisation culturelle de la classe moyenne urbaine occidentalisée.
La seconde, proposée par Simion, mêle conservatisme culturel, nationalisme économique favorable au capital autochtone et populisme social. Elle est parvenue, grâce aux réseaux sociaux, mais aussi à un travail de terrain délaissé par les autres acteurs politiques, à séduire des groupes sociaux divers, surtout issus des classes moyennes inférieures et populaires, qui craignent ou se révoltent contre le déclassement, la marginalisation économique ou statutaire.
Ce mécontentement se manifeste en dépit d’un bilan positif de l’économie roumaine, au moins jusqu’à la pandémie. Le PIB par habitant exprimé en parité de pouvoir d’achat (PPA) a doublé depuis l’intégration à l’UE en 2007 et s’est établi à 79 % de la moyenne européenne en 2024. Outre les fonds européens et les investissements étrangers, cette amélioration a reposé en partie sur les transferts effectués par les 4 à 5 millions de travailleurs émigrés, soit plus de 20 % de la population active.
Pourtant, cette croissance – adossée à un modèle fiscal favorable au capital et aux gros revenus à travers un taux unique d’imposition sur les revenus de 10 % et sur les entreprises de 15 % – masque des disparités sociales de plus en plus visibles. La richesse s’est concentrée dans les grandes villes, tandis que certaines campagnes et villes moyennes désindustrialisées restent marginalisées. Par ailleurs, le sous-investissement chronique dans les services publics, en particulier dans l’éducation et la santé (privatisée en partie) pénalise des secteurs importants de la population.
L’ascenseur social est bloqué et plus de 40 % de la population est menacée par la pauvreté ou se trouve déjà en situation de pauvreté extrême. Avec un taux de chômage particulièrement élevé (26,3 %), parmi les plus forts de l’UE, les jeunes sont particulièrement touchés par ces dynamiques. L’extrême droite a prospéré sur ce terreau.
Dans un monde en réalignement géopolitique et avec la guerre aux frontières, les défis qui attendent le président élu s’annoncent nombreux. Construire une coalition gouvernementale solide à partir d’un camp pro-européen fragmenté qui parviendrait sur le temps moyen à répondre aux raisons de la colère n’est pas le moindre. Pourtant, faute d’avancées dans ce domaine, l’extrême droite risque d’arriver au pouvoir à la prochaine occasion, avec des conséquences néfastes également pour l’Union européenne.
Antonela Pogacean ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
23.05.2025 à 11:36
Julien Talbot, Responsable de la stratégie digitale
Pourquoi soutenir un média indépendant comme The Conversation ? Parce qu’à l’heure où l’information circule en masse et où les opinions souvent biaisées se multiplient, il est plus que jamais essentiel de pouvoir s’appuyer sur des contenus fiables, rédigés par des chercheurs et chercheuses. Média sans publicité, gratuit et accessible à tous, The Conversation remet le savoir et la science au cœur du débat public.
Face à la profusion d’opinions et de rumeurs, The Conversation choisit de recentrer le débat sur des analyses rigoureuses et vérifiées. C’est déjà une raison forte de nous soutenir — mais pas la seule. Voici six autres raisons tout aussi importantes :
Votre don est essentiel pour faire vivre ce média – aujourd’hui et demain. Nous sommes une organisation à but non lucratif. Sans actionnaires, sans publicité. Votre don ne finance pas seulement des articles : il permet de pérenniser un média indépendant, au service du savoir, et de continuer à faire vivre notre mission dans la durée.