LePartisan.info À propos Podcasts Fil web Écologie Blogs REVUES Médias
Souscrire à ce flux
L’expertise universitaire, l’exigence journalistique

ACCÈS LIBRE UNE Politique International Environnement Technologies Culture

▸ les 50 dernières parutions

02.06.2025 à 15:56

Océan et climat : quelles options pour demain ? Un regard sur la recherche en France

Devi Veytia, Dr, École normale supérieure (ENS) – PSL

Adrien Comte, Chargé de recherche, Institut de recherche pour le développement (IRD)

Frédérique Viard, Directrice de recherche en biologie marine, Université de Montpellier

Jean-Pierre Gattuso, Research Professor, CNRS, Iddri, Sorbonne Université

Laurent Bopp, Research Professor, CNRS, École normale supérieure (ENS) – PSL

Marie Bonnin, Research Director in marine environmental law, Institut de recherche pour le développement (IRD)

Yunne Shin, Chercheuse en écologie marine, Institut de recherche pour le développement (IRD)

Le congrès de l’ONU sur les océans débutera à Nice, le 9 juin. Comment l’océan peut-il nous aider à atténuer le changement climatique et à nous y adapter ? La recherche française est mobilisée.
Texte intégral (3576 mots)

Dans quelques jours, la troisième Conférence des Nations unies sur l’océan (Unoc 3) se tiendra en France, à Nice (Alpes-Maritimes). Elle réunira des dirigeants, des décideurs, des scientifiques et des parties prenantes du monde entier dans le but « d’accélérer l’action et de mobiliser tous les acteurs pour conserver et utiliser durablement l’océan », avec à la clé, peut-être, un « accord de Nice » qui serait constitué d’une déclaration politique négociée à l’ONU et de déclarations volontaires — c’est, du moins, l’objectif des organisateurs, la France et le Costa Rica.

Pour soutenir ces décisions, des informations scientifiques sont indispensables – quel est le statut des recherches dans le monde et, en France, pour exploiter les solutions que l’océan peut offrir face à la crise climatique ?


La France joue un rôle essentiel pour progresser vers l’objectif de conserver et utiliser durablement l’océan, puisqu’avec la deuxième plus grande zone économique exclusive du monde, elle détient une grande partie du pouvoir d’orientation concernant l’utilisation des ressources océaniques.

Cependant, remplir un mandat aussi nécessaire qu’ambitieux d’accélération et de mobilisation de l’action ne sera pas simple. Les discussions de l’Unoc 3 se dérouleront dans un contexte où l’océan est confronté à des défis sans précédent dans l’histoire de l’humanité, notamment en raison des impacts de plus en plus prégnants du changement climatique.

Ces effets se manifestent avec une intensité croissante dans toutes les régions du monde, de la surface aux eaux les plus profondes de l’océan Austral autour du continent antarctique aux zones côtières densément peuplées où les risques climatiques s’accumulent, affectant notamment les pêcheries.

Les options fondées sur l’océan pour atténuer le changement climatique (par exemple en utilisant des énergies renouvelables marines qui limitent l’émission de gaz à effet de serre) et s’adapter à ses impacts (par exemple en construisant des digues) sont essentielles.

Pour optimiser leur déploiement, une synthèse exhaustive et objective des données scientifiques est indispensable. En effet, une évaluation incomplète des preuves disponibles pourrait en effet conduire à des conclusions biaisées, mettant en avant certaines options comme particulièrement adaptées tout en négligeant leurs effets secondaires ou des lacunes critiques dans les connaissances.

Au milieu de ce maelström de défis, quelle est la contribution de la France à la recherche et au déploiement d’options fondées sur l’océan ?

Grâce à une étude de 45 000 articles publiés entre 1934 à 2023, nous montrons que les chercheurs français publient une part importante des recherches scientifiques mondiales sur les options d’adaptation, mais qu’il reste néanmoins de nombreux leviers d’actions.

Par exemple, l’expertise scientifique française pourrait être développée au service de recherches sur l’adaptation des petits États insulaires en développement, qui sont particulièrement vulnérables au changement climatique. Par ailleurs, il conviendrait d’amplifier les recherches sur les options d’atténuation, par exemple dans le domaine des énergies marines renouvelables.

Les options fondées sur l’océan, c’est quoi ?

L’océan couvre 70 % de la surface de la Terre et a absorbé 30 % des émissions humaines de dioxyde de carbone. Pourtant, jusqu’à récemment, il était négligé dans la lutte contre le changement climatique.

Aujourd’hui, de nombreuses options fondées sur l’océan émergent dans les dialogues entre scientifiques, décideurs politiques et citoyens. Ces « options fondées sur l’océan » concernent des actions qui :

  • atténuent le changement climatique et ses effets en utilisant les écosystèmes océaniques et côtiers pour réduire les émissions de gaz à effet de serre atmosphériques ; il s’agit ici par exemple d’interventions utilisant l’océan pour la production d’énergie renouvelable ;

  • soutiennent l’adaptation des communautés et des écosystèmes côtiers aux impacts toujours croissants du changement climatique ; la gestion des pêches et la restauration des écosystèmes mais aussi la construction d’infrastructures protégeant les côtes des submersions font partie de ces options.

Analyser la recherche grâce à l’IA

L’un des rôles clés de la science est de fournir une synthèse impartiale des données scientifiques pour éclairer les décisions. Cependant, l’explosion du nombre de publications scientifiques rend de plus en plus difficile, voire impossible, de réaliser ces évaluations de manière exhaustive.

C’est là qu’interviennent l’intelligence artificielle (IA) et les grands modèles de langage, qui ont déjà un succès notable, depuis les robots conversationnels aux algorithmes de recherche sur Internet.

Dans un travail de recherche en cours d’évaluation, nous avons étendu ces nouvelles applications de l’IA à l’interface science-politique, en utilisant un grand modèle de langage pour analyser la contribution de la France dans le paysage de la recherche sur les options fondées sur l’océan. Grâce à ce modèle, nous avons classé environ 45 000 articles scientifiques et dédiés aux options fondées sur l’océan.

nombres d’articles par thématiques et par pays
Pays classés en fonction de leur production d’articles scientifiques pour différents types d’options fondées sur l’océan. Exemples pour chacune de ces options : les énergies renouvelables (parcs éoliens offshore, les turbines marémotrices) ; éliminer ou stocker le CO₂ (le stockage du carbone capturé dans le fond des océans, les approches de géo-ingénierie pour séquestrer le carbone) ; accroître l’efficacité (la réduction des émissions des navires grâce à des moteurs plus efficaces) ; développer des actions de conservation (protection ou restauration des écosystèmes marins et côtiers) ; réaliser de l’évolution assistée (développer des coraux génétiquement tolérants à la chaleur pour lutter contre l’élévation des températures de la mer) ; développer des infrastructures et technologies (les digues, les barrières antisubmersion, les systèmes d’alerte météorologique) ; agir sur les leviers socioinstitutionnels (modifier les pratiques de pêche dans les communautés côtières touchées). Devi Veytia et collaborateurs, Fourni par l'auteur

Au niveau mondial, nous constatons que la recherche est inégalement répartie puisque 80 % des articles portent sur les options d’atténuation. Les auteurs de travaux de recherche affiliés à la France jouent ici un rôle important, car ils sont parmi les principaux contributeurs des travaux dédiés aux options d’adaptation.

Cette priorité de la recherche sur l’adaptation est également présente dans les travaux des chercheurs affiliés à des institutions de petits États insulaires en développement, qui présentent un risque élevé de dangers côtiers exacerbés par le changement climatique, avec les évènements climatiques extrêmes et l’élévation du niveau de la mer.

Proportion de pays donnant la priorité à la recherche sur les options d’atténuation par rapport aux options d’adaptation, selon que les États soient côtiers ou enclavés sans accès à la mer ou qu’il s’agisse de petits États insulaires en développement. Par exemple, 81,2 % des petits États insulaires en développement publient plus de recherches sur les options d’adaptation que sur les options d’atténuation. Devi Veytia et collaborateurs, Fourni par l'auteur

La recherche sur les réseaux sociaux et dans les médias

L’impact de la recherche française s’étend bien au-delà de ses frontières, suscitant l’intérêt via les réseaux sociaux et les médias traditionnels à travers l’Europe, l’Amérique du Nord et l’Australie.

À mesure que l’accès à l’information et aux plateformes de diffusion accroît la portée et l’influence de l’opinion publique dans l’élaboration des politiques, il devient crucial non seulement de communiquer, mais aussi d’impliquer d’autres acteurs afin de traduire la science en dispositions réglementaires et, à terme, en actions concrètes.

planisphere illustrant la présence de la recherche sur les réseaux sociaux
Origine géographique et quantité des posts mentionnant une recherche publiée par un auteur affilié à une institution française (y compris les posts sur les sites d’actualités, les blogs, X, LinkedIn, BlueSky, Facebook, Reddit, YouTube, etc.). Devi Veytia et collaborateurs, à partir des données Altmetric (2025), Fourni par l'auteur

Quels obstacles pour passer de l’idée à l’action ?

Cette évolution, de l’idée à l’action, est une progression classique dans le cycle de vie d’une intervention. D’abord, un problème ou un impact potentiel est identifié, ce qui motive la recherche scientifique à en étudier les causes et à développer des solutions pour y répondre. Une fois cette étape franchie, l’intervention peut être intégrée dans la législation, incitant ainsi les parties prenantes à agir. Mais ce processus est-il applicable aux options fondées sur l’océan, ou y a-t-il des obstacles supplémentaires à considérer ?

Nous avons étudié cette situation en France pour deux options technologiques prêtes à être déployées et d’ores et déjà mises en œuvre : les énergies marines renouvelables, proposées pour atténuer le changement climatique, et les infrastructures construites et technologies d’adaptation sociétales face à la montée du niveau des mers.

Concernant les énergies marines renouvelables – une intervention jugée efficace à l’atténuation du changement climatique et dont les risques sont bien documentés et modérés –, le déploiement en France semble lent au regard du reste du monde (ligne en pointillé dans la figure ci-dessous).

augmentation des effets du chagement climatiques, des recherches, legislations et actions qui s’ensuivent
Le cycle de vie de l’idée à l’action pour les énergies marines renouvelables en France. De haut en bas, la figure représente un diagramme à barres de l’anomalie de la température ( °C) de surface de la mer (période de base : 1961-1990, source : Ranier et al. 2006), le nombre de publications par an prédites comme pertinentes par notre grand modèle de langage (ligne jaune), l’action mesurée par la capacité électrique installée (MW) en France (ligne bleue continue, (source : statistiques sur les énergies renouvelables de l’Irena) et pour les autres pays (ligne bleue en pointillé), et le nombre de documents législatifs français identifiés (carrés roses) en utilisant une recherche par mot clé du texte intégral du document (sources : Faolex et Ecolex). Devi Veytia et collaborateurs, avec les données précisées dans la légende, Fourni par l'auteur

En revanche, les leviers d’actions en faveur des infrastructures d’adaptation sociétales semblent plus mobilisés face aux pressions croissantes exercées par les risques climatiques côtiers.

Ainsi, nous constatons qu’à mesure que l’élévation du niveau de la mer s’accentue et, par conséquent, entraîne un besoin croissant de protections côtières, la recherche, la législation et l’action (représentée par le nombre de communes françaises exposées aux risques côtiers bénéficiant d’un plan de prévention des risques naturels (PPRN)) augmentent également, en particulier après 2010.

En résumé, concernant les énergies marines renouvelables, la France accuse un certain retard dans le passage de l’idée à l’action par rapport au reste du monde. Cela pourrait s’expliquer par une priorité accordée à d’autres mesures d’atténuation (par exemple, l’énergie nucléaire). Cependant, nous ne devrions pas nous limiter à une ou à quelques options dans l’objectif d’accroître notre potentiel d’atténuation global. La France a la possibilité d’investir davantage dans les recherches et actions d’atténuation.

La France affiche un très bon bilan en matière de recherche et de mise en œuvre d’options d’adaptation au changement climatique. Par ailleurs, sur ce type d’options, nous avons constaté un besoin global de recherche dans les pays en développement exposés aux risques côtiers — ce qui pourrait ouvrir de nouvelles opportunités, pour les institutions de recherche françaises, en termes de soutien à la recherche et de renforcement de leurs capacités dans ces domaines.

Alors que nous approchons de l’Unoc 3 – un moment critique pour la prise de décision – une chose est claire : il n’y a pas une seule solution mais des choix sont nécessaires ; il est donc essentiel de trouver les moyens d’évaluer et de synthétiser rapidement les preuves scientifiques pour éclairer nos actions d’aujourd’hui, ainsi que proposer de nouvelles pistes de recherche en amont des actions innovantes de demain.

The Conversation

Devi Veytia a reçu des financements du Programme Prioritaire de Recherche (PPR) « Océan et Climat », porté par le CNRS et l’Ifremer.

Frédérique Viard a reçu des financements de l'Agence Nationale de la Recherche (ANR) et de l'Europe (programme Horizon Europe).

Jean-Pierre Gattuso a reçu des financements de Comission européenne, Fondation Prince Albert II de Monaco.

Laurent Bopp est Membre du Conseil Scientifique de la Plateforme Ocean-Climat. Il a reçu des financements de recherche dans le cadre de projet de mécennat de la société Chanel et de de Schmidt Sciences.

Marie Bonnin a reçu des financements de l'Agence Nationale de la Recherche (ANR) et de l'Europe (programme Horizon Europe).

Yunne Shin a reçu des financements de l'Europe (programme Horizon Europe)

Adrien Comte ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

02.06.2025 à 15:54

Près d'un étudiant sur cinq se réoriente à bac +1 : ajustement, rupture ou échec ?

Dorian Vancoppenolle, Doctorant en Sciences de l'Éducation et de la Formation, Université Lumière Lyon 2

Près d’un jeune sur cinq se réoriente après une première année dans le supérieur. Un record qui interroge sur les dynamiques de réussite et d’orientation.
Texte intégral (1805 mots)

Alors que les lycéens reçoivent leurs résultats sur Parcoursup, les étudiants qui envisagent de changer de voie se connectent de nouveau à la plateforme. Près d’un sur cinq choisit désormais de se réorienter après une première année dans l’enseignement supérieur. Un record qui soulève des questions cruciales sur les dynamiques de réussite, d’inégalités et d’orientation.


Depuis les années 1960, la massification scolaire a permis un accès élargi au baccalauréat, puis aux études supérieures, sans toutefois mettre fin aux inégalités : celles-ci se recomposent à travers la hiérarchisation des parcours, la segmentation des filières ou encore des effets d’orientation différenciée selon l’origine sociale et le genre.

L’accès aux études supérieures est plus large, mais inégal selon les filières, ce qui limite l’effet redistributif de la massification. Le système éducatif français tend ainsi à reproduire, voire à produire, des inégalités sociales, culturelles et scolaires tout au long des parcours, malgré l’idéal méritocratique affiché par les pouvoirs publics.


À lire aussi : Le mérite est-il encore un idéal démocratique ?


Aujourd’hui, l’un des effets les plus visibles de ces tensions réside dans les trajectoires étudiantes après le bac, en particulier lors de la première année, marquée par un taux de réorientation important.

Conséquence indirecte de la massification scolaire, la réorientation n’est pas nécessairement un aveu d’échec. Elle devient une étape de redéfinition des trajectoires, révélant à la fois les aspirations des jeunes et les limites d’un système qui, tout en se démocratisant, continue de reproduire des inégalités sociales.

Dans un contexte marqué par les réformes du bac, de l’accès aux études de santé et de la refonte du diplôme universitaire de technologie (DUT) en bachelor universitaire de technologie (BUT), ces constats interrogent : pourquoi tant de jeunes entament-ils une réorientation après une seule année, et quelles en sont les conséquences ?

Notre analyse porte sur les données Parcoursup entre 2018 et 2023, en se concentrant sur les étudiants qui se sont réinscrits après une première année dans le supérieur. Seuls les parcours passés par la plateforme sont pris en compte, ce qui exclut les formations hors Parcoursup, comme certaines écoles privées ou classes préparatoires internes, en raison de l’absence de données disponibles.

Des ajustements progressifs de parcours

Contrairement à l’idée reçue selon laquelle une réorientation serait synonyme de rupture totale, les données montrent que la plupart des étudiants restent dans un univers disciplinaire proche de leur formation d’origine. Celles et ceux qui commencent une licence de sciences humaines et sociales, de droit ou de sciences expérimentales poursuivent souvent dans ces mêmes domaines ou dans des filières voisines. La logique dominante n’est donc pas celle du grand saut, mais plutôt celle de l’ajustement progressif.

Certaines formations font néanmoins figure de points de départ majeurs. C’est le cas de la filière santé, qu’elle s’appelle « première année commune aux études de santé (Paces) » ou « parcours accès santé spécifique (Pass) » : chaque année, une partie importante des étudiants s’en détourne après la première année, en se réorientant vers des licences scientifiques, des diplômes du secteur sanitaire et social ou, plus rarement, vers les filières juridiques ou littéraires. Malgré sa réforme, le Pass reste ainsi un espace de réajustement des parcours très fréquent.

À l’inverse, d’autres filières apparaissent comme des points d’arrivée privilégiés. Les brevets de technicien supérieur (BTS), en particulier, accueillent chaque année un grand nombre d’étudiants venus d’horizons très divers : université, santé, sciences humaines, etc.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Enfin, certains domaines, comme les licences Arts, Lettres, Langues ou Droit, Économie, Gestion, connaissent des flux relativement stables : les réorientations y restent internes, comme si les étudiants cherchaient moins à changer de cap qu’à modifier leur angle d’approche (contenus, options, établissements, etc.).

En somme, nous pouvons affirmer que les trajectoires étudiantes se complexifient. Derrière ces mouvements, il ne faut pas voir un simple signe d’instabilité : les réorientations dessinent de nouvelles manières de construire un projet, par essais, par détours et par réajustements.

La réorientation mobilise des ressources inégalement distribuées

Les titulaires d’un bac général sont surreprésentés parmi les étudiants en réorientation après une première année dans l’enseignement supérieur : ils représentaient 73 % des candidats acceptant une nouvelle proposition en 2023, contre 68 % en 2019. À l’inverse, la part des bacheliers technologiques et professionnels parmi les étudiants en réorientation a reculé entre 2019 et 2023, passant respectivement de 22 % à 19 % et de 10 % à 8 %. À des fins de contextualisation, les titulaires d’un bac général représentaient 54 % des diplômés du bac en 2022, contre 20 % pour les technologiques et 26 % pour les professionnels, ce qui indique une plus forte réorientation des généralistes.

Cette dynamique peut refléter une plus grande flexibilité des parcours ou, à l’inverse, des obstacles spécifiques freinant la mobilité académique des autres bacs.

Durant la même période, une logique semblable se retrouve du côté des catégories sociales : les enfants de cadres et professions intellectuelles supérieures passent de 30 % à 32 % du public en réorientation, tandis que les enfants d’ouvriers reculent de 14 % à 11 %. Ces chiffres sont à mettre en regard de leur poids dans la population (21,7 % pour les cadres, 18,6 % pour les ouvriers) et parmi les bacheliers : un quart des titulaires du bac sont issus d’un milieu de cadres. Leur surreprésentation en réorientation s’inscrit donc dans une continuité sociale.

La réussite scolaire précédente a aussi une influence : les réorientés sans mention au bac représentaient 47 % du public en 2018, contre 33 % en 2023. Dans le même temps, la part des mentions « assez bien » augmente, devenant même majoritaire en 2022 (36 %). Cette évolution suit celle du système d’évaluation, qui est marqué par l’essor du contrôle continu.

Enfin, le sexe administratif révèle des disparités genrées : en 2023, 59 % des réorientés sont des filles contre 41 % de garçons, en hausse par rapport à 57 % et 43 % en 2018. Ces écarts sont cohérents avec les taux d’obtention du bac (93 % des filles contre 88 % des garçons en 2022), mais aussi avec des stratégies différenciées de choix d’orientation selon le genre.

Comment l’expliquer ? La réorientation mobilise des ressources inégalement distribuées : compréhension des mécanismes d’affectation, capacité à formuler des vœux stratégiques, anticipation des calendriers, accès à un accompagnement souvent familial ou encore confiance en sa légitimité à changer de voie. Autant d’éléments qui prolongent la critique d’un système scolaire méritocratique en apparence, mais inégalitaire dans les faits.

Une première année d’exploration de l’enseignement supérieur ?

L’évolution des usages de Parcoursup montre une chose : les étudiants utilisent de plus en plus la première année pour « tester », voire réajuster, leur orientation. Ce n’est pas un mal en soi : expérimenter, essayer, se tromper fait partie de la vie étudiante. Mais, cela suppose que les institutions suivent, avec des capacités d’accueil adaptées, un accompagnement renforcé, et surtout une équité entre les primo-entrants et les réorientés.

Or, sur ces points, les politiques publiques accusent un retard : les réorientations ne sont ni anticipées ni outillées, et les étudiants les plus fragiles restent ceux qui en payent le prix.

Les lycéens et les étudiants souhaitant se réorienter en première année d’études supérieures passent par la même plateforme. Ce phénomène complexifie la gestion des places, car les candidats peuvent postuler tout en restant inscrits dans leur formation actuelle. Pensée comme un outil d’accès à l’enseignement supérieur, Parcoursup joue désormais aussi un rôle central et parfois flou dans les réorientations.

La réorientation ne peut pas être considérée comme un échec, c’est souvent la preuve d’un ajustement lucide. Encore faut-il que les outils suivent, et que les logiques d’exclusion ne se perpétuent pas. Plutôt que de juger les étudiants qui changent de voie, il est temps de reconnaître qu’au vu de l’évolution du système éducatif, la première année d’études est devenue un moment d’exploration souvent nécessaire.

Il s’agit maintenant collectivement de faire en sorte qu’elle ne devienne pas une fabrique de tri social. Cela suppose d’adapter les bourses, logements, et dispositifs d’aide aux étudiants déjà inscrits dans le supérieur. C’est une manière de réduire les inégalités de « mobilité scolaire ».

The Conversation

Dorian Vancoppenolle ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

02.06.2025 à 14:52

Finale de la Ligue des Champions 2025 : une bataille pour la gloire sur fond d'argent et de mode

Simon Chadwick, Professor of AfroEurasian Sport, EM Lyon Business School

Paul Widdop, Associate Professor of Sport Business, Manchester Metropolitan University

Ronnie Das, Associate Professor in Data Science, Sports Analytics and AI, The University of Western Australia

PSG et Inter, deux équipes stars de football. Paris et Milan, deux villes emblématiques de la mode. Fonds qatari et fonds états-unien Oaktree, deux propriétaires richissimes.
Texte intégral (1433 mots)

La finale masculine de la Ligue des champions 2025 s’est terminée par un triomphe du Paris Saint-Germain sur l’Inter de Milan (5-0). PSG et Inter, deux équipes stars de football. Paris et Milan, deux villes emblématiques de la mode. Fonds qatari et fonds états-unien Oaktree, deux propriétaires richissimes.


Quelle qu’ait été l’équipe gagnante, l’UEFA loue le succès de son nouveau format, impliquant plus d’équipes, plus de matchs et plus de fans. Bien sûr, tout le monde n’est pas d’accord avec ce nouveau format. Mais en résultats commerciaux, il ne fait aucun doute que la Ligue des champions continue de générer d’énormes sommes d’argent pour toutes les personnes impliquées.

Grâce aux droits de diffusion lucratifs, aux accords de sponsoring et à la vente de billets, les sommes distribuées aux clubs à l’issue de la compétition de cette saison sont exorbitantes : plus de 2,4 milliards d’euros de prix en jeu, contre 2 milliards d’euros l’an dernier.

En atteignant la finale, le Paris Saint-Germain (PSG) a déjà gagné 138 millions d’euros, et l’Inter Milan 137,39 millions d’euros.

Le PSG a reçu une récompense supplémentaire de 6,46 millions d’euros, tandis que la victoire devrait également générer environ 35,58 millions d’euros de revenus futurs en participant à des tournois comme la Supercoupe d’Europe.

La qualification pour la finale a également stimulé la valeur de la marque des clubs et l’engagement des fans. Dans les dernières étapes du tournoi, l’Inter Milan a connu une énorme croissance de son nombre de followers sur les réseaux sociaux.

Mais malgré tous les chiffres importants figurant sur les relevés de revenus et les comptes de médias sociaux, la finale de cette année a une dimension culturelle qui est difficile à mesurer uniquement en chiffres.

Football et mode

Paris et Milan sont toutes deux des capitales mondiales de la mode, abritant des créateurs célèbres et des marques convoitées dans le monde entier. Le PSG et l’Inter Milan ont pour mission d’imiter ces marques, avec un football attrayant qui apporte prestige et héritage.

Certains parallèles peuvent être établis entre le style des équipes et les deux villes rivales. Le PSG, par exemple, en se concentrant sur la construction d’une équipe remplie de jeunes talents locaux, a réussi à refléter la sophistication et la flamboyance de Paris.


À lire aussi : Derrière la rivalité des clubs de football, celle (de l’ego) de leurs présidents


Les partenariats de l’équipe avec Jordan et Dior positionnent le club comme un réceptacle pour l’image mondiale de la ville : audacieuse, luxueuse, cosmopolite.

L’Inter de Milan, quant à elle, bien qu’elle manque de joueurs de renom, incarne une approche italienne classique, disciplinée et défensive du football – historiquement appelée catenaccio, et pouvant se traduire par « verrou ». Un accord parfait avec le style vif et distinctif des maisons de couture basées à Milan.

Cette identité n’est pas enracinée dans la flamboyance, mais dans le raffinement et la rigueur – à l’image de la confection précise de Prada et Armani. Si le PSG est l’emblème du luxe mondial, l’Inter est le modèle de la culture du design italien – moins performatif, mais plus exigeant.

Identité urbaine

Ensemble, le PSG et l’Inter sont les ambassadeurs de l’identité urbaine pour ces villes. Paris et Milan cherchent à exercer une influence bien au-delà de leurs frontières, une stratégie de soft power non seulement à travers l’architecture ou le tourisme, mais aussi à travers la performance esthétique du sport.

De cette façon, le football devient le théâtre d’une compétition symbolique entre les villes, où l’identité civique est canalisée à travers des images symboliques et matérielles telles que des kits, des campagnes et des fans internationaux. Dans cette finale, il y a un choc d’ambition urbaine, un jeu de soft power entre deux des métropoles les plus soucieuses de leur image en Europe.

Sur le plan géopolitique, les enjeux sont nombreux. La deuxième participation du PSG à une finale de la Ligue des champions est d’une importance capitale pour les propriétaires qataris du club. Le président Nasser al-Khelaïfi a passé des années à investir dans des joueurs vedettes étrangers pour aider à construire l’image de l’État du Golfe. Ces dernières saisons, le club a changé de stratégie vers la signature de jeunes talents locaux.

Cela a permis au PSG de se positionner comme un club parisien tout en renforçant les relations qatariennes avec le gouvernement français. C’est particulièrement important à l’heure actuelle car, à partir de la saison prochaine, le PSG aura un rival local. L’année dernière, LVMH a acquis le Paris FC, qui semble prêt à se battre avec son rival local pour le titre de club le plus en vue de la capitale.

Pour sa part, l’Inter a récemment changé de propriétaire, en passant des mains de la famille Zhang à celles du fonds d’investissement Oaktree. Acquis par une entreprise chinoise en 2016, le club a connu des difficultés – malgré une autre finale de Ligue des champions en 2023 – alors que la tentative de révolution du football chinois a échoué.

En mai 2024, le club a été racheté par un fonds d’investissement américain. Ces dernières années, il s’agit d’une tendance dans le football européen selon laquelle le capital-investissement américain a triomphé des investissements soutenus par les États.

Tout cela met en place une autre bataille de football classique de notre époque. Alors que 450 millions de personnes regardent une finale de la Ligue des champions, le ballon rond est devenu un choc d’idéologies autant qu’il s’agit de stars, de villes et de mode.

The Conversation

Simon Chadwick teaches for UEFA's Academy and is a Programme Lead for the European Club Association.

Paul Widdop et Ronnie Das ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.

PDF

02.06.2025 à 12:46

Quand la com’ s’emballe : le feu de paille du « starter pack »

Sophie Renault, Professeur des Universités en Sciences de Gestion et du Management, Université d’Orléans

La mode du starter pack s’est emparée de certaines marques à l’affût de toutes les tendances. Une mode aussi fulgurante qu’éphémère ? Quelles leçons pour la communication d’entreprise ?
Texte intégral (1695 mots)

Adoptés par de nombreuses marques, les visuels de figurines sous starter pack ont rapidement envahi les réseaux sociaux. Derrière cette stratégie virale en apparence efficace se cache une communication mimétique, simplificatrice qui s’est rapidement trouvée en situation d’essoufflement. Une tendance qui en dit long sur les dérives de la communication à l’ère de l’instantanéité.


En avril 2025, il était difficile d’échapper à la vague des « starter packs ». Les réseaux sociaux LinkedIn, Instagram ou bien encore Facebook ont été submergés par des visuels, tous construits selon le même schéma : une figurine numérique, enfermée dans un blister plastique, entourée d’accessoires miniatures et nommée selon un profil type : « Consultante dynamique », « Manager HPI », « RH en télétravail »… Le tout génère immédiatement un effet de connivence : l’on s’identifie, on like, on partage.

Le plus souvent généré par intelligence artificielle, le starter pack reprend l’idée d’associer une série d’objets représentatifs à un profil type, en l’inscrivant dans l’esthétique du jouet. De madame et monsieur Tout-le-Monde aux personnalités publiques comme Élodie Gossuin ou Alexia Laroche-Joubert, en passant par différentes organisations, tous ont contribué à populariser le format starter pack. France Travail, l’Afpa, Basic Fit, Lidl, Paul, Vichy, Michelin ou bien encore Extrême Ice Cream… nombreuses sont les organisations ayant décliné leur univers sous forme de figurines stylisées.

Le format séduit, car il est immédiatement lisible, amusant, propice à l’interaction. Il permet aussi aux acteurs institutionnels ou marchands d’adopter un ton plus léger, plus complice.

Mais cette efficacité visuelle repose sur une logique de standardisation, voire de blanding. In fine, ce qui fait la force du starter pack, c’est-à-dire sa clarté formelle et sa facilité de mise en œuvre, est aussi ce qui a rapidement causé sa perte.

Un feu de paille numérique

En quelques semaines à peine, la mécanique se retourne contre elle-même. Les publications se ressemblent, les accessoires deviennent interchangeables, les profils sont redondants. L’œil se lasse, l’attention baisse, l’effet de surprise disparaît.

La tendance se banalise au point de susciter l’ironie et la lassitude des internautes. Ce rapide essoufflement est typique des feux de paille numériques, où la viralité repose sur l’imitation, jusqu’à l’overdose.

Mais ici, l’enjeu est plus profond : il interroge la stratégie des marques elles-mêmes. Car en reprenant ce format sans en questionner les limites, elles contribuent à une communication mimétique, standardisée, où l’unicité du message est sacrifiée au profit de la visibilité à très court voire ultra court terme.


À lire aussi : Marketing sur les réseaux sociaux : à chaque produit son influenceur…


Au-delà de la redondance visuelle, le format pose problème dans ce qu’il représente : il réduit une personne, un métier ou un style de vie à une série d’attributs figés. La mise en perspective des métiers en tension par France Travail est de ce point de vue symptomatique. Enfermés dans leur « starter pack », un agriculteur avec fourche, tracteur et pot à lait ou bien encore l’aide de cuisine avec une poêle et un faitout. La caricature n’est pas seulement visuelle. L’humour masque mal la simplification excessive. Et cette simplification est d’autant plus problématique que nombre des organisations qui ont surfé sur cette tendance se veulent inclusives.

Esthétique plastique, IA générative… et résistance créative

Le choix esthétique du blister plastique n’est pas anodin. Il évoque l’univers de l’objet standardisé, du produit prêt à consommer, de la figurine figée. Cette symbolique plastique, ludique en apparence, entre en dissonance avec les discours actuels sur la responsabilité des marques, la durabilité ou bien encore l’authenticité.


Abonnez-vous dès aujourd’hui !

Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).


Autre élément sujet à polémiques : la plupart de ces visuels sont générés par intelligence artificielle (IA). La promesse de gain de temps et d’efficacité graphique masque une réalité moins reluisante : production massive de contenus à faible valeur ajoutée, mais dont l’empreinte carbone est croissante. La multiplication d’images par IA interroge profondément à l’heure où la sobriété numérique devient un objectif affiché par les organisations. Combien de « prompts » avant d’obtenir le starter pack espéré ?

La riposte « humaine » au prêt-à-com’

Face à cette standardisation accélérée, une contre-tendance artisanale a vu le jour. En écho à l’initiative du dessinateur français Patouret, plusieurs illustrateurs ont lancé le hashtag #StarterPackNoAI pour proposer des versions dessinées à la main de ces figurines, revendiquant une démarche 100 % humaine et incarnée.

Une manière de remettre de la singularité dans un format devenu générique et de rappeler que la créativité n’a pas à être automatisée pour être pertinente.

France Info, 2025.

Beaucoup d’organisations ont ainsi, au travers de ce choix de communication, ouvert la voie aux critiques. Citons les commentaires suscités par la mise en perspective des métiers en tension par France Travail :

« Pas ouf d’utiliser cette trend polluante, terriblement gourmande en ressources naturelles et un véritable pied-de-nez aux artistes alors que des graphistes inscrits [à France Travail] seraient ravis de rejoindre les équipes de Com’ en DR [direction régionale], DT [direction territoriale], DG [direction générale]… […] Surfer sur les tendances de ce genre, pour moi, c’est remettre en question le sérieux de l’institution. Encore une fois, il y a des graphistes qui cherchent du taf, et ça n’a jamais dérangé différentes strates de France Travail de faire appel à des prestataires… »

ou bien encore un laconique :

« Pas de RSE à FT [France Travail], juste “greenwashing et trendsurfing”. »

Des images qui claquent, un message qui flanche

Le succès éclair du starter pack en dit long sur les tensions qui traversent aujourd’hui la communication des marques.

Tiraillées entre la nécessité de produire vite, de suivre les tendances, d’être vues, et la volonté de construire du sens, elles cèdent trop souvent à l’appel de formats prêts à l’emploi, esthétiques mais creux.

Le starter pack aura été un joli emballage pour peu de messages. Un outil de communication qui amuse un instant, mais ne construit ni confiance ni engagement durable. Ce n’est pas un nouveau langage, c’est un symptôme : celui d’une communication fascinée par l’effet, mais en perte de sens.

The Conversation

Sophie Renault ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

02.06.2025 à 12:46

L’entreprise libérée donne-t-elle du courage ?

Clara Letierce, Enseignante-Chercheure en Management Stratégique, Burgundy School of Business

Anne-Sophie Dubey, Maîtresse de conférences en Théorie des organisations (Cnam), PhD Sciences de gestion/Éthique des affaires (Polytechnique Paris), MSc Philosophie et Politiques publiques (LSE), Conservatoire national des arts et métiers (CNAM)

Caroline Mattelin-Pierrard, Maître de conférences en sciences de gestion et du management, Université Savoie Mont Blanc

Matthieu Battistelli, Maitre de conférences en sciences de gestion, IAE Savoie Mont Blanc

Dans l’entreprise libérée, le rôle de décideur se partage au sein des équipes. Alors, sans chef pour trancher, qui ose prendre des décisions difficiles et courageuses ?
Texte intégral (2065 mots)
Il ne s’agit pas seulement d’oser, mais de savoir quand et comment le faire pour préserver le collectif, tout en limitant les tensions. lassedesignen/Shutterstock

Dans l’entreprise libérée, le rôle de décideur se partage au sein des équipes. Alors, sans chef pour trancher, qui ose prendre des décisions difficiles ? L’entreprise libérée donne-t-elle du courage ? Oui, à condition qu’elle équilibre autonomie individuelle et préservation du collectif, et fasse du courage une pratique partagée au quotidien.


En mars dernier, Jean-François Zobrist, à la tête de la fonderie d’Hallencourt de 1983 à 2009, est mort. Ce dirigeant d’entreprise singulier a mis en place son concept de « l’entreprise libérée ». Ses mantras : la confiance plus que le contrôle, l’homme est bon alors faisons-lui confiance.

Traditionnellement, le manager incarne un nœud de pouvoir et porte, souvent seul, les responsabilités des décisions. Dans l’entreprise libérée, ce rôle de décideur se partage au sein des équipes. Alors, sans chef pour trancher, qui prend la responsabilité de dire à ses collègues quand ils ne sont « plus dans le coup », que l’entreprise perd en efficacité, qu’un recrutement ne fonctionne pas. En résumé, qui ose dire et prendre des décisions difficiles ?

Les entreprises libérées semblent exiger davantage de courage. Comment créer un environnement favorable à ces actions courageuses ? Ou, dis autrement, comment permettent-elles de construire des organisations encourageantes ? Longtemps perçu comme une vertu individuelle au sens d’Aristote, le courage au travail mérite d’être repensé collectivement. En nous inspirant de la philosophie néo-aristotélicienne et de travaux récents en sciences de gestion, nous avons étudié trois entreprises – FlexJob, Innovaflow et Fly The Nest – assimilées entreprise libérée pour comprendre ce qui permet aux salariés d’oser être, dire et agir, tout en préservant le ciment du collectif.

Le courage ne se décrète pas, il s’apprend

Les salariés participent activement aux choix moraux et à leur incarnation dans le déploiement stratégique de l’entreprise. Ils vont parfois jusqu’à refuser des projets incompatibles avec leurs valeurs communes.

« L’éthique, c’est se dire : “On se fait suffisamment confiance dans la collaboration, on vient se nourrir l’un l’autre.” On ne se met pas en mode : “Je viens prendre ce que j’ai à prendre et je me casse.” Donc il y a ce côté-là entre nous. Et ça se décline aussi sur l’éthique professionnelle avec les clients. » (Innovaflow)

Ces discussions sont complexes, car elles font appel aux valeurs et expériences personnelles. Elles exposent les vulnérabilités de chacun. Il ne s’agit pas seulement d’oser, mais de savoir quand et comment le faire pour préserver le collectif en limitant les tensions. Autrement dit, les décisions courageuses doivent intégrer leur impact émotionnel sur le collectif. Les salariés doivent discerner quand et où partager leurs arguments. Les questions financières et salariales, par exemple, peuvent en fait devenir éthiques au regard des enjeux émotionnels qu’elles provoquent.

« En sachant que la [question de l’argent] va faire vivre des émotions parce qu’on est des humains et que l’argent, c’est un sujet tabou qui cristallise plein de choses… […] il y a une logique de performance, de développement de l’activité, de justice… Le salaire n’est pas forcément toujours juste vis-à-vis d’autres dans la boite par rapport à qui apporte effectivement plus. » (FlexJob)

S’outiller

Pour encourager ces délibérations, ces entreprises mettent en place des dispositifs pour « outiller » le courage :

  • La mise en place de règles de fonctionnement transparentes : processus de fixation des salaires, régulation des horaires de travail ou des plans de charge, suivi des frais de déplacement, etc.

« Je prends l’exemple du plan de charge d’une personne qui a onze jours, une personne qui a deux jours. Si la règle c’est de tous viser sept ou huit jours, on s’appuie sur cette règle et probablement qu’il n’y aura même pas besoin de le dire. […] Tu n’as même plus besoin de gérer les tensions. Mais pour ça, il faut créer les conditions. » (Flexjob)

  • Des processus clairs et institutionnalisés, qui viennent rythmer la prise de décision

« On a remis à jour notre process de décision en se disant : “Déjà, c’est quoi, une décision très stratégique, une décision moyennement stratégique ?” Et à chaque fois, il y a un process différent. Et on donne la possibilité de faire à l’écrit ou à l’oral. Certains ont dit :“Moi, j’ai besoin d’avoir du temps avant de décider.” Donc on a dit : “D’abord, tu envoies un message à l’écrit et après, on décide à l’oral.” Donc, de séparer des temps. » (Fly The Nest)

Organisation apprenante

Plutôt que de subir les règles imposées par des normes financières ou sociales, les entreprises libérées développent une approche évolutive de leurs pratiques, ce qui demande du courage. Chez FlexJob, l’un des principes fondateurs est la capacité permanente à questionner et modifier les règles existantes. Chaque processus, chaque outil de gestion peut être revu et amélioré si le collectif estime qu’il ne correspond plus aux besoins de l’entreprise.


Abonnez-vous dès aujourd’hui !

Chaque lundi, des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH, marketing, finance…).


« Nous avons commencé à compter notre temps de travail. Nous, on veut travailler idéalement 32 heures par semaine. Tous les mois, mon cercle va demander aux gens : “Est-ce que vous vous situez à peu près à 32 heures par semaine ?” […] Voilà, c’est des petites choses, c’est du test, mais pour encourager l’individu qui essaie de gérer beaucoup trop de choses, à faire ce qui est bon pour elle et l’organisation. » (Fly The Nest)

Tensions et paradoxes

Si l’entreprise libérée se veut un espace propice au courage, elle soulève aussi tensions et paradoxes :

1. Trop de bienveillance empêche-t-elle le courage ?

La culture de la bienveillance, souvent mise en avant dans ces entreprises, peut paradoxalement freiner l’expression d’un courage authentique. Les employés peuvent hésiter à exprimer un désaccord par peur de heurter le collectif.

« Moi, j’ai encore du mal à faire des feedbacks, j’ai encore du mal à le faire, parce que je suis de nature très empathique, parce que je déteste le conflit. » (Fly The Nest)

2. L’autonomie est-elle oppressive ?

Le collectif peut instaurer des normes implicites de comportement qui restreignent la liberté individuelle. Si chaque individu est responsable de ses actes, la pression sociale peut ainsi devenir un substitut à la hiérarchie traditionnelle ou à la règle. Ce phénomène est documenté dans certaines entreprises libérées, où l’adhésion aux valeurs communes devient une injonction difficile à questionner.

3. Le courage du désaccord est-il réellement encouragé ?

L’un des piliers des entreprises libérées est la prise de décision collective. Le désaccord est souvent sous-exploité dans ces entreprises. Le mécanisme d’objection, bien que prévu, n’est pas facilement utilisé, par peur de dégrader la relation à l’autre et de se voir exclu du collectif (c’est ce que l’on nomme le « dilemme relationnel »).

« Je propose d’essayer non pas de définir des règles plus claires pour qu’il y ait moins de conflits, mais au contraire de définir des zones communes plus grandes pour qu’il y ait plus de conflits, et régler systématiquement ces conflits pour qu’on s’habitue à se dire les choses et qu’on crée la confiance, en “s’affrontant” sur des choses un peu plus triviales, pour être capables de dire quand ça ne va pas. » (Fly The Nest)

La distanciation critique

Au-delà de son outillage, le courage au travail se nourrit de mécanismes de distanciation critique. Incarnée par des rituels et des moments de recul, elle introduit une culture du courage permettant aux salariés de partager librement leurs doutes et d’être soutenus dans leurs prises de décision. Cette régulation collective prévient les risques de dérives individualistes et/ou sectaires, identifiés comme des dangers dans les entreprises libérées.

Le courage n’est pas qu’un état d’esprit : il repose sur des dispositifs organisationnels aidant les individus à gérer leurs craintes des répercussions négatives de leurs actes. Plutôt que d’évacuer à tout prix les émotions, il s’agit de les interroger pour y réagir dans la juste mesure, dans la lignée de la pensée d’Aristote. Il n’y a pas de courage sans peur, ce qui implique comme corollaire que le courage ne doit pas devenir une fin en soi.

Le courage, c’est parfois ne pas céder à une franchise prématurée, c’est savoir attendre ou se taire, pour protéger la qualité de la relation au travail et choisir le bon moment. Finalement, l’entreprise libérée est-elle véritablement encourageante ? Oui, à condition qu’elle équilibre autonomie individuelle et préservation du collectif et faire du courage une pratique partagée au quotidien. Loin d’être un simple laisser-faire, ces entreprises mettent en place des dispositifs pour structurer et cultiver l’exercice du courage afin que chacun soit encouragé à oser être, dire et agir en toute responsabilité.

The Conversation

Anne-Sophie Dubey est co-fondatrice du Disruptive Co-Consulting Group (DCG) LLC. Anne-Sophie Dubey a mené une thèse CIFRE (bourse de l'ANRT et financement par La Fabrique de l'industrie).

Caroline Mattelin-Pierrard a reçu des financements de la Fondation de l'Université Savoie Mont Blanc.

Matthieu Battistelli a reçu des financements de la Fondation de l'Université Savoie Mont Blanc.

Clara Letierce ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

02.06.2025 à 12:45

Être hyperconnecté et en présentiel permet-il d’échapper aux tâches domestiques ?

Caroline Diard, Professeur associé - Département Droit des Affaires et Ressources Humaines, TBS Education

Hybridation et hyperconnectivité : une stratégie d’évitement pour échapper aux corvées ménagères ? Débranche, et revenons à nous !
Texte intégral (1595 mots)
À la question « Quand vous travaillez à domicile, profitez-vous de l’occasion pour vous occuper de vos enfants le cas échéant ? », 16 % des hommes répondent « souvent ou très souvent » contre 8 % des femmes. Leonardoda/Shutterstock

Hybridation et hyperconnectivité : une stratégie d’évitement pour échapper aux tâches domestiques ? Débranche et revenons à nous ! Une étude menée en 2022 conclut que les hommes prennent davantage part aux tâches domestiques et familiales en situation de télétravail à domicile. Le télétravail, le jackpot de l’équilibre vie professionnelle-personnelle ?


Cinq années après la pandémie de Covid-19 et le télétravail massif, les scientifiques en organisation ont mis en lumière les effets secondaires du travail hybride : agencement organisationnel, brouillage des frontières vie privée/vie professionnelle et surcharge de travail. Le télétravail touche aujourd’hui un quart des salariés en France, deux tiers des cadres. Il est particulièrement répandu chez les personnes en CDI, les plus diplômées, chez les plus jeunes et dans le secteur privé.

Cette révolution copernicienne du travail produit des effets dans la sphère intime du couple. Le rapport du Haut Conseil à l’égalité entre les femmes et les hommes, « Pour une mise en œuvre du télétravail soucieuse de l’égalité entre les femmes et les hommes », mentionne de nombreuses inégalités subies par les femmes, notamment en matière de répartition des tâches domestiques et de charge mentale. Le déséquilibre entre hommes et femmes serait amplifié avec le télétravail. En cause les difficultés de garde d’enfants et l’espace de travail inadapté.

Nouvelle donnée : ce mode de travail hybride permet d’échapper à certaines tâches domestiques. Pour ce faire, nous avons mené une étude quantitative entre le 3 février et le 3 mars 2022 auprès de 211 télétravailleurs à domicile, au lendemain de la levée de l’obligation de télétravailler. Elle conclut que, parmi notre échantillon, les hommes prennent davantage part aux tâches domestiques et familiales en situation de télétravail à domicile. Une meilleure conciliation des temps de vie et une moindre participation aux tâches domestiques pourraient ainsi s’avérer favorables aux femmes.

Alors le télétravail à domicile peut-il réduire les inégalités professionnelles de genre en créant un ré-équilibrage des tâches en faveur des femmes ?

Division sexuelle du travail domestique inégalitaire

Pour la sociologue Marianne Le Gagneur, le télétravail ne redistribue pas les cartes d’une division sexuelle du travail domestique inégalitaire. Les télétravailleuses tablent sur cette journée pour laver leur linge ou faire la vaisselle par exemple, elles n’ont plus de véritables pauses. L’enquête 2023 de l’UGIC-CGT suggère également que le télétravail se solde pour les femmes par des journées plus intenses. Ce contexte de difficultés techniques rend leur activité moins fluide et plus hachée que celle des hommes – problèmes de connexion, de matériel, d’applications numériques.

Nos résultats vont partiellement à l’encontre de ces études et enquêtes. Ils enrichissent ceux de Safi qui conclut à une répartition plus équitable des tâches domestiques en situation de télétravail. À la question « Quand vous travaillez à domicile, profitez-vous de l’occasion pour vous occuper de vos enfants le cas échéant ? 16 % des hommes répondent « souvent ou très souvent » contre 8 % pour les femmes.

À la question « Quand vous travaillez à domicile, en profitez-vous pour vous occuper des tâches domestiques ? » 29 % des hommes son concernés contre 28 % pour les femmes.

Les hommes prennent part aux tâches domestiques et familiales. Ces résultats ambivalents et surprenants pointent le télétravail comme un enjeu au cœur du rééquilibrage des temps et une répartition différente des contraintes domestiques entre les hommes et les femmes.

Augmentation du temps de travail

Pour 82 % des répondants à l’étude de l’UGIC-CGT, le télétravail est plébiscité pour garantir un meilleur équilibre vie professionnelle/vie personnelle. Cette promesse d’une meilleure articulation des temps de vie s’accompagne d’une augmentation du temps de travail – 35,9 % des répondants – et de difficultés à déconnecter. Seulement 36 % des répondants bénéficient d’un dispositif de droit à la déconnexion, alors même que ce droit se trouve dans le Code du travail. Cela suggère que le télétravail, qu’il soit exclusif ou en alternance, est associé à des niveaux de tensions d’équilibre pro/perso inférieurs à ceux du travail exclusivement en présentiel.


Abonnez-vous dès aujourd’hui !

Chaque lundi, des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH, marketing, finance…).


Les derniers chiffres de l’Observatoire de l’infobésité sont éloquents : 20 % des e-mails sont envoyés hors des horaires de travail (9 heures-18 heures) ; 25 % des managers se reconnectent entre 50 et 150 soirs par an ; 22 % des collaborateurs ont entre 3 et 5 semaines de congés numériques (sans e-mails à envoyer) par an. Alors que les emails sont identifiés comme source de stress générant des comportements d’évitement.

L’hyperconnectivité comme stratégie d’évitement

La notion d’évitement correspond à des efforts volontaires d’un individu pour faire face à une situation qu’il évalue comme stressante. Elle implique que cette situation est perçue comme difficile à surmonter et menaçante pour son bien-être. Un individu met en place différents processus entre eux. Il peut ressentir cet événement comme menaçant. L’enjeu est d’échapper à une situation inconfortable.

La dépendance à l’hyperconnectivité peut s’expliquer par des injonctions implicites ou une forme d’autocontrôle et d’autodiscipline. Cela suggère une servitude volontaire où les employés répondent aux sollicitations professionnelles à tout moment. Cette hyperconnectivité pourrait être un prétexte pour échapper aux tâches domestiques considérées comme peu valorisantes. Le collaborateur, volontairement ou non, se connecte ou répond à des sollicitations en dehors des horaires classiques de travail. Peut-être pour échapper à des contraintes personnelles et familiales ? Et s’investir dans un champ unique limitant la charge mentale.

Stress supplémentaire

L’imbrication croissante des espaces de travail et de vie personnelle due à l’hyperconnectivité engendre des conflits de rôle. Elle ajoute un stress supplémentaire aux individus et compromet leur bien-être. Autrefois, les frontières entre les temps et lieux de travail et de vie privée étaient claires : on se connectait au bureau à 9 heures et on se déconnectait à 18 heures, laissant ainsi le travail derrière soi. Aujourd’hui, ces frontières se sont effacées, rendant la déconnexion plus difficile à gérer.

Cette hybridation des espaces de vie, où le travail et les activités domestiques ou familiales s’entremêlent, apporte certes de la flexibilité. Elle permet par exemple d’emmener ses enfants à la crèche avant de se connecter au travail. Mais ce « mélange des genres » peut aussi être source de stress. Il génère un sentiment d’incapacité à tout gérer en même temps, provoquant des conflits de rôle, où les exigences professionnelles empiètent sur la vie personnelle et inversement.

The Conversation

Caroline Diard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

01.06.2025 à 20:24

De quels maux souffre le Parti socialiste ?

Pierre-Nicolas Baudot, Docteur en science politique, Université Paris-Panthéon-Assas

Le 5 juin, les militants socialistes désigneront Olivier Faure ou Nicolas Mayer-Rossignol comme premier secrétaire d’un PS profondément affaibli.
Texte intégral (2233 mots)

Le 5 juin, les militants du Parti socialiste désigneront leur premier secrétaire – les finalistes étant Olivier Faure et Nicolas Mayer-Rossignol. Longtemps hégémonique à gauche, parti de gouvernement, le PS s’est effondré en 2017 puis a connu sa plus lourde défaite électorale avec la candidature d’Anne Hidalgo (1,7 % des voix) lors de la présidentielle de 2022. Quelles sont les causes structurelles de ce lent déclin ? Le PS peut-il se remettre en ordre de bataille pour les municipales de 2026 et la présidentielle de 2027 ?


À l’occasion de son 81e congrès à Nancy, le Parti socialiste (PS) s’est mis en ordre de bataille pour désigner sa direction et arrêter ses principales orientations. À un an d’un scrutin municipal qui lui est traditionnellement favorable et à deux ans d’une élection présidentielle encore illisible, cet exercice expose au grand jour les maux profonds du parti. Il donne à voir le tableau paradoxal d’une organisation marginalisée électoralement sur la scène nationale, mais engluée dans des logiques anciennes de professionnalisation et de présidentialisation.

La lecture des trois textes d’orientation du congrès de Nancy dessine quelques lignes idéologiques communes : la défense du rôle de la puissance publique dans la gestion de l’économie, une meilleure répartition des richesses, la nécessité de la transition écologique ou encore la confiance au projet européen. Cependant, au-delà de ces emblèmes, la réflexion apparaît particulièrement peu poussée sur plusieurs enjeux cardinaux, comme le rapport au capitalisme et à la mondialisation, la stratégie géopolitique ou, plus largement encore, la singularité d’un projet socialiste dans le monde actuel. Pour autant, tous les textes en appellent à la reprise d’un travail sur les idées et au rétablissement des liens avec la société civile.

Des éléments qui reviennent comme des airs populaires à chaque congrès du parti, depuis maintenant plusieurs décennies. Et de fait, le congrès de Nancy peine à paraître pour autre chose qu’un combat de personnes. Même l’alliance avec La France insoumise (LFI) n’est plus véritablement en jeu, puisque les différents textes proposent une alliance de la gauche non insoumise. Ce rapport du PS à la production d’idées permet de dépasser l’immédiate actualité du congrès pour saisir quelques tendances de plus long terme éclairant l’état actuel du parti.

L’érosion du travail collectif

Évoquant leur identité intellectuelle, les socialistes brandissent volontiers la référence à la social-démocratie, pour se démarquer tant du macronisme que d’une gauche de rupture renvoyée à son irresponsabilité et à sa naïveté. Cependant, la conversion du PS en parti de gouvernement a largement conduit – à l’instar des partis sociaux-démocrates étrangers – à faire de cette référence le signifiant d’une pratique du pouvoir plutôt que d’un contenu idéologique précis. Cela traduit, plus largement, l’érosion continue des capacités du parti à produire des idées et à justifier intellectuellement sa propre existence. Ce que Rafaël Cos a diagnostiqué comme un « évidement idéologique du Parti socialiste » s’exprime, par exemple, dans la faible portée idéologique de la formation des militants, la distance avec les intellectuels, la disparition des revues de courants ou le faible intérêt pour la production programmatique.

Plus encore, c’est la capacité du parti à travailler collectivement qui est en question. Les secrétariats nationaux, qui constituent les lieux ordinaires de l’expertise partisane, sont la plupart du temps très peu investis. S’ils se sont formellement multipliés au fil des années, c’est surtout pour accroître le nombre de places à la direction du parti. De même, si diverses conventions thématiques ont régulièrement été organisées, leurs conclusions sont traditionnellement vite laissées de côté. À l’inverse, les conflits sont légion et ont pris, à l’occasion des alliances avec LFI, des tours particulièrement violents. Et cela, alors même que l’éloignement idéologique entre courants est sans commune mesure avec ce que le parti a pu connaître par le passé.

Un entre-soi de professionnels

Ce constat tient d’abord à des logiques sociales. À mesure qu’il s’est converti en un parti de gouvernement à partir des années 1980 et qu’il a accumulé des positions électorales, le parti s’est considérablement professionnalisé. Non seulement la part des élus dans ses instances de direction s’est accrue, mais de plus le travail quotidien du parti a de plus en plus été pris en charge par des collaborateurs d’élus, formés au métier politique.

Dans le même temps, la part des militants extérieurs à cet univers s’est réduite. En particulier, les militants simultanément engagés dans les secteurs associatifs ou syndicaux se sont considérablement raréfiés. Les relations avec ces espaces s’en sont mécaniquement trouvées modifiées : outre qu’elles se sont distendues, elles se sont professionnalisées dès lors que les relations avec le parti transitent essentiellement par les élus.

Cette dynamique s’articule bien sûr à l’évolution idéologique du parti, et notamment aux conséquences de sa mue sociale-libérale sur son image auprès des profils les plus populaires, mais également auprès des fonctionnaires (notamment des enseignants) pourtant historiquement proches du PS.

Cette professionnalisation a aussi eu pour conséquence, comme l’écrivent Rémi Lefebvre et Frédéric Sawicki, de « bouleverser l’économie interne et morale » du parti, au point que « les intérêts électoraux sont devenus prépondérants à tous les niveaux ». Cela s’est accompagné d’une place croissante laissée aux mesures professionnalisées de l’opinion, que constituent les médias et les sondages.

La neutralisation du débat collectif

La professionnalisation du parti s’est également répliquée sur le fonctionnement collectif du parti. D’abord, ses succès électoraux depuis les années 1970 et jusqu’en 2017 ont permis au PS de constituer ce qui s’est apparenté à une véritable rente électorale. L’enjeu pour les principaux courants devenait alors de se maintenir à la direction du parti, pour participer à la gestion des ressources électorales et à la distribution des investitures.

S’est alors progressivement instauré ce que le politiste Thierry Barboni a qualifié de « configuration partisane multipolaire ». Cette expression décrit la présence, au sein de la majorité du parti, de plusieurs sous-courants s’entendant pour gérer le parti. Les désaccords idéologiques se trouvent alors minorés, derrière des jeux d’allégeance peu lisibles et un important flou stratégique considéré comme une condition de l’unité politique. Surtout, ces désaccords sont dissociés des enjeux de désignation de la direction. C’est ce dont témoigne le congrès du Mans, en 2005, qui aboutit à une synthèse générale entre des courants qui s’étaient pourtant fortement affrontés peu avant au sujet du Traité constitutionnel européen.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


La défaite du PS en 2017 puis, surtout, les alliances à gauche de la Nouvelle Union populaire écologique et sociale (Nupes) et du Nouveau Front populaire (NFP) ont de nouveau mis face à face plusieurs camps distincts. Les espaces de la délibération collective du parti ne s’en sont pas, non plus, trouvés revigorés pour autant. La compétition pour la direction encourage une forme de maximisation des différences, quand bien même les divers textes d’orientation convergent vers de nombreux points, mais les débats collectifs demeurent peu nombreux. Surtout, ils ont peu à voir avec la définition d’un contenu idéologique.

C’est ce dont témoigne encore la candidature de Boris Vallaud, ancien soutien d’Olivier Faure, à la direction du parti. Si le dépôt d’une motion par le président du groupe socialiste à l’Assemblée nationale contre le premier secrétaire est un événement, il répond en réalité davantage aux enjeux d’incarnation qu’à une alternative politique profonde.

Ainsi le parti doit-il gérer l’expression interne du pluralisme et s’évertuer à contenir les divisions que laisse paraître la démocratie partisane, sans pour autant en tirer de réels bénéfices collectifs.

Le règne des écuries

Enfin, le parti a connu une forte présidentialisation, c’est-à-dire que son organisation s’est largement faite autour des logiques imposées par l’élection présidentielle. Dès les lendemains de la seconde élection de François Mitterrand, en 1988, les différentes écuries présidentielles se sont développées autour des principaux « présidentiables du parti ». Cette logique a été maximisée dans les années 2000, puis institutionnalisée avec l’adoption des primaires. Chaque écurie est alors incitée à constituer ses propres ressources expertes, sans les mettre à la disposition de l’ensemble du parti au risque d’en voir les bénéfices appropriés par d’autres. L’accumulation d’expertise au fil du temps et la stabilisation d’une ligne commune dépendent donc largement de l’état des rapports de force.

Ainsi, si d’une part la « configuration partisane multipolaire » tend à suspendre le débat collectif, les différentes écuries entretiennent leurs propres espaces de travail hors du parti. Aujourd’hui encore, c’est moins l’accès des socialistes à diverses expertises qui est en jeu que la capacité du parti à travailler collectivement. Cela vaut d’autant plus que les faibles perspectives électorales du parti sur le plan national renforcent les divisions avec l’échelon local. En effet, nombre d’élus n’entendent pas renier les stratégies adoptées localement, au nom d’une stratégie nationale dont les retombées électorales paraissent faibles.

Ces évolutions ont accompagné la domination du PS sur l’ensemble de la gauche plusieurs décennies durant. Si elles ont un temps préservé la machine électorale des divisions, elles ont également conduit à dévitaliser fortement le parti. Ses capacités de médiation entre l’opinion publique et les espaces de pouvoir se sont largement affaiblies. À mesure que s’érodaient ses réseaux dans la société, ses facultés à tirer profit de l’activité du mouvement social s’amenuisaient, de même que ses possibilités de voir ses propositions et ses mots d’ordre infuser dans divers espaces sociaux. C’est également la place des militants qui a été modifiée, en raison de leur faible implication dans l’élaboration programmatique et dans la gestion de la vie du parti. Il en résulte que, non seulement ceux-ci sont aujourd’hui très peu nombreux (41 000 au congrès de Marseille en 2023), mais que de plus ils ont une faible emprise sur les destinées du parti.

En définitive, le PS paraît difficilement pouvoir faire l’impasse d’une refonte organisationnelle profonde. Il s’est construit au fil des décennies autour d’importantes ressources électorales et d’un statut de parti de gouvernement. Son effondrement national a cependant révélé un modèle adapté à la gestion de positions de pouvoir, plutôt qu’à la conquête électorale. Il en résulte le constat paradoxal d’une organisation aux perspectives de victoire présidentielle faible, mais encore paralysée des effets de la professionnalisation et de la présidentialisation.

The Conversation

Pierre-Nicolas Baudot ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

01.06.2025 à 17:06

Keir Starmer ou la difficile conciliation « entre l’Europe et le grand large »

Marie-Claire Considère-Charon, Université Marie et Louis Pasteur (UMLP)

Keir Starmer cherche à la fois à ménager la relation spéciale du Royaume-Uni avec Washington et à raffermir les liens avec l’UE, affaiblis par le Brexit.
Texte intégral (2231 mots)

En ce mois de mai 2025, le premier ministre britannique a réussi à sceller un accord avec Washington qui permet à son pays d’échapper dans une certaine mesure à la hausse des droits de douane promulguée par Donald Trump, et un autre avec l’UE, qui solde certains effets du Brexit.


C’est dans un contexte de nouvelles menaces sur son économie, déjà affaiblie par les répercussions commerciales du Brexit, que le Royaume-Uni s’est rapproché de ses deux principaux partenaires, les États-Unis et l’Union européenne, en vue de conclure des accords. En invoquant l’exemple de son illustre prédécesseur, Winston Churchill, le premier ministre britannique Keir Starmer s’est d’emblée montré résolu à ne pas « choisir entre l’Europe et le grand large ».

L’objectif du leader du parti travailliste, en poste depuis le 5 juillet 2024, est de concilier deux objectifs essentiels mais peu compatibles, semble-t-il : raffermir la relation transatlantique d’une part, et relancer les relations avec l’UE, d’autre part.

La réaffirmation de « la relation spéciale » entre les États-Unis et le Royaume-Uni

Dans le cadre du désordre géopolitique provoqué par les décisions intempestives de la Maison Blanche de taxer lourdement les produits importés aux États-Unis, le premier ministre s’est d’abord tourné vers son interlocuteur américain pour tenter de le convaincre d’appliquer au Royaume-Uni un traitement préférentiel.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Dès le 26 février 2025, à l’occasion de sa visite à la Maison Blanche, il avait tenté d’amadouer le président Trump en lui remettant l’invitation du Roi Charles à une seconde visite d’État, qui a été acceptée avec enthousiasme.

Le 3 avril 2025, au lendemain de l’annonce par la Maison Blanche d’une augmentation à 25 % des droits de douane sur les importations d’automobiles britanniques, Starmer a choisi de ne pas riposter mais d’agir à l’égard de son partenaire américain avec calme et sang-froid, selon ses propres termes, en soulignant que toutes ses décisions seraient uniquement guidées par l’intérêt national et les intérêts de l’économie britannique.

Sa démarche, au nom de la « relation spéciale » qui unit les deux pays, a également été étayée par des arguments commerciaux : il a rappelé que son pays n’enregistrait pas d’excédent commercial avec les États-Unis et qu’il était naturel que le président revoie à la baisse les droits de douane à l’encontre des produits britanniques. Il était en effet crucial pour Londres d’obtenir de moindres taux d’imposition, voire des exonérations, de façon à sauver des milliers d’emplois menacés, dans les secteurs de l’industrie automobile et de la sidérurgie.

Le volontarisme de Starmer, qui a pu compter sur une équipe soudée et des conseillers compétents et avisés, s’est toutefois heurté à des partenaires coriaces et à un Donald Trump versatile et peu conciliant, ce qui augurait mal d’une issue positive. Mais le moment s’est révélé propice au rapprochement, lorsque les États-Unis ont commencé à subir l’effet boomerang de leurs mesures punitives, à l’heure où les porte-conteneurs sont arrivés à moitié vides dans les ports américains.

Starmer est en effet parvenu, le 8 mai dernier, à signer avec Trump un accord par lequel Trump revenait sur son engagement à ne pas accorder d’exonérations ou de rabais sectoriels. Les droits de douane sont passés de 25 % à 10 % pour 100 000 voitures britanniques exportées chaque année. Les États-Unis ont également consenti à créer de nouveaux quotas pour l’acier et l’aluminium britanniques sans droits de douane, et à être plus cléments envers le Royaume-Uni lorsqu’ils imposeront à l’avenir des droits de douane pour des raisons de sécurité nationale sur les produits pharmaceutiques et d’autres produits.

En contrepartie, le Royaume-Uni a sensiblement élargi l’accès à son marché des produits de l’agroalimentaire américain comme le bœuf, ainsi que le bioéthanol mais n’a toutefois pas cédé à la pression de Washington, qui souhaitait le voir réviser à la baisse les normes britanniques en matière de sécurité alimentaire. Il s’agissait d’une condition préalable à toute forme d’assouplissement des échanges de denrées alimentaires et de végétaux entre le Royaume-Uni et l’Union européenne.

L’accord du 8 mai 2025 a une portée limitée car il ne couvre que 30 % des exportations britanniques, et l’industrie pharmaceutique n’a pas été prise en compte. Il devrait être suivi d’un accord commercial complet, mais aucun calendrier n’a été programmé. Et Trump peut revenir à tout moment sur les concessions qu’il a accordées au Royaume-Uni. Une autre critique majeure à l’encontre de cet accord est qu’il enfreint la clause de la nation la plus favorisée, qui figure en général dans les accords de commerce international, et permet à chaque pays de se voir appliquer une égalité de traitement par ses partenaires commerciaux.

Cet accord, qui est intervenu une semaine après la signature de l’Accord de libre-échange avec l’Inde, représente pour le premier ministre britannique une victoire politique, d’autant mieux accueillie qu’elle survient au moment où sa cote de popularité n’est plus qu’à 23 %, tant les critiques se sont multipliées quant à son déficit de leadership et à des mesures souvent jugées inéquitables. Keir Starmer s’est également attelé à une autre tâche primordiale : celle de la réinitialisation des relations avec l’Union européenne, qui s’était amorcée sous le mandat de son prédécesseur Rishi Sunak avec la signature du cadre de Windsor, qui allégeait le dispositif des échanges en mer d’Irlande.

La relance des relations avec l’UE

Dans ce domaine comme dans celui de la relation transatlantique, il s’est agi d’un travail de longue haleine, jalonné par une longue série de rencontres et de réunions entre les autorités britanniques et la présidente de la Commission européenne, ainsi qu’entre leurs équipes, sous la direction du Britannique Nick Thomas-Symonds, ministre en charge du Cabinet office, de la Constitution et des Relations avec l’Union européenne, et du vice-président de la Commission européenne Maros Sefcovic.

Le sentiment, partagé entre les deux parties, de l’impérieuse nécessité de relancer des relations abîmées par « les années Brexit », obéissait à des raisons à la fois commerciales et géopolitiques. Il a permis l’émergence d’une nouvelle dynamique, où la défiance n’était plus de mise. Sans qu’il soit question de revenir sur l’engagement britannique du non-retour au marché unique ni à l’union douanière, l’ambition des Britanniques, comme celle des Européens, était de renforcer la coopération et la coordination en vue de nouvelles dispositions et d’actions conjointes au niveau des échanges et de la politique de sécurité et de défense.

Dans un contexte économique très difficile, il était urgent pour les Britanniques d’apporter des solutions au problème persistant des échanges entre le Royaume-Uni et son principal partenaire commercial, l’UE, qui avaient chuté de 15 % depuis 2019, désormais dépassées en volume par celles à destination des pays hors Union européenne.

L’accord signé le 19 mai 2025 avec l’UE à Lancaster House officialise une nouvelle phase des relations entre les deux parties et constitue une première étape vers une coopération renforcée. Il apporte des réponses concrètes sur certains dossiers critiques, comme celui des échanges transfrontaliers de marchandises, ou sensibles, comme celui de la pêche, et ouvre des perspectives prometteuses sur d’autres dossiers comme celui d’un partenariat de sécurité et de défense ainsi que celui de la mobilité des jeunes Européens et Britanniques.

Les nouvelles dispositions commerciales auront pour effet de réduire sensiblement l’impact de la frontière en mer d’Irlande sur les échanges de marchandises, en particulier entre la Grande-Bretagne et l’Irlande du Nord, qui continuent à pâtir du dispositif douanier, malgré la signature du Cadre de Windsor. En introduisant la mise en place d’une zone sanitaire et phytosanitaire entre le Royaume-Uni et l’UE, il met fin aux certificats sanitaires d’exportation et ouvre la voie vers un « alignement dynamique » des normes réglementaires des deux parties.

Les Européens demandaient que soient reconduits les droits de pêche qui, en vertu de l’Accord de commerce et de coopération entre le Royaume-Uni et l’UE de 2021, permettaient aux pêcheurs de l’UE d’accéder aux eaux territoriales britanniques jusqu’en 2026. Le Royaume-Uni a accepté la reconduction des droits de pêche des Européens pour 12 années de plus, jusqu’en 2038. Ces concessions ont été obtenues en échange de dispositions visant à faciliter l’entrée des denrées alimentaires sur le marché européen. Elles ont également ouvert la voie vers la mise en œuvre d’un pacte de défense et de sécurité.

Les turbulences géopolitiques déclenchées par l’administration Trump, ainsi que la poursuite de la guerre en Ukraine, ont donné un nouvel élan à la coopération en matière de défense et de sécurité entre le Royaume-Uni et l’UE. Le partenariat de sécurité et de défense signifie l’engagement mutuel à s’entendre sur les sujets majeurs comme celui du soutien à l’Ukraine et celui de l’avenir de l’OTAN, et les moyens de réduire la dépendance militaire vis-à-vis des États-Unis. Il ouvre la voie vers l’accès du Royaume-Uni au fonds européen de financement des États membres de l’UE, SAFE (Security Action for Europe) à hauteur de 150 milliards d’euros, qui sert à financer des équipements et des opérations militaires conjointes des pays de l’UE.

La mise en œuvre d’un programme de mobilité des jeunes afin de faciliter les échanges culturels et les projets pilotes était une question difficile dans la mesure où les jeunes Européens sont beaucoup plus nombreux à fréquenter les universités britanniques que l’inverse. L’accord intitulé « Youth Experience » n’est en réalité qu’un engagement à progresser dans la direction d’une plus grande ouverture aux jeunes Européens et du rétablissement du programme Erasmus.

Le choix de ne pas choisir

Le Brexit a considérablement compliqué les échanges du Royaume-Uni avec l’Union européenne, son premier partenaire commercial. Il l’a tout autant rendu plus vulnérable à l’insécurité à l’échelle mondiale. Keir Starmer a compris la nécessité de sortir son pays de l’isolement où l’a cantonné le Brexit, en cultivant ou en restaurant les relations avec ses deux partenaires privilégiés, les États-Unis et l’Union européenne. Il y a toutefois lieu de se demander si, compte tenu du dérèglement de l’ordre mondial provoqué par le président des États-Unis, ainsi que de son hostilité affichée à l’égard de l’Europe, le premier ministre britannique pourra encore longtemps refuser de choisir son camp entre l’Europe et l’Amérique.

The Conversation

Marie-Claire Considère-Charon est membre du comité éditorial de l'Observatoire du Brexit et membre du groupe de recherche CREW (Center for Research on the English-speaking Wordl) Sorbonne nouvelle.

PDF

01.06.2025 à 14:15

Et si l’eau potable ne coulait plus de source… quel modèle économique mettre en place ?

Mehdi Guelmamen, Doctorant en sciences économiques, Université de Lorraine

Alexandre Mayol, Maître de conférences HDR en sciences économiques, Université de Lorraine

Justine Le Floch, Doctorante en sciences de gestion, Université Paris 1 Panthéon-Sorbonne

Stéphane Saussier, Professeur des universités, IAE Paris – Sorbonne Business School

Le modèle économique de l’eau potable a été pensé à un moment où la ressource semblait infinie. Les canicules récentes obligent à le refonder d’urgence.
Texte intégral (1878 mots)

Après les sécheresses de 2022 et de 2023, la disponibilité de l’eau potable en France n’a plus rien d’une évidence. Le modèle économique de distribution de l’eau imaginé à un moment où la ressource semblait infinie mérite d’être repensé. La tarification, d’une part, et l’exploitation, d’autre part, sont au cœur des réflexions à mener.


La France, longtemps épargnée par le stress hydrique grâce à un climat tempéré, découvre désormais la rareté de l’eau potable, comme en témoignent les sécheresses de 2022 et 2023. Ces épisodes extrêmes ont frappé les esprits : 343 communes ont dû être ravitaillées en urgence par camions-citernes, et 90 % des départements ont subi des restrictions d’usage de l’eau. En 2023, le gouvernement a lancé un « Plan Eau » pour anticiper les pénuries et encourager un usage plus responsable de la ressource.

Le défi à relever est immense : assurer un accès durable à l’eau potable exigera des investissements massifs et une profonde adaptation des pratiques. Quel modèle économique permettra de relever ce défi ? Deux pistes principales se dégagent : utiliser le prix de l’eau pour inciter à la sobriété, et repenser la gestion et le financement du service d’eau potable.

Le juste prix à fixer

En France, le service de l’eau potable fonctionne comme un monopole naturel : les coûts fixes élevés (entretien des réseaux de distribution, stations de pompage et usines de traitement) rendent inefficace toute mise en concurrence. La gestion du service est confiée aux collectivités locales, qui peuvent choisir entre au moins deux modes d’organisation : une régie publique ou une délégation à un opérateur privé.

Longtemps, l’effort s’est concentré sur l’extension des réseaux, notamment en zone rurale. La tarification a visé l’équilibre financier, conformément au principe du « l’eau paie l’eau », sans objectif environnemental explicite. Le prix du mètre cube reste, aujourd’hui encore, bas par rapport à la moyenne européenne, même s’il varie fortement selon les territoires. Il combine une part fixe, une part variable ainsi que diverses taxes et redevances.

Intégrer une dimension environnementale

Plusieurs dispositifs ont néanmoins encouragé l’intégration d’une dimension environnementale dans le prix de l’eau pour inciter à la sobriété, mais ont fait l’objet de critiques fortes. La loi sur l’eau et les milieux aquatiques de 2006 a, par exemple, encouragé le recours au tarif « progressif ». Ce tarif consiste à moduler la part variable du prix en fonction du volume consommé selon des tranches prédéfinies. Le principe est simple : plus le foyer consomme, plus il paiera cher.

Ce dispositif, séduisant sur le principe, a pourtant suscité une faible adhésion au niveau local (à peine une dizaine de services sur 8 000 en France avant 2023). Au niveau national, le président de la République, Emmanuel Macron avait évoqué sa généralisation en réponse à la sécheresse, mais le rapport du CESE de novembre 2023 a enterré cette proposition. À l’étranger des communes, comme Bruxelles, ont abandonné la tarification progressive après avoir constaté ses trop nombreux défauts.


À lire aussi : La nappe de Beauce, un immense réservoir d’eau confronté à la sécheresse et à la pollution


Pourquoi ce rejet ? Plusieurs obstacles limitent l’efficacité attendue de cette mesure. Il faut rappeler que la tarification progressive suppose une information complète du consommateur sur sa consommation. Or, la facturation de l’eau en France reste peu intelligible, en particulier dans l’habitat collectif où les appartements ne font l’objet que d’une refacturation une fois par an par leur syndic. Pire, de très nombreux logements anciens n’ont pas de comptage individuel et leur consommation n’est qu’estimée. Dans des villes comme Montpellier, seuls 33 % des logements sont individualisés et peuvent se voir appliquer la tarification progressive.

Tarification progressive, défauts immédiats

C’est la raison pour laquelle cette forme de tarif ne peut fonctionner qu’avec l’installation coûteuse de compteurs dans les logements. La tarification progressive a d’autres défauts, comme le fait que les tranches ne s’adaptent pas à la taille du foyer, pénalisant alors les familles nombreuses. Par ailleurs, ils ne s’appliquent pas toujours à l’ensemble des usagers, puisqu’ils ne concerneront pas, par exemple, les professionnels. Enfin, leur fonctionnement suppose une capacité des ménages à réduire leur consommation, ce qui n’est pas aussi simple.

Faut-il pour autant renoncer à faire évoluer les comportements par les tarifs ? Pas nécessairement. D’autres approches, comme la tarification saisonnière, pourraient envoyer un signal prix plus lisible en période de stress hydrique. L’objectif : rendre le consommateur acteur de la sobriété, sans complexifier à l’excès le système.

La sobriété hydrique au cœur d’un nouveau modèle économique et de gouvernance

Responsabiliser les consommateurs ne suffira pas : encore faut-il que l’eau parvienne jusqu’à eux. Or, la ressource souffre également de la vétusté des infrastructures de distribution. Les pertes en eau à cause des fuites représentent 1 milliard de mètres cubes chaque année, soit l’équivalent de la consommation de 20 millions d’habitants. Les besoins en rénovation sont alors considérables et représentent, selon une étude de l’Institut national des études territoriales (Inet), 8 milliards d’euros pour les années à venir. Comment assurer le financement de ce « mur d’investissement » ? Plusieurs paramètres méritent d’être questionnés.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Premièrement, le principe selon lequel « l’eau paie l’eau » implique que le financement repose essentiellement sur la hausse du prix pour l’usager. Il y aura lieu toutefois d’arbitrer localement autour du partage de cette hausse de prix entre les professionnels et les ménages, mais également entre l’abonnement et la part volumétrique. Par exemple, augmenter la part fixe de l’abonnement de base afin que les résidences secondaires ou les usagers occasionnels – qui utilisent peu d’eau mais bénéficient tout de même de l’infrastructure – participent davantage aux coûts d’entretien du réseau. Si la hausse du prix s’avère insuffisante, le rôle des agences de l’eau pour aider financièrement les services en difficulté devra être repensé mieux fixer des objectifs contraignants de performance.

Un rôle pour les intercommunalités

Ensuite, la coopération intercommunale peut apparaître comme un levier pour financer en commun les investissements. Alors qu’aujourd’hui plusieurs milliers de communes – souvent très petites – gèrent seules l’eau potable et peinent à assumer l’autofinancement des rénovations, se regrouper permettrait de mutualiser les travaux. La loi Notre de 2015 a précisément cherché à inciter les petits services de moins de 15 000 habitants à se regrouper, mais suscite beaucoup d’hostilité au niveau local. Même si la modalité de coopération peut être améliorée, la collaboration des communes dans la gestion des réseaux apparaît indispensable.

Enfin, le modèle économique actuel doit être repensé puisque les recettes des opérateurs reposent essentiellement sur les volumes facturés. Il apparaît contradictoire de promouvoir la sobriété hydrique si elle le conduit à faire baisser les recettes. Pour résoudre cette difficulté, des clauses de performance environnementale utilisées dans le secteur des déchets pourraient aussi s’appliquer dans les contrats d’eau, qui compenseraient la baisse des volumes par des primes. Ce mécanisme serait un levier efficace qui pourrait être appliqué à tous les opérateurs, publics comme privés.

Le Monde, 2024.

Indispensable régulation à l’échelle nationale

Au-delà des contrats locaux, de nombreux experts plaident pour une refonte de la gouvernance du secteur, en s’inspirant de modèles étrangers. L’idée d’un régulateur économique national fait son chemin. Le pilotage global du secteur pourrait gagner en cohérence avec la création d’un régulateur économique national de l’eau potable. Cette autorité indépendante pourrait garantir une transparence accrue, limiter les asymétries d’information, et promouvoir des pratiques économes et durables. Les agences de l’eau pourraient également évoluer vers un rôle de régulation régionale, en intégrant mieux les enjeux du grand cycle de l’eau.

Le modèle économique français de l’eau potable arrive à un tournant. Face au changement climatique et aux aléas qui menacent notre approvisionnement en eau, faire évoluer ce modèle n’est plus une option mais une nécessité. Tarification plus intelligente, investissements massifs et coordonnés dans les réseaux, nouvelles règles du jeu pour les opérateurs et régulation renforcée : ces adaptations, loin d’être purement techniques, touchent à un bien vital dont la gestion nous concerne tous. L’eau potable a longtemps coulé de source en France ; demain, elle devra couler d’une gouvernance renouvelée, capable de concilier accessibilité pour les usagers, équilibre financier du service et préservation durable de la ressource.

The Conversation

Alexandre Mayol a reçu des financements de l'Agence de l'Eau Rhin-Meuse pour un projet de recherche académique.

SAUSSIER Stéphane a reçu des financements dans le passé de Veolia, Suez et de l'Office Français de la Biodiversité dans le cadre de projets de recherche.

Justine Le Floch et Mehdi Guelmamen ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.

PDF

01.06.2025 à 12:26

CrossFit et Hyrox, deux modèles économiques qui redéfinissent le marché du fitness

Wissam Samia, Enseignant-chercheur, PhD en économie, Université de Picardie Jules Verne (UPJV)

Si le CrossFit s’appuie sur un réseau décentralisé de 700 salles, l’Hydrox s’organise autour de 83 évènements. Avec un même objectif : faire du sport un marché économique rentable.
Texte intégral (1784 mots)
En vue de préparer leur _summer body_ ou tout simplement par passion, de plus en plus de Français sont adeptes du Crossfit. RomanChazo/Shutterstock

Deux nouveau-nés ont émergé dans le paysage du fitness : le CrossFit, mêlant renforcement musculaire et exercice cardio-vasculaire, l’Hyrox y ajoutant la course à pied. Avec leur propre logique. Le premier sport s’appuie sur un réseau décentralisé de 700 salles en France. Le second sur plus de 83 évènements centralisés. Pour un même objectif : faire du sport un marché économique rentable.


Muscle-Up (traction + passage au dessus de la barre), clean & jerk (épaulé-jeté), Snatch (arraché), sled push (pousser un traîneau chargé sur une distance), burpee broad jumps (pompe et saut en longueur), wall balls (squat avec une médecine ball à lancer contre un mur)… si ces mots ne vous parlent pas, c’est que vous n’êtes pas encore adepte du CrossFit ou de l’Hyrox, ces sports qui séduisent plus de 200 000 adeptes dans l’Hexagone.

Ces deux modèles sont figures de proue du renouveau du fitness. Ces entraînements de haute intensité, en petits groupes, suivent un protocole défini par les entreprises du même nom. Le CrossFit mélange renforcement musculaire, haltérophilie, force athlétique, exercices cardio-vasculaires et mouvements gymniques. L’Hyrox y ajoute la course à pied, la force et l’endurance. Concrètement, huit fois un kilomètre de course à pied et un exercice de fitness.

Côté stratégie économique, le CrossFit s’appuie sur une logique décentralisée et un ancrage communautaire ; l’Hyrox repose sur une logique centralisée d’organisation d’évènements et un effet d’échelle. Si tous deux incarnent des paradigmes économiques distincts, ils convergent vers une même dynamique : valoriser le sport comme un marché. En explorant leurs structures de financement, leur impact territorial et leurs stratégies de diffusion, nous proposons une lecture critique de la façon dont le fitness devient un laboratoire de tendances pour l’économie de l’expérience.

Décentralisation communautaire vs centralisation hégémonique

Le modèle CrossFit repose sur une structure bottom-up. Chacune des 14 000 salles affiliées ou « box » – dont plus de 700 en France – constitue une entité juridique autonome, qui reverse une licence annuelle à CrossFit LLC tout en conservant une grande latitude opérationnelle. Ce modèle d’affiliation, proche du licensing, favorise une croissance extensive sans immobilisation de capital par la maison-mère. Le financement repose essentiellement sur les abonnements des adhérents et des revenus annexes – coaching, merchandising local. Ce modèle de dissémination rapide avec faible contrôle central est adossé à un capital social fort.

A contrario, Hyrox se positionne comme un acteur centralisé du sport-spectacle. La société allemande Upsolut Sports organise directement les compétitions et agrège la quasi-totalité des revenus – billetterie, droits d’inscription, sponsoring, ventes de produits dérivés. En 2020, l’entreprise a levé environ 5 millions d’euros lors d’une première phase de financement. En 2022, elle a vu Infront Sports & Media, filiale du conglomérat chinois Wanda Group, entrer majoritairement au capital. Ce modèle s’inscrit pleinement dans une logique de scale-up, caractérisée par une croissance rapide reposant sur des capitaux-risqueurs, une forte intégration verticale et l’ambition d’atteindre une masse critique à l’échelle mondiale. Hyrox contrôle l’ensemble de la chaîne de valeur – production, branding, diffusion – ce qui lui permet de capter directement les flux financiers et d’optimiser ses marges. Cette stratégie vise moins la rentabilité immédiate que la valorisation à long terme, en vue d’un positionnement hégémonique sur le marché du fitness compétitif globalisé.

Coûts d’entrée et barrières à l’implantation

Les exigences capitalistiques des deux modèles créent des barrières à l’entrée de natures différentes. Pour ouvrir une box CrossFit, l’entrepreneur doit s’acquitter d’une licence d’environ 4 000 euros par an, recruter du personnel certifié, et investir massivement dans du matériel et de l’immobilier – jusqu’à 100 000 euros d’investissement initial. Ce modèle repose sur un capital fixe élevé, mais offre un potentiel de revenus récurrents. Le prix d’abonnement mensuel, compris entre 80 et 150 euros, reflète ce positionnement premium.

Trois personnes pratiquent le crossfit dans une salle de sport
En France, avec près de 700 salles affiliées en 2023, ce modèle génère plusieurs dizaines de millions d’euros de chiffre d’affaires annuel. BearFotos/Shutterstock

Hyrox, en revanche, n’impose pas la création d’infrastructures dédiées. Les salles de sport existantes peuvent devenir partenaires pour proposer des entraînements Hyrox, contre une redevance modeste – environ 1 500 euros annuels. L’accès au marché repose sur un capital humain adapté et une mobilisation temporaire de ressources existantes. Pour l’usager final, le coût est concentré sur l’accès à l’événement, environ 130 euros par compétition. Cette accessibilité réduit les barrières à l’adoption pour les pratiquants et permet une diffusion plus rapide dans les territoires urbains et périurbains.

Abonnements récurrents vs activités ponctuelles à forte marge

L’économie CrossFit repose sur une récurrence de flux financiers : abonnements mensuels, formations de coachs, compétitions communautaires et vente de produits dérivés. Ce modèle de revenu présente une certaine prévisibilité et résilience, notamment en cas de chocs exogènes. En France, avec près de 700 salles affiliées en 2023, ce modèle génère plusieurs dizaines de millions d’euros de chiffre d’affaires annuel. La nature décentralisée permet à chaque box d’adapter son offre au contexte local. Les compétitions locales, souvent organisées par les box elles-mêmes, renforcent l’ancrage territorial de l’activité et créent des retombées économiques indirectes – restauration, hôtellerie, transport.


À lire aussi : Tous en salle ? Comprendre l’obsession contemporaine pour les corps musclés


Hyrox, à l’inverse, fonde son modèle sur des activités ponctuelles mais à forte valeur ajoutée. Chaque événement est une unité de profit autonome, financée par les frais d’inscription, la billetterie et le sponsoring. En 2025, avec plus de 600 000 participants prévus dans 83 événements, Hyrox anticipe plus de 100 millions de dollars de revenus globaux. Le modèle mise sur une croissance rapide de sa base de clients et la monétisation de la marque via le merchandising et les droits médiatiques. La stratégie repose également sur l’effet de réseau : plus les événements se multiplient, plus la notoriété et la communauté s’étendent, renforçant la rentabilité marginale de chaque course organisée.

Hybridation des modèles

La pandémie de Covid-19 a constitué un test de robustesse pour ces deux modèles. CrossFit a connu une contraction temporaire, mais sa structure décentralisée et la forte cohésion communautaire ont permis une relance rapide dès 2022. Hyrox, bien qu’impacté par l’arrêt des événements, a utilisé cette période pour consolider ses financements et accélérer son internationalisation.

Depuis, une forme de convergence opère : de nombreuses salles CrossFit adoptent le label Hyrox, tandis qu’Hyrox recrute massivement dans la base de pratiquants CrossFit. Cette hybridation dessine un écosystème où les modèles ne s’excluent plus mais se complètent stratégiquement. Dans cette perspective, le fitness ne relève plus du seul loisir : il devient un vecteur stratégique d’accumulation et d’innovation dans les industries culturelles contemporaines. La prochaine décennie permettra sans doute d’observer si ces modèles s’institutionnalisent davantage ou s’ils cèdent la place à d’autres formats hybrides, adaptés aux mutations technologiques et sociales du sport connecté.

The Conversation

Wissam Samia ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

01.06.2025 à 09:27

La banalité du mal : ce que dit la recherche en psychologie sociale

Johan Lepage, Chercheur associé en psychologie sociale, Université Grenoble Alpes (UGA)

La violence dans les hiérarchies sociales est exercée par des individus qui se distinguent des autres par leur orientation autoritaire.
Texte intégral (1918 mots)
Stanley Milgram et son « générateur de décharges électriques ». The Chronicle of Higher Education

La recherche en psychologie sociale réfute la thèse de la banalité du mal. La violence dans les hiérarchies sociales est exercée par des individus qui se distinguent par un élément : leur orientation autoritaire – et ainsi par un comportement particulièrement coercitif, inégalitaire et intolérant.


Le chercheur en psychologie sociale Stanley Milgram publie en 1964 la première recherche expérimentale sur la soumission à l’autorité. Son protocole consiste à demander à des personnes volontaires d’infliger des décharges électriques à un autre participant (en réalité un compère de Milgram) dans le cadre d’une recherche prétendument sur les effets de la punition sur l’apprentissage. Un échantillon de psychiatres prédit une désobéissance quasi unanime, à l’exception de quelques cas pathologiques qui pourraient aller jusqu’à infliger un choc de 450 volts.

Les résultats provoquent un coup de tonnerre : 62,5 % des participants obéissent, allant jusqu’à administrer plusieurs chocs de 450 volts à une victime ayant sombré dans le silence après avoir poussé d’intenses cris de douleur. Ce résultat est répliqué dans plus d’une dizaine de pays auprès de plus de 3 000 personnes.

Ces données illustrent la forte propension à l’obéissance au sein de la population générale. Elles montrent également des différences individuelles importantes puisqu’environ un tiers des participants désobéit. Les caractéristiques socio-démographiques des individus et le contexte culturel semblent n’avoir aucune influence sur le comportement dans le protocole de Milgram. Comment expliquer alors les différences individuelles observées ?

Nous avons conduit une nouvelle série d’expériences dans les années 2010. Nos résultats montrent un taux d’obéissance similaire ainsi qu’une influence notable de l’autoritarisme de droite : plus les participants ont un score élevé à l’échelle d’autoritarisme de droite, plus le nombre de chocs électriques administrés est important.

Recherche sur l’autoritarisme

La psychologie sociale traite la question de l’autoritarisme depuis plusieurs décennies. Cette branche de la psychologie expérimentale a notamment fait émerger dès les années 1930 une notion importante : celle d’attitude.

Une attitude désigne un ensemble d’émotions, de croyances, et d’intentions d’action à l’égard d’un objet particulier : un groupe, une catégorie sociale, un système politique, etc. Le racisme, le sexisme sont des exemples d’attitudes composées d’émotions négatives (peur, dégoût), de croyances stéréotypées (« les Noirs sont dangereux », « les femmes sont irrationnelles »), et d’intentions d’action hostile (discrimination, agression).

Les attitudes sont mesurées à l’aide d’instruments psychométriques appelés échelles d’attitude. De nombreux travaux montrent que plus les personnes ont des attitudes politiques conservatrices, plus elles ont également des attitudes intergroupes négatives (e.g., racisme, sexisme, homophobie), et plus elles adoptent des comportements hostiles (discrimination, agression motivée par l’intolérance notamment). À l’inverse, plus les personnes ont des attitudes politiques progressistes, plus elles ont également des attitudes intergroupes positives, et plus elles adoptent des comportements prosociaux (soutien aux personnes défavorisées notamment).

Les attitudes politiques et les attitudes intergroupes sont donc corrélées. Une manière d’analyser une corrélation entre deux variables est de postuler l’existence d’une source de variation commune, c’est-à-dire d’une variable plus générale dont les changements s’accompagnent systématiquement d’un changement sur les autres variables. Dit autrement, si deux variables sont corrélées, c’est parce qu’elles dépendent d’une troisième variable. La recherche en psychologie sociale suggère que cette troisième variable puisse être les attitudes autoritaires. Cette notion regroupe des attitudes exprimant des orientations hiérarchiques complémentaires :

  • l’orientation à la dominance sociale, une attitude orientée vers l’établissement de relations hiérarchiques, inégalitaires entre les groupes humains ;

  • l’autoritarisme de droite, une attitude orientée vers l’appui conservateur aux individus dominants.

La recherche en psychologie expérimentale, en génétique comportementale et en neurosciences montre invariablement que ce sont les attitudes autoritaires, plus que toute autre variable (personnalité, éducation, culture notamment), qui déterminent les attitudes intergroupes, les attitudes politiques, et ainsi le comportement plus ou moins coercitif, inégalitaire, et intolérant des personnes.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Autoritarisme dans la police

Étudions le cas d’un groupe : la police. Plusieurs études montrent que les policiers nouvellement recrutés ont des scores significativement plus élevés à l’échelle d’autoritarisme de droite que la population générale.

Ce résultat important suggère que les personnes autoritaires sont plus susceptibles de choisir une carrière dans la police (autosélection) et/ou que la police a tendance à privilégier les personnes autoritaires pour le recrutement (sélection). Les personnes autoritaires et l’institution policière semblent réciproquement attirées, ce qui entraîne un biais de sélection orienté vers l’autoritarisme de droite qui, on l’a vu, est responsable d’attitudes politiques conservatrices et d’attitudes intergroupes négatives.

À des fins de recherche, des universitaires ont développé un jeu vidéo simulant la situation d’un policier confronté à une cible ambiguë et devant décider de tirer ou non. Des personnes noires ou blanches apparaissent sur un écran de manière inattendue, dans divers contextes (parc, rue, etc.) Elles tiennent soit un pistolet, soit un objet inoffensif comme un portefeuille. Dans une étude menée aux États-Unis, les chercheurs ont comparé la vitesse à laquelle les policiers décident de tirer, ou de ne pas tirer, dans quatre conditions :

(i) cible noire armée,

(ii) cible blanche armée,

(iii) cible noire non armée,

(iv) cible blanche non armée.

Les résultats montrent que les policiers décidaient plus rapidement de tirer sur une cible noire armée, et de ne pas tirer sur une cible blanche non armée. Ils décidaient plus lentement de ne pas tirer sur une cible noire non armée, et de tirer sur une cible blanche armée. Ces résultats montrent un biais raciste dans la prise de décision des policiers. Ils réfutent l’hypothèse d’une violence policière exercée par seulement « quelques mauvaises pommes ».

On observe dans toutes les régions du monde une sur-représentation des groupes subordonnés parmi les victimes de la police (e.g., minorités ethniques, personnes pauvres). Les chercheurs en psychologie sociale Jim Sidanius et Felicia Pratto proposent la notion de terreur systémique (systematic terror) pour désigner l’usage disproportionné de la violence contre les groupes subordonnés dans une stratégie de maintien de la hiérarchie sociale.

Soutien des personnes subordonnées au statu quo

On peut s’interroger sur la présence dans la police de membres de groupes subordonnés (e.g., minorités ethniques, femmes).

Une explication est l’importance des coalitions dans les hiérarchies sociales tant chez les humains que chez les primates non humains, comme les chimpanzés, une espèce étroitement apparentée à la nôtre. On reconnaît typiquement une coalition quand des individus menacent ou attaquent de manière coordonnée d’autres individus. Le primatologue Bernard Chapais a identifié plusieurs types de coalition, notamment :

  • les coalitions conservatrices (des individus dominants s’appuient mutuellement contre des individus subordonnés qui pourraient les renverser) ;

  • l’appui conservateur aux individus dominants (des individus subordonnés apportent un appui aux individus dominants contre d’autres individus subordonnés) ;

  • les coalitions xénophobes (des membres d’un groupe attaquent des membres d’un autre groupe pour la défense ou l’expansion du territoire).

La police regroupe des individus subordonnés motivés par l’appui conservateur aux individus dominants (tel que mesuré par l’échelle d’autoritarisme de droite) et la xénophobie (telle que mesurée par les échelles de racisme).

Dans son ensemble, la recherche en psychologie sociale réfute la thèse de la banalité du mal. La violence dans les hiérarchies sociales est exercée par des individus qui se distinguent par leur orientation autoritaire, et ainsi par un comportement particulièrement coercitif, inégalitaire, et intolérant.

Le mauvais état de la démocratie dans le monde suggère une prévalence importante des traits autoritaires. Lutter contre l’actuelle récession démocratique implique, selon nous, la compréhension de ces traits.

The Conversation

Johan Lepage ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

30.05.2025 à 11:25

Pourquoi certaines plantes ont différents types de feuilles : les secrets de l’hétérophyllie

Céline Leroy, Directrice de recherche en écologie tropicale, Institut de recherche pour le développement (IRD)

Loin d’être une bizarrerie botanique, l’hétérophyllie est une véritable stratégie d’adaptation, permettant à certaines plantes de mieux faire face à la diversité des contraintes de leur environnement.
Texte intégral (3046 mots)
Toutes ces feuilles ont été prélevées sur la même plante : un houx commun. Frank Vincentz, CC BY

Avez-vous déjà observé une plante avec des feuilles de formes différentes ? Ce phénomène, à la fois surprenant et fascinant, porte un nom : l’hétérophyllie. Loin d’être une bizarrerie botanique, il s’agit d’une véritable stratégie d’adaptation, permettant à certains végétaux de mieux faire face à la diversité des contraintes de leur environnement.


Vous avez sans doute déjà croisé du houx en forêt, dans un jardin ou même en décoration de Noël. Ses feuilles piquantes sont bien connues. Mais avez-vous déjà remarqué que toutes ne sont pas armées de piquants ? Sur une même plante, on trouve des feuilles épineuses en bas, et d’autres lisses plus haut. Ce n’est pas une erreur de la nature, mais un phénomène botanique fascinant : l’hétérophyllie, un mot qui vient du grec heteros signifiant différent, et de phullon, qui désigne la feuille.

Cette particularité s’observe chez de nombreuses espèces, aussi bien terrestres qu’aquatiques, où un même individu peut produire des feuilles très différentes par leur taille, leur forme, leur structure, voire leur couleur. Loin d’être simplement esthétique, cette diversité joue un rôle crucial dans la survie, la croissance et la reproduction des plantes.

Mais d’où vient cette capacité à changer de feuilles ? L’hétérophyllie peut en fait être déclenchée par des variations de l’environnement (lumière, humidité, faune herbivore…). Cette faculté d’adaptation est alors le résultat de ce qu’on appelle la plasticité phénotypique. L’hétérophyllie peut aussi résulter d’une programmation génétique propre à certaines espèces, qui produisent naturellement plusieurs types de feuilles. Quelle qu’en soit l’origine, la forme d’une feuille est le résultat d’une série d’ajustements complexes en lien avec les conditions environnementales du milieu.

Se défendre là où ça compte : quand les plantes adaptent leurs feuilles aux herbivores

Si l’on reprend le cas du houx commun (Ilex aquifolium), celui-ci offre un exemple frappant d’hétérophyllie défensive en réaction à son environnement. Sur un même arbuste, les feuilles basses, à portée d’herbivores, ont des piquants ; celles plus haut sur la tige, hors d’atteinte des animaux, sont lisses et inoffensives. Cette variation permet à la plante d’optimiser ses défenses là où le danger est réel, tout en économisant de l’énergie sur les zones moins exposées, car produire des épines est coûteux.

Des recherches ont montré que cette répartition n’est pas figée. Dans les zones très pâturées, les houx produisent plus de feuilles piquantes, y compris en hauteur, ce qui indique une capacité de réaction à la pression exercée par les herbivores. Cette plasticité phénotypique est donc induite par l’herbivorie. Mais le houx n’est pas un cas isolé. D’autres plantes déploient des stratégies similaires, parfois discrètes, traduisant une stratégie adaptative : modifier la texture, la forme ou la structure des feuilles pour réduire l’appétence ou la digestibilité, et ainsi limiter les pertes de tissus.

Lumière et ombre : quand l’éclairement façonne les feuilles

La lumière joue un rôle tout aussi déterminant dans la morphologie des feuilles. Chez de nombreuses espèces, les feuilles exposées à une lumière intense n’ont pas la même forme que celles situées à l’ombre.

Les feuilles dites « de lumière », que l’on trouve sur les parties supérieures de la plante ou sur les branches bien exposées, sont souvent plus petites, plus épaisses et parfois plus profondément découpées. Cette forme favorise la dissipation de la chaleur, réduit les pertes d’eau et augmente l’efficacité de la photosynthèse en milieu lumineux. À l’inverse, les feuilles d’ombre, plus grandes et plus minces, sont conçues pour maximiser la surface de captation de lumière dans des conditions de faible éclairement. Elles contiennent souvent davantage de chlorophylle, ce qui leur donne une couleur plus foncée.

Ce contraste est particulièrement visible chez les chênes, dont les feuilles supérieures sont épaisses et lobées, tandis que celles situées plus bas sont larges, souples et moins découpées. De très nombreuses plantes forestières présentent également ces différences. Sur une même plante, la lumière peut ainsi façonner les feuilles en fonction de leur position, illustrant une hétérophyllie adaptative liée à l’exposition lumineuse.

Vivre entre deux mondes : les plantes aquatiques à feuilles à double forme

Chez les plantes aquatiques ou amphibies, l’hétérophyllie atteint des formes encore plus spectaculaires. Certaines espèces vivent en partie dans l’eau, en partie à l’air libre et doivent composer avec des contraintes physiques très différentes.

C’est le cas de la renoncule aquatique (Ranunculus aquatilis), qui produit des feuilles très différentes selon leur emplacement. Les feuilles immergées sont fines, allongées et très découpées, presque filamenteuses.

Renoncules aquatiques (_Ranunculus aquatilis_)
Renoncules aquatiques (Ranunculus aquatilis) H. Tinguy INPN, CC BY

Cette morphologie réduit la résistance au courant, facilite la circulation de l’eau autour des tissus et améliore les échanges gazeux dans un milieu pauvre en oxygène. En revanche, les feuilles flottantes ou émergées sont larges, arrondies et optimisées pour capter la lumière et absorber le dioxyde de carbone de l’air. Ce phénomène est réversible : si le niveau d’eau change, la plante ajuste la forme de ses nouvelles feuilles.

La sagittaire aquatique (Sagittaria spp.) présente elle aussi une hétérophyllie remarquable, avec des feuilles émergées en forme de flèche, épaisses et rigides et des feuilles souvent linéaires et fines sous l’eau. Ces changements illustrent une stratégie morphologique adaptative, qui permet à une même plante d’exploiter efficacement des milieux radicalement différents.


Visuel d'illustration de la newsletter Ici la Terre représentant la planète Terre sur un fond bleu.

Abonnez-vous dès aujourd'hui.

Pour suivre au plus près les questions environnementales, retrouvez chaque jeudi notre newsletter thématique « Ici la Terre ».


Changer avec l’âge : quand la diversité des feuilles est inscrite dans le développement des plantes

Mais l’hétérophyllie ne résulte pas toujours de l’environnement. Chez de nombreuses espèces, elle accompagne simplement le développement naturel de la plante. À mesure que la plante grandit, elle passe par différents stades de développement, au cours desquels elle produit des feuilles de formes distinctes.

Ce processus, appelé « hétéroblastie », marque bien souvent le passage entre les phases juvénile et adulte. Un exemple classique est celui du lierre commun (Hedera helix). Les tiges rampantes ou grimpantes portent des feuilles lobées caractéristiques du stade juvénile, tandis que les tiges qui portent les fleurs, situées en hauteur, portent des feuilles entières et ovales. Ce changement est irréversible et marque l’entrée de la plante dans sa phase reproductive.

Le lierre (_Hedera helix_) présente deux types de feuilles : les premières, celles qu'on connait le mieux, sont lobées, celles que l'on trouve sur les rameaux floraux sont plus claires, entières et ovales.
Le lierre (Hedera helix) présente deux types de feuilles : les premières, celles qu’on connaît le mieux, sont lobées et celles que l’on trouve sur les rameaux floraux sont plus claires, entières et ovales. S. Filoche-O. Roquinarc'h/INPN, CC BY

À lire aussi : Le lierre « tueur d’arbre » : entre préjugés, ignorance et réalité


Un autre exemple frappant est celui de certains acacias australiens. Les jeunes individus développent des feuilles composées, typiques des légumineuses. À mesure qu’ils grandissent, ces feuilles sont progressivement remplacées par des phyllodes, des pétioles (c’est-à-dire la partie qui unit chez la plupart des plantes la base de la feuille et la tige) élargis qui assurent la photosynthèse tout en limitant l’évaporation (voir planche dessins, ci-dessous). Ces structures en forme de faucille sont particulièrement bien adaptées aux climats chauds et secs, car elles peuvent maintenir une activité photosynthétique efficace tout en minimisant les pertes hydriques.

Céline Leroy, Fourni par l'auteur

Les processus derrière l’hétérophyllie

Les mécanismes qui permettent à une plante de modifier la forme de ses feuilles sont complexes et encore mal compris. On connaît mieux les formes que prennent les feuilles que les mécanismes qui les déclenchent ou les fonctions qu’elles remplissent.

Chez certaines espèces, des hormones végétales telles que l’éthylène, l’acide abscissique (ABA), les auxines ou encore les gibbérellines (GA) jouent un rôle central dans le déclenchement des différentes formes de feuilles. Chez le houx, la différence entre feuilles piquantes et lisses serait liée à des modifications réversibles de la structure de l’ADN, sans altération des gènes eux-mêmes, déclenchées par la pression exercée par les herbivores.

Les plantes hétéroblastiques, quant à elles, sont principalement contrôlées par des mécanismes génétiques et moléculaires. La succession des types de feuilles au cours du développement peut néanmoins être accélérée ou retardée en fonction des conditions de croissance, traduisant une interaction fine entre développement et environnement.

La régulation de l’hétérophyllie repose ainsi sur une combinaison d’interactions hormonales, génétiques, épigénétiques et environnementales. Ce phénomène constitue également un exemple remarquable de convergence évolutive, car l’hétérophyllie est apparu indépendamment dans des lignées végétales très différentes. Cela suggère qu’il s’agit d’une solution robuste face à la diversité des conditions présentes dans l’environnement.

Les recherches futures, notamment grâce aux outils de génomique comparative, d’épigénomique et de transcriptomique, permettront sans doute de mieux comprendre l’évolution et les avantages adaptatifs de cette étonnante plasticité des formes de feuilles.

The Conversation

Céline Leroy a reçu des financements de ANR et de l'Investissement d'Avenir Labex CEBA, Centre d'Etude de la Biodiversité Amazonienne (ref. ANR-10-LABX-25-01).

PDF

29.05.2025 à 20:00

Une nouvelle étude montre que la lèpre existait en Amérique bien avant l’arrivée des Européens

Nicolas Rascovan, Chercheur à l'Institut Pasteur, Université Paris Cité

Charlotte Avanzi, Assistant Professor, Colorado State University

Maria Lopopolo, Chercheur à l'Institut Pasteur, Université Paris Cité

Une nouvelle étude démontre que la lèpre infecte les humains en Amérique depuis au moins 1 000 ans, soit plusieurs siècles avant la colonisation européenne.
Texte intégral (1976 mots)

Longtemps considérée comme une maladie infectieuse introduite en Amérique par les colonisateurs européens, la lèpre pourrait en fait avoir une histoire bien plus ancienne et plus complexe sur le continent. Une nouvelle étude internationale, publiée aujourd’hui dans la revue Science, révèle que Mycobacterium lepromatosis, une bactérie récemment identifiée qui cause la lèpre, infecte les humains en Amérique depuis au moins 1 000 ans, soit plusieurs siècles avant le contact européen.


La lèpre est une maladie chronique ancienne qui se manifeste par des lésions de la peau, des nerfs périphériques, de la muqueuse des voies respiratoires supérieures ainsi que des yeux. Elle est présente dans plus de 120 pays et 200 000 cas sont notifiés chaque année selon l’OMS. Les personnes touchées par la lèpre sont atteintes de difformités physiques et sont également confrontées à la stigmatisation et à la discrimination. Cependant, la lèpre est curable et le traitement à un stade précoce permet d’éviter les séquelles.

Cette maladie a longtemps été associée à une seule bactérie : Mycobacterium leprae, responsable de la forme dite « classique » de la maladie, décrite dans les manuels et prédominante à l’échelle mondiale. En 2008, une seconde espèce, Mycobacterium lepromatosis, a été identifiée au Mexique. Elle provoque des symptômes cliniquement très similaires, si bien qu’elle passe souvent inaperçue – seuls des tests génétiques ciblés permettent de la distinguer de M. leprae. Bien que le développement d’outils génétiques ait permis une intensification des recherches sur cette bactérie, les cas humains confirmés restaient principalement localisés en Amérique, notamment au Mexique et dans la région des Caraïbes. En 2016, la découverte inattendue de M. lepromatosis chez des écureuils roux dans les îles Britanniques – un réservoir animal dans une zone non endémique – a soulevé la question de l’origine géographique de cette bactérie.

Malgré des recherches intensives dans les données d'ADN anciens européens, M. lepromatosis n’a jamais été détectée sur le continent. C’est dans ce contexte que l’hypothèse d’une origine américaine a pris de l’ampleur. Notre projet est né d’une découverte fortuite de cette espèce dans les données publiées d’un individu d’Amérique du Nord daté à 1 300 ans avant le présent. Ce signal inattendu nous a conduits à étendre nos recherches, en retraçant sa présence passée par des analyses d’ADN ancien, et en documentant sa diversité actuelle à travers des cas modernes, pour mieux comprendre l’histoire et la circulation de ce pathogène largement négligé.

Cette étude est essentielle pour éclairer les mécanismes de transmission des bactéries responsables de la lèpre, en particulier en tenant compte de la diversité des réservoirs possibles. En reconstituant l’histoire évolutive et la distribution géographique de M. lepromatosis, nous espérons mieux comprendre comment cette bactérie se transmet encore aujourd’hui.

Nous avons analysé près de 800 échantillons, y compris des restes anciens d’ancêtres autochtones (couvrant plusieurs millénaires, jusqu’à 6 000 ans en arrière) et des cas cliniques modernes. Nos résultats confirment que M. lepromatosis était déjà largement répandue, du nord au sud du continent américain, bien avant la colonisation, et apportent une nouvelle perspective sur les souches qui circulent aujourd’hui.

Cette découverte modifie en profondeur notre compréhension de l’histoire de la lèpre en Amérique. Elle montre que la maladie était déjà présente parmi les populations autochtones depuis des siècles avant le contact européen, et qu’elle a évolué localement sur le continent.

Un aspect essentiel de ce projet a été la collaboration avec des communautés autochtones du Canada et d’Argentine. Celles-ci ont été activement impliquées dans les décisions concernant l’étude des restes humains anciens, la restitution des matériaux, ainsi que l’interprétation des résultats. Une représentante autochtone figure parmi les autrices de l’article. Cette démarche vise à respecter les principes d’éthique de la recherche et à renforcer le dialogue entre sciences et savoirs communautaires.

Une enquête à l’échelle du continent

Nous avons mené le dépistage le plus vaste jamais réalisé pour ce pathogène, en analysant à la fois des restes humains anciens et des échantillons cliniques provenant de cinq pays : Mexique, États-Unis, Brésil, Paraguay et Guyane française. La plupart des cas positifs ont été identifiés au Mexique et aux États-Unis, ce qui reflète probablement à la fois une présence réelle du pathogène dans ces régions, mais aussi un échantillonnage plus intensif dans ces pays.

Pour retrouver des traces de pathogènes dans des restes humains anciens, nous avons utilisé une approche paléogénomique, une discipline qui permet d’extraire et d’analyser l’ADN conservé dans les os ou dans les dents pendant des siècles, voire des millénaires. Ce que nous récupérons est un mélange très complexe : de l’ADN du sol, des bactéries environnementales, de la personne décédée, et parfois – si l’individu était malade au moment de sa mort – de l’ADN de l’agent pathogène qui l’a infecté. Grâce aux technologies de séquençage à haut débit, nous lisons tous ces fragments d’ADN (souvent très courts, entre 30 et 100 bases), puis nous les comparons à de grandes bases de données contenant les génomes de tous les agents pathogènes connus.

Dans ce cas précis, nous avons identifié dans les échantillons anciens de petits fragments d’ADN couvrant environ 80 % du génome de Mycobacterium lepromatosis, ce qui nous a permis de confirmer sa présence chez un individu précolombien. Ensuite, nous avons concentré nos efforts sur cet échantillon pour récupérer davantage de fragments du pathogène, jusqu’à pouvoir reconstituer son génome complet. Cela nous a permis non seulement de confirmer l’infection, mais aussi d’analyser l’évolution génétique de la bactérie à travers le temps.

Fait remarquable, la bactérie a été retrouvée dans les ossements de trois individus anciens – une femme originaire du Canada actuel, datée par radiocarbone à environ 1 300 ans avant le présent (AP), et une femme et un homme d’Argentine actuelle, datés à environ 900 ans AP. Bien que séparés par plus de 10 000 km, leurs infections datent d’une période relativement proche (il y a près de 1 000 ans), et leurs souches sont génétiquement et évolutivement similaires. Cela suggère que la bactérie s’était largement répandue sur le continent en seulement quelques siècles. On ignore encore si cette dispersion rapide est due à des réseaux humains (commerce, contacts) ou à des animaux à forte mobilité.

Notre étude permet également de mieux comprendre un mystère ancien : la présence de Mycobacterium lepromatosis chez les écureuils roux dans les îles Britanniques. En 2016, une étude menée par la Dre Charlotte Avanzi, aujourd’hui co-première autrice de notre travail, avait révélé pour la première fois que ces animaux étaient porteurs de la bactérie, mais sans pouvoir expliquer son origine ni comment elle avait atteint les îles Britanniques.

Grâce à nos nouvelles analyses phylogénétiques, nous montrons que ces souches animales appartiennent à un lignage dérivé d’un ancêtre commun qui aurait émergé il y a environ 3 200 ans – bien avant les premiers contacts transatlantiques –, mais que leur diversification locale n’a commencé qu’au XIXe siècle. Cela suggère fortement une introduction récente depuis les Amériques, suivie d’une expansion dans la population d’écureuils. C’est la première preuve que M. lepromatosis, historiquement endémique aux Amériques, a commencé à se diffuser sur d’autres continents – une dynamique inverse à celle de M. leprae, arrivé en Amérique depuis l'Europe et l'Afrique avec la colonisation.

Ces résultats soulèvent des implications importantes en santé publique et appellent à surveiller la propagation intercontinentale de ce pathogène.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Une histoire évolutive ancienne toujours en cours

Parmi les découvertes les plus frappantes de notre étude figure l’identification d’un lignage très ancien de Mycobacterium lepromatosis, appelé NHDP-LPM-9, que nous avons retrouvé chez deux personnes aux États-Unis. Ce lignage se distingue de toutes les autres souches connues par un nombre significativement plus élevé de mutations, et notre analyse suggère qu’il aurait divergé des autres lignages, il y a plus de 9 000 ans. À titre de comparaison, la grande majorité des souches modernes que nous avons analysées – 24 sur 26 – appartiennent à un groupe beaucoup plus homogène, que nous avons appelé « clade dominant actuel » (Present-Day Dominant Clade, ou PDDC), qui représente environ deux tiers de la diversité génétique connue aujourd’hui. Ce clade semble s’être étendu après la colonisation européenne, probablement en lien avec les profonds bouleversements sociaux, écologiques et démographiques de l’époque.

La co-circulation actuelle de deux lignages ayant divergé il y a plusieurs millénaires suggère que d’autres lignées anciennes pourraient encore exister, mais être passées inaperçues jusqu’ici. Étant donné sa très faible fréquence apparente dans les cas humains récents, il est probable que M. lepromatosis ait évolué en partie dans un ou plusieurs réservoirs, depuis lesquels il pourrait occasionnellement infecter des humains. Ces résultats soulignent l’importance de mieux surveiller ce pathogène, encore très mal connu, pour en comprendre les mécanismes d’infection et de transmission.

Cette recherche bouleverse non seulement notre compréhension de l’origine de la lèpre, mais contribue à une question plus large : quelles maladies infectieuses existaient en Amérique avant 1492 ? Depuis des siècles, chercheurs et communautés autochtones s’interrogent sur le rôle des maladies dans l’histoire du continent. Cette étude apporte une nouvelle pièce à ce puzzle complexe.

The Conversation

Nicolás Rascovan est membre de l'UMR 2000 du CNRS Nicolás Rascovan a reçu financement Européen de l'ERC et Français de l'ANR

Charlotte Avanzi a reçu des financements de la Fondation Raoul Follereau

Maria Lopopolo a été financée pendant sa thèse de doctorat par l’Agence Nationale de la Recherche (ANR) et la Fondation pour la Recherche Médicale (FRM).

PDF

28.05.2025 à 17:03

Elon Musk, l’homme le plus riche du monde, peut-il être renvoyé de l’entreprise qu’il dirige ?

François-Xavier Dudouet, Directeur de recherche sociologie des grandes entreprises, Université Paris Dauphine – PSL

Elon Musk, l’ex-conseiller DOGE de Trump et toujours patron de Tesla peut-il être poussé vers la sortie par son conseil d’administration, quand bien même il est l’homme le plus riche du monde ?
Texte intégral (2319 mots)

En se rapprochant du président des États-Unis et en étant son conseiller chargé du département de l’efficacité gouvernementale (Department of Government Efficiency, DOGE), Elon Musk semblait avoir tout réussi et cumulé tous les pouvoirs : politique, économique, idéologique… Patatras ! En quelques semaines, son implication politique a eu des répercussions sur ses activités de chef d’entreprise de Tesla. La marque a été chahutée, au point qu’il est devenu possible de se poser une question qui aurait semblé impensable il y a six mois encore : et si l’avenir de Tesla se faisait sans Musk ? Est-ce souhaitable ? Possible ?


Le 1er mai 2025, le Wall Street Journal publiait un article selon lequel le conseil d’administration de Tesla avait entamé des démarches pour remplacer Elon Musk au poste de directeur général. L’annonce était aussitôt démentie par l’intéressé mais aussi par la présidente du conseil d’administration, Robyn Denholm, qui assurait que l’ensemble des administrateurs maintenait sa pleine confiance dans l’actuel directeur général. Cette annonce, qui semble avoir fait long feu, est l’occasion de revenir sur le fonctionnement de la gouvernance des grandes entreprises et de voir si, techniquement un actionnaire important, fût-il l’homme le plus riche du monde, peut être renvoyé l’entreprise qu’il dirige.

Pour rappel, Elon Musk dirige trois sociétés : SpaceX qu’il a fondé en 2002, Tesla, dont il a pris le contrôle entre 2004 et 2008 et X (ex-Twitter) qu’il a racheté en 2022. Sa fortune provient essentiellement des actions Tesla dont la valorisation spectaculaire en 2024 a fait de lui l’homme le plus riche du monde. Toutefois, le cours de l’action Tesla s’est depuis effondré, atteignant un plus bas à 221 $ en avril 2025 contre 479 $ en décembre 2024. Dans le même temps, la société affichait des ventes en recul de 13 % et des bénéfices en chute de 71 %. Très fortement engagé auprès de Donald Trump et de son administration, Elon Musk est régulièrement accusé de nuire à l’image de marque du constructeur et, surtout, d’avoir délaissé la gestion quotidienne de la compagnie. C’est dans ce contexte que prennent place les révélations du Wall Street Journal.

Du déjà-vu

L’histoire du monde des affaires fourmille d’exemples de dirigeants actionnaires qui ont été contraints à la démission. Pour s’en tenir à l’univers de la Tech, on se rappelle que ce fut le cas de Steve Jobs, qui, bien que fondateur et actionnaire d’Apple, avait été poussé vers la sortie par le directeur général de l’époque, John Sculley, soutenu par le conseil d’administration. Larry Page et Sergei Brin, les fondateurs de Google, ont eux aussi très tôt laissé les rênes de la firme à un manager expérimenté, Eric Schmidt choisi par le conseil d’administration pour mener à bien l’introduction en bourse de la société. Les deux fondateurs d’Uber, Travis Kalanick et Garrett Camp, ont été progressivement écartés au point, aujourd’hui, de ne même plus être administrateurs de la société.

Elon Musk n’a pas fait autre chose à la tête de Tesla. Arrivé comme investisseur en 2004, il entre au conseil d’administration et en devient le président. Quelques années plus tard, il force le fondateur et directeur général, Martin Eberhard, à la démission. Après deux directeurs généraux intérimaires, il prend lui-même la direction exécutive de Tesla en 2008, cumulant les fonctions de président et de directeur général jusqu’en 2018, date à laquelle il est contraint, par la Securities and Exchange Commission d’abandonner la présidence du conseil d’administration. Ces différents exemples montrent bien qu’il ne suffit pas d’être actionnaire, ni même de détenir la majorité des droits de vote, pour diriger une société par actions. Il est primordial d’avoir l’appui du conseil d’administration car c’est cette instance qui, au final, fait et défait les directeurs généraux.

Les conseils d’administration : le vrai pouvoir

Les sociétés par actions ne sont pas des propriétés privées de leurs dirigeants mais des entités autonomes ayant une personnalité juridique et une existence propres. Les actions ne sont pas, en effet, des titres de propriété mais des droits sur la société. Les actionnaires, même quand ils possèdent la majorité des droits de vote, ne peuvent faire ce qui leur semble bon. Ils ne peuvent même pas pénétrer dans l’entreprise pour y prendre un boulon. Celui-ci appartient à la société non à eux. Les actionnaires ne sont donc pas les dirigeants par défaut ou par principe des sociétés par actions.


À lire aussi : Combien coûte l’ego d’Elon Musk ? Ou quand l’hubris des dirigeants devient un risque systémique


Cette fonction est dévolue au conseil d’administration, certes élu par les actionnaires, mais qui n’est pas, contrairement à ce qu’affirme la théorie économique dominante, au service de ces derniers. Les administrateurs ne représentent pas les actionnaires mais la société, dont ils sont les mandataires sociaux, c’est-à-dire les personnes qui sont habilitées à penser et à agir au nom de la société. S’ils suivent des politiques qui vont dans le sens des actionnaires, c’est qu’ils y trouvent leur intérêt, non qu’ils y soient légalement tenus. Leur pouvoir sur la société est très étendu : ils décident des grandes orientations stratégiques, établissent les comptes, proposent les dividendes, décident des émissions d’actions nouvelles et surtout nomment le directeur général. Leur autonomie est telle qu’ils sont en mesure de se coopter entre eux et de faire valider leur choix par les assemblées générales. C’est pourquoi il est important de se tourner vers la composition du conseil d’administration de Tesla pour comprendre comment Elon Musk a construit sa position de directeur général.

La valeur de l’entre-soi

L’examen de la composition du conseil d’administration de Tesla montre, à première, vue des administrateurs totalement acquis à la cause d’Elon Musk. On y trouve tout d’abord Kimbal Musk, son frère, membre du conseil depuis 2004. Il a jusqu’à présent été loyal envers son aîné même si, contrairement à lui, il n’a pas renié ses convictions démocrate et écologiste. Ira Ehrenpreis est l’un des tout premiers investisseurs de Tesla. Présent au conseil d’administration depuis 2006, il peut être considéré comme un fidèle soutien. Robyn Denhom, la présidente du conseil d’administration, a été choisie par Elon Musk pour prendre sa place quand il a été contraint d’abandonner la fonction. Australienne d’origine, Robyn Denhom était assez peu connue du monde des affaires américain avant de devenir administratrice puis présidente de la compagnie. James Murdoch, administrateur depuis 2017, est le fils du magnat de la presse Robert Murdoch dont la chaîne Fox News est un soutien indéfectible de Donald Trump. Joe Gebbia, administrateur depuis 2022, est le co-fondateur de Airbnb. Il a rejoint Elon Musk au DOGE en février dernier.


Abonnez-vous dès aujourd’hui !

Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).


Kathleen Wilson-Thompson a fait toute sa carrière dans l’industrie pharmaceutique comme directrice des ressources humaines. Elle est sans doute l’administratrice la plus éloignée d’Elon Musk mais apportant au conseil le quota de féminisation et de diversité qui lui manque par ailleurs. Jeffrey Brian Straubel, enfin, est l’ancien directeur technique de Tesla. Présent dès les origines, il se flatte d’avoir été le cinquième employé de la société. Sa nomination en 2023 a fait grand bruit en raison des liens jugés trop étroits avec Elon Musk. Que ce soit par fraternité, idéologie ou carriérisme, les motifs de soutien à Elon Musk ne manquent pas. Ils sont encore renforcés par une politique de rémunération particulièrement généreuse à l’égard du conseil d’administration dont les membres s’attribuent régulièrement d’importants plans de stock-options. Robyn Denholm est ainsi la présidente la mieux rémunérée de l’ensemble des sociétés cotées américaines.

Les murs s’effritent

Elon Musk n’est pas en reste bénéficiant de plans d’actions très avantageux octroyés par le conseil d’administration. Il existe entre Elon Musk et son conseil un circuit d’enrichissement réciproque qui n’est pas sans rappeler les relations d’interdépendances décrites par le sociologue Norbert Elias à propos de la cour de Louis XIV tant les chances de profits de l’un sont liées à celles des autres. Ainsi que le rapportait récemment Olivier Alexandre, un autre sociologue, de la bouche d’un journaliste spécialiste de la Silicon Valley : « Si tu veux comprendre ce qui se passe ici, il faut suivre l’argent ».

Or, les flux d’argent se sont récemment taris chez Tesla. En premier lieu, des décisions de justice ont remis en question les rémunérations que les mandataires sociaux s’étaient attribuées. En novembre 2024, la cour du Delaware a annulé le plan d’actions attribué à Elon Musk en 2018 qui lui aurait permis d’empocher 58 milliards de dollars, au motif que les actionnaires n’avaient pas été correctement informés.

En janvier 2025, la même cour du Delaware constatait que les administrateurs de Tesla s’étaient indûment enrichis au détriment des actionnaires et approuvait un accord par lequel les premiers s’engageaient à rembourser près d’un milliard de dollars. Dans le même temps, alors que le cours de l’action de Tesla commençait à baisser, de nombreux administrateurs se sont délestés de leurs actions, quitte à accélérer la chute. Était-ce pour faire face à leur récente condamnation ou bien pour ne pas risquer de trop perdre ? Le fait est qu’ils ont vendu dans un contexte peu favorable et envoyé un signal très négatif aux investisseurs.

Une fidélité gagée sur la rémunération ?

Ainsi, la présidente, Robyn Denhom, a vendu pour 200 millions de dollars d’actions depuis le mois de décembre 2024, Kimbal Musk s’est séparé de 75 000 actions Tesla pour la somme de 28 millions de dollars en février 2025, James Murdoch a à son tour a vendu 54 000 actions en mars 2025 pour 13 millions de dollars contribuant à la plus forte baisse journalière du titre. En mai, alors que le cours de l’action était bien remonté, c’est Kathleen Wilson-Thompson qui vend pour 92 millions de dollars d’actions Tesla. La fidélité des administrateurs à l’égard d’Elon Musk a donc ses limites qui sont visiblement la crainte de ne pas s’enrichir assez.

France 24, 2025.

La réponse à la question initiale de savoir si l’homme le plus riche du monde peut être renvoyé de l’entreprise qu’il dirige, fût-il le premier actionnaire, est donc oui. Les statuts juridiques de la société par actions confèrent la capacité de nommer ou de révoquer le directeur général aux administrateurs non aux actionnaires. Ce sont donc les rapports sociaux entre le conseil d’administration et le directeur général qui décident du sort de ce dernier. Dans le cas de Tesla, l’argent y jouait un rôle central, il n’est donc pas étonnant qu’ils soient entrés en crise au moment où la société commençait à connaître des difficultés financières. Le fonctionnement du conseil d’administration de Tesla est certainement peu ordinaire mais il invite à se demander si le fondement du pouvoir économique dans les sociétés par actions ne repose pas tant sur l’argent détenu que sur celui que l’on peut faire gagner.

The Conversation

François-Xavier Dudouet est membre du CNRS. I a reçu des financements de l'Agence nationale de la recherche

PDF

28.05.2025 à 17:02

Grande criminalité : au-delà du narcotrafic, les nouvelles menaces liées au numérique et à l’IA

Clotilde Champeyrache, Maitre de Conférences HDR, Conservatoire national des arts et métiers (CNAM)

Un rapport d’Europol étudie les mutations de la criminalité, notamment liées au numérique et à l’intelligence artificielle. Quel est le nouveau visage du crime ? Quelles sont les permanences ?
Texte intégral (1663 mots)

Un rapport européen analyse les mutations de la criminalité liées au numérique et à l’intelligence artificielle. Quel est le nouveau visage du crime ? Quelles sont les permanences ? Quelles politiques publiques pour répondre aux menaces, au-delà du narcotrafic, qui cristallise l’essentiel de l’attention politique et médiatique en France ?


Comme tous les quatre ans, Europol, l’agence de coopération policière européenne, a publié en mars dernier son rapport UE-Socta faisant le point sur la menace posée par la grande criminalité organisée en Europe. À partir des informations fournies par les États membres de l’Union européenne (UE) et des États tiers associés, Europol y analyse « les principales menaces criminelles, la dynamique des réseaux criminels et les tendances émergentes ». Cette synthèse permet d’établir des priorités dans la lutte que l’UE se doit de mener dans le champ de la criminalité et de proposer des moyens d’adapter cette lutte aux évolutions du panorama criminel.

L’accent est mis tout particulièrement sur les enjeux du numérique et sur une « hybridation » du crime. La lecture du document fait opportunément prendre du recul par rapport à la focalisation française actuelle sur le trafic de stupéfiants. Cependant, les évolutions observées ne doivent pas faire oublier les permanences de la criminalité organisée.

Les enjeux du numérique

Le rapport EU-Socta 2025 dresse un panorama du crime européen sous plusieurs angles : secteurs d’activités, dynamiques, tactiques et géographie sont analysés. Le recours accru aux nouvelles technologies, aux plateformes digitales et les risques d’appropriation criminelle des possibilités offertes par l’intelligence artificielle sont amplement soulignés.

Internet est attractif pour les réseaux criminels : des activités criminelles sont à la fois permises, amplifiées et masquées par le monde online. L’intelligence artificielle est, elle, porteuse de risques majeurs par sa capacité à augmenter la rapidité, l’échelle et la sophistication de la criminalité organisée. Elle permet par exemple d’amplifier les fraudes et arnaques grâce aux deepfakes). Ces risques font d’ailleurs déjà l’objet d’une réflexion de l’Université des Nations unies qui œuvre, depuis 2021, à l’élaboration d’une Convention internationale afin de contrer l’utilisation des technologies de l’information et de la communication à des fins criminelles.

Les débats ont notamment établi une distinction entre des crimes « cyber-dependent », c’est-à-dire réalisables uniquement via l’espace cyber (soit la cybercriminalité au sens de « crime high-tech »), et des crimes « cyber-enabled », à savoir des crimes potentialisés par le cyber, mais qui existaient déjà auparavant (comme peut l’être le trafic de substances prohibées en ligne).

Répondre à ce déploiement des activités criminelles en ligne suppose que les services d’enquête eux-mêmes se forment à ces nouvelles technologies. Cela pose par ailleurs la question du contrôle régalien sur un espace Internet échappant par essence à la réglementation. L’arbitrage entre les devoirs de coopération avec les forces de l’ordre des prestataires de certains services dévoyés par le crime et le respect des libertés individuelles reste une ligne de crête complexe à gérer. La problématique risque d’alimenter nombre de débats politiques et juridiques dans les années à venir.

L’arrestation du patron de Telegram), en France, illustre ce bras de fer. Il en va de même pour le bras de fer aux États-Unis opposant les partisans d’une mise en ligne des plans d’impression d’armes en 3D et la justice).

Instabilité géopolitique et hybridation de la menace

L’instabilité géopolitique est aussi désignée comme un facteur favorisant l’expansion des réseaux criminels. Les conflits par nature alimentent les trafics : armes, prostitution, stupéfiants, marché noir… La multiplication des guerres et des troubles intérieurs dans diverses régions du monde ces dernières années ne peut qu’alarmer les autorités.

Pour l’Europe, la guerre en Ukraine constitue une menace extrêmement proche. Le risque de circulation d’armes détournées du théâtre de guerre a été appréhendé dès le début du conflit. Mais les facteurs criminogènes du conflit sont plus étendus puisqu’ils concernent notamment la production de stupéfiants à destination du front, le trafic de dispense pour le service militaire, l’exploitation de la population en fuite.

De manière peut-être moins visible, l’instabilité géopolitique accrue crée ce qu’Europol appelle des phénomènes d’hybridation. Ce sont des configurations où les intérêts de la criminalité organisée rejoignent ceux d’acteurs, éventuellement étatiques, tirant profit de la déstabilisation d’autres États ou de certaines régions du monde. L’utilisation de groupes cybercriminels par des États à des buts de déstabilisation et d’ingérence est prise en compte par la DGSI, Direction générale de la sécurité intérieure). Mais cela ne se limite pas au cyberespace. Europol explicite comment des réseaux criminels de traite des êtres humains peuvent travailler pour des États. Le but est alors d’utiliser des masses migratoires à des fins de déstabilisation). Cette hybridation peut être déroutante à appréhender par les autorités policières et judiciaires en raison du caractère inédit de certaines alliances et de la profonde hétérogénéité des acteurs impliqués.

Sortir du prisme du narcotrafic

Le rapport oblige opportunément à sortir du prisme franco-français sur la question de la criminalité. Il ne se focalise pas sur les stupéfiants et évite l’amalgame entre narcotrafic et économie criminelle. La liste des activités recensées ne place pas le trafic de stupéfiants en tête de liste. L’importance des fraudes, dont celles réalisées en ligne, rappelle que l’économie illégale n’est pas seulement d’ordre productif avec l’offre de biens et services interdits mais aussi d’ordre appropriatif : les organisations criminelles captent de façon indue une richesse qu’elles n’ont pas produite. Le rapport alerte aussi sur l’ampleur des atteintes à l’être humain) : exploitation sexuelle des mineurs, traite des êtres humains et instrumentalisation des migrations illégales.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Cette mise en perspective salutaire passe également par les méthodes criminelles : le blanchiment de l’argent sale et l’infiltration de l’économie légale, le recours à la violence et/ou à la corruption et l’exploitation d’une main-d’œuvre très jeune. Ce dernier point, observé à l’échelle européenne, est particulièrement intéressant. Il replace ces acteurs généralement mineurs dans un contexte institutionnel. Plus que des criminels affiliés, ce sont des victimes de la criminalité forcée. Cela n’est pas sans implication sur la qualification pénale de leurs actes ainsi que sur le travail de prévention à l’encontre de la jeunesse.

Nouvel ADN ou virus mutant ?

L’ADN du crime a-t-il pour autant radicalement changé comme l’affirme le titre du rapport ? Cela reste à nuancer. La criminalité organisée s’adapte, ce n’est pas nouveau. L’histoire criminelle témoigne de la capacité des criminels à développer de nouvelles affaires et marchés, à se redéployer, y compris grâce aux nouvelles technologies. Les Brigades du Tigre), créées en 1907 par Clemenceau, sont des brigades mobiles motorisées pour répondre au défi posé par des bandes criminelles utilisant des véhicules et des armes à feu. La contrefaçon utilise depuis longtemps les évolutions technologiques en termes de piratage, reproduction et impression 3D.

L’hybridation de la menace connaît aussi des antécédents : par exemple, la piraterie, officiellement réprouvée, a largement été, aux XVIe et XVIe siècles, un outil occulte au service des États européens). Au regard de ces permanences et récurrences, l’image d’un virus présentant des mutations est peut-être plus pertinente que celle d’un changement d’ADN.

The Conversation

Clotilde Champeyrache ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

28.05.2025 à 17:01

Génocide à Gaza : le mot et la chose

Vincent Chetail, Professeur de droit international, Graduate Institute – Institut de hautes études internationales et du développement (IHEID)

S’il appartient à la Cour internationale de justice de trancher sur la qualification des faits, il convient, en attendant, de se focaliser sur ce qui se passe à Gaza et de chercher à soulager les souffrances de sa population.
Texte intégral (2885 mots)

Le terme de génocide est employé par un nombre croissant d’organisations internationales, de juristes et d’historiens pour désigner l’intervention militaire israélienne à Gaza. Les discussions que suscite l’utilisation de ce concept monopolisent l’attention, au détriment de l’effroyable réalité sur le terrain et des mesures urgentes à prendre pour y faire face.


Génocide. Le mot est sur toutes les lèvres : l’État hébreu est-il en train de commettre un génocide à Gaza ? L’accusation enfle depuis plus d’un an. Elle se répand bien au-delà du cercle des militants pro-palestiniens. Le mot évoque immédiatement le mal absolu, la négation de l’humanité. En entrant dans le langage courant, il cristallise l’indignation et appelle à la mobilisation.

Comment une telle accusation est-elle apparue ? Que signifie exactement ce terme ? Que dit le droit international ? Quels sont les arguments en présence ? Les débats autour de l’existence ou non d’un génocide ne tendent-ils pas, paradoxalement, à favoriser l’inaction internationale ?

Sémantique et symbolique

Le terme de génocide charrie une vision d’horreur étroitement liée à la Shoah. Il convoque dans l’inconscient collectif des images de fosses communes et des corps décharnés des rares survivants des camps de la mort.

Le mot fut inventé en 1944 par un juriste juif d’origine polonaise réfugié aux États-Unis, Raphael Lemkin, pour souligner l’atrocité et la nature systématique des crimes nazis. C’est dire que la symbolique est forte lorsque l’accusation est portée à l’encontre de l’État précisément créé pour servir de refuge aux survivants de l’Holocauste. La victime s’est-elle transformée en bourreau ? Pour Israël, une telle allégation est « obscène ».

« Accusation de génocide : Israël devant la justice internationale », RTBF, 3 juin 2024.

Dès novembre 2023, 37 rapporteurs de l’ONU invoquent un risque génocidaire. Depuis lors, la Commission internationale d’enquête, la Rapporteure spéciale sur les droits humains dans les territoires palestiniens occupés, le Comité spécial de l’ONU sur les pratiques israéliennes ou encore les ONG Amnesty International et Human Rights Watch ont publié des rapports longs et circonstanciés concluant qu’il existe des motifs raisonnables de croire qu’un génocide est commis à Gaza.

De nombreux juristes, historiens de la Shoah et autres spécialistes de l’étude des génocides parviennent au même constat.

Le concept de génocide : hier, aujourd’hui, demain. Conférence de l’écrivain et professeur de droit Philippe Sands, auteur notamment de Retour à Lemberg, ouvrage consacré en partie à la controverse entre Raphael Lemkin et Hersch Lauterpacht sur les notions de génocide et de crime contre l’humanité. Le Grand Continent, 13 février 2025.

Le débat s’est même judiciarisé depuis que l’Afrique du Sud a saisi en décembre 2023 la Cour internationale de justice (CIJ, principal organe judiciaire de l’ONU), accusant Israël de violer la Convention pour la prévention et la répression du crime de génocide adoptée par l’ONU en 1948. Plus récemment encore, en avril 2025, le Conseil des droits de l’homme de l’ONU a adopté une résolution exigeant d’Israël de « prévenir le génocide ».

Que dit le droit international ?

Selon la Convention de 1948, le génocide se définit par deux éléments constitutifs : une intention – celle de détruire un groupe national, ethnique, racial ou religieux en tout ou partie ; et un acte – meurtre, atteinte grave à l’intégrité physique ou mentale des membres du groupe, entrave aux naissances ou soumission à des conditions d’existence devant entraîner la mort.


À lire aussi : La notion de génocide : entre l’histoire, le droit et la politique


Contrairement à une opinion répandue, un tel crime n’est pas subordonné à l’anéantissement du groupe, ni au massacre de masse.

Les condamnations judiciaires demeurent exceptionnelles. Depuis 1948, la justice internationale a reconnu l’existence d’un génocide à trois reprises seulement : la première fois en 1998 à propos du Rwanda, puis en 2001 concernant le massacre de Srebrenica en Bosnie-Herzégovine et en 2018 à l’encontre des Khmers rouges.


À lire aussi : Récit d’un voyage d’études au Rwanda, 30 ans après le génocide des Tutsi


Trois autres affaires sont en cours concernant le Soudan, Myanmar et Israël.

Quels sont les arguments en présence ?

Dans ce dernier dossier, la CIJ a rendu le 26 janvier 2024 une première ordonnance constatant « un risque réel et imminent » de « préjudice irréparable ». Ce constat ne vaut pas condamnation et ne préjuge pas du fond de l’affaire. La Cour relève néanmoins les « conditions de vie désastreuses », la « privation prolongée et généralisée de nourriture et de produits de première nécessité », « la destruction massive d’habitations », ainsi que l’ampleur des pertes, qui s’élèvent aujourd’hui, selon l’ONU, à plus de 52 000 morts et de 118 000 blessés, dont une majorité de femmes et d’enfants.


À lire aussi : Gaza, une catastrophe humanitaire avérée


Israël affirme agir en légitime défense et dans le respect du droit international humanitaire. Son droit inaliénable à la légitime défense, et l’atrocité des crimes perpétrés par le Hamas, sont incontestables. Mais à moins de renouer avec l’antique loi du talion, de tels motifs ne justifient pas de violer le droit international ni d’infliger une punition collective à l’encontre de la population civile de Gaza.

L’argument tiré du droit humanitaire est plus perspicace et requiert un examen approfondi des opérations militaires. Le terrain reste fragile car l’ampleur des pertes civiles va bien au-delà de ce qui est admis comme « dommage collatéral ».


À lire aussi : Conflit israélo-palestinien : ce que dit le droit


L’ONU a documenté de multiples bombardements indiscriminés et autres violations graves du droit humanitaire, à tel point que l’autre Cour de La Haye – la Cour pénale internationale (CPI) – a émis le 21 novembre 2024 un mandat d’arrêt pour crimes de guerre contre Benyamin Nétanyahou et son ancien ministre de la défense Yoav Gallant. Si de tels crimes de guerre étaient constatés, ils n’induisent pas en eux-mêmes une intention génocidaire.


À lire aussi : Mandats d’arrêt de la CPI contre Nétanyahou, Gallant et Deif : un tournant pour la justice internationale, pas pour la Palestine


Sur ce dernier point, la CIJ relève néanmoins diverses déclarations particulièrement choquantes : Gallant a notamment déclaré combattre des « animaux humains », tandis que le président d’Israël Isaac Herzog a affirmé à propos du 7-Octobre que « c’est toute une nation qui est responsable » (des propos dont il prétendra plus tard qu’ils ont été mal interprétés).

Pour beaucoup de juristes, rarement dans l’histoire l’intention de détruire un groupe a été formulée aussi clairement par des dirigeants étatiques. Ces déclarations surprennent d’autant plus qu’elles sont publiques et répétées : Amnesty International en a recensé plus d’une centaine entre octobre 2023 et juin 2024.

Cette rhétorique mortifère semble même avoir franchi une nouvelle étape durant les derniers mois, au point d’apparaître comme une véritable doctrine du gouvernement israélien. Le 19 mars 2025, le ministre de la défense, Israël Katz, menace la population civile de Gaza de « destruction totale » si les otages encore aux mains du Hamas ne sont pas libérés, tandis que le vice-président de la Knesset, Nissim Vaturi, appelle à « effacer la bande de Gaza de la surface de la terre ». Le 6 mai, c’est au tour du leader d’extrême droite et ministre israélien des finances, Bezalel Smotrich, d’annoncer que, grâce à l’opération en cours, dans quelques mois « Gaza sera totalement détruite ».

De telles déclarations suffiraient, à tout le moins, pour que leurs auteurs soient condamnés pour incitation au génocide. Si la condamnation par la CIJ pour génocide ou incitation à un tel crime est de plus en plus probable, le rejet d’un tel jugement par Israël est tout aussi prévisible.

Ferment de l’inaction ?

Aux accusations de génocide s’opposent celles d’antisémitisme, dans une confrontation manichéenne et stérile. Les débats se polarisent dans une opinion publique plus déchirée que jamais.

Cette polarisation est inhérente à la notion de génocide car la déshumanisation est au cœur du processus génocidaire. Le génocide transforme les victimes en sous-humains et les bourreaux en barbares. Il prive les uns et les autres de leur humanité. C’est ce qui fait tout à la fois la spécificité et la limite d’un tel crime.

La charge passionnelle du génocide se décuple lorsque sa figure emblématique, Israël, est incriminée. Loin de mobiliser les consciences, cette accusation a paralysé bon nombre de décideurs politiques par crainte de prendre parti, tout en alimentant une indignation à géométrie variable.

Les pays dit du Sud global ont réagi très tôt par la voie diplomatique et judiciaire, tandis que l’immense majorité des pays occidentaux se sont enfermés dans une sorte de mutisme, au risque d’apparaître complices des exactions commises aux yeux de tous. Après plus d’un an et demi d’immobilisme, une prise de conscience commence à se faire jour parmi les dirigeants européens.

Agnès Callamard, secrétaire générale d’Amnesty International, le déplore :

« Les pays européens n’auraient jamais dû avoir “besoin” des deux derniers mois pour conclure que les crimes d’Israël demandaient des réponses fortes et immédiates. »

Et, renchérit-elle, « n’oublions pas que ceux et celles qui ont dénoncé le génocide israélien à Gaza ont été l’objet de poursuites judiciaires, de campagnes de harcèlement dans les médias, que des étudiants aux États-Unis sont encore emprisonnés et beaucoup sont menacés ».

La reconnaissance de la Palestine est une étape cruciale dans le règlement durable du conflit, mais elle ne doit pas faire illusion : le fait que 148 pays membres de l’ONU aient déjà reconnu la Palestine n’a pas empêché les violations de se produire durant les vingt derniers mois. Parmi ces pays, douze États européens l’ont déjà reconnue et la reconnaissance tardive de derniers à ne pas l’avoir fait ne saurait apparaître comme un satisfecit de bonne conduite aux États qui ont manqué à leur obligation de réagir face à la situation.

Indépendamment même du qualificatif de génocide, les États européens devraient commencer par honorer leurs propres obligations juridiques face à des violations du droit humanitaire que nul ne peut ignorer. En de telles circonstances, les conventions de Genève leur imposent d’engager des poursuites pénales devant leurs tribunaux nationaux pour connaître des allégations de crimes de guerre à l’encontre de leurs binationaux et des ressortissants israéliens présents sur leur territoire et accusés de tels crimes.

Cette obligation de poursuite pénale s’ajoute à celle de coopérer avec la Cour pénale internationale dans l’exécution de ses mandats d’arrêt délivrés en novembre 2024.

Conformément à l’article Premier commun aux quatre conventions de Genève, tous les États parties, y compris européens, sont également tenus de faire respecter le droit humanitaire par diverses autres mesures, à commencer par les pressions diplomatiques et politiques pour mettre fin aux exactions, la suspension des ventes d’armes et des accords commerciaux avec Israël, l’arrêt de toute autre forme de soutien matériel, financier ou autre, la fourniture d’aide humanitaire sur place via les agences onusiennes et autres ONG de terrain, ou encore la coopération pleine et entière avec les différents mécanismes internationaux d’établissement des faits et les deux cours de La Haye.

Dans un monde polarisé à l’extrême, il importe plus que jamais de distinguer le mot et la chose. Le mot de génocide est une incrimination pénale qui relève de la justice ; la chose porte sur les faits eux-mêmes qui appartiennent au domaine public, tant les violations sont documentées en temps réel par l’ONU, les ONG et les médias. Quelles que soient leurs appellations juridiques, les drames humains qui se déroulent sous nos yeux sont l’affaire de tous. Ils imposent d’agir en conséquence et en conscience.

The Conversation

Vincent Chetail ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

28.05.2025 à 17:00

Vieux vêtements, nouveaux problèmes : le recyclage ne règle pas tout

Sebastien Bourdin, Professeur de Géographie économique, Titulaire de la Chaire d'excellence européenne "Economie Circulaire et Territoires", EM Normandie

Nicolas Jacquet, Chargé de Recherche ∙ Chaire d'excellence européenne Économie circulaire et Territoires, EM Normandie

Entre fast fashion, technologies limitées et exportations vers des pays sans infrastructures adaptées, le modèle circulaire vacille.
Texte intégral (2734 mots)
Chaque année, pas moins de 3 milliards de vêtements et de chaussures sont mis sur le marché en France. Beaucoup sommeilleront ensuite dans nos placards ou seront vite jetés. Helloimnik/Unsplash, CC BY

Sur le papier, recycler ses vêtements semble un geste vertueux, mais la réalité est tout autre. L’industrie textile produit des déchets en masse, tandis que le recyclage peine à suivre une consommation effrénée. Entre fast-fashion, technologies limitées et exportations vers des pays sans infrastructures adaptées, le modèle circulaire vacille.


L’industrie de la mode a connu une transformation radicale avec l’essor de la fast-fashion : des vêtements bon marché, fabriqués à partir de matériaux peu coûteux, conçus pour être portés une seule saison – voire moins – avant d’être stockés définitivement dans nos armoires ou d’être jetés. Chaque année, pas moins de 3 milliards de vêtements et chaussures sont mis sur le marché en France, d’après le Baromètre des ventes de Refashion.

Ce modèle de production et de consommation frénétique n’est pas sans conséquences : selon les estimations, l’industrie textile représenterait jusqu’à 10 % des émissions mondiales de gaz à effet de serre, soit davantage que les vols internationaux et le transport maritime réunis. En cause, la prédominance du polyester, un dérivé du pétrole, qui constitue la majorité des vêtements.

Pour s’attaquer à ce fléau, en 2022, la Commission européenne dévoilait sa stratégie pour des textiles durables et circulaires en assurant :

« À l’horizon 2030, les produits textiles mis sur le marché de l’Union seront à longue durée de vie et recyclables, dans une large mesure, fabriqués à partir de fibres recyclées, exempts de substances dangereuses, et produits dans le respect des droits sociaux et de l’environnement. »

Mais, malgré cette prise de conscience politique, la fast-fashion continue de prospérer, alimentée par une production mondiale qui a doublé depuis 2000 et une consommation effrénée poussée par des campagnes de marketing bien rôdées. En l’espace de quinze ans, la consommation occidentale de vêtements a ainsi augmenté de 60 %, alors que nous les conservons deux fois moins longtemps et que certains, très bon marché, sont jetés après seulement 7 ou 8 utilisations. Les chiffres de l’Agence européenne de l’environnement sont accablants : entre 4 % et 9 % des textiles mis sur le marché européen sont détruits avant même d’avoir été portés, soit entre 264 000 et 594 000 tonnes de vêtements éliminés chaque année.

En France, l’Agence de la transition écologique (Ademe) estime que ce gaspillage atteint entre 10 000 et 20 000 tonnes : 20 % des vêtements achetés en ligne sont retournés, et un tiers d’entre eux sont détruits. Leur traitement implique un long processus : tri, reconditionnement, transport sur des milliers de kilomètres… Une aberration écologique.

Mais alors, comment en est-on arrivé à un tel décalage entre la volonté de mieux recycler… et la réalité de nos usages vestimentaires ?

L’accumulation silencieuse des vêtements inutilisés

Une étude récente, menée en 2024 par des chercheurs de l’Université catholique de Louvain (UKL), apporte un éclairage nouveau sur nos habitudes vestimentaires. Réalisée auprès de 156 adultes vivant en Flandres (Belgique), l’enquête révèle que la garde-robe moyenne contient 198 vêtements, dont 22 % restent inutilisés pendant plus d’un an.

Pourtant, les trois quarts de ces vêtements qui restent dans nos placards sont encore en bon état et pourraient être réutilisés, mais la majorité des propriétaires les conservent « au cas où », par attachement émotionnel ou anticipation d’un usage futur. L’étude conclut que le manque de solutions accessibles pour revendre ou donner ses vêtements ainsi que la faible demande pour la seconde main freinent leur réutilisation.

Nos placards ne sont pas les seuls à être saturés. Les points de collecte textile déployés par les collectivités sont eux aussi submergés par un afflux massif de vêtements, souvent de mauvaise qualité. Les vêtements d’entrée de gamme, difficiles à valoriser, encombrent ainsi les structures de tri et compliquent le travail des associations, qui, jusqu’ici, tiraient leurs revenus des pièces de meilleure qualité revendues en friperies solidaires.

La situation est telle que Refashion, l’éco-organisme de la filière textile, a récemment débloqué une aide d’urgence de 6 millions d’euros pour soutenir les 73 centres de tri conventionnés, dont l’activité est fragilisée par la chute des débouchés, notamment à l’export. Car, depuis longtemps, les vêtements qui ne trouvent pas preneur sur le marché français – parce que trop usés, démodés ou invendables – sont expédiés vers d’autres pays, principalement en Afrique ou en Asie.

Chaque année, l’Union européenne (UE) exporte ainsi 1,7 million de tonnes de textiles usagés, selon l’Agence européenne de l’environnement. La France à elle seule, en 2021, expédiait 166 000 tonnes de vêtements et de chaussures usagés, soit 3 % du volume total des exportations mondiales.

Ces flux partent principalement vers le Pakistan, les Émirats arabes unis et le Cameroun, selon les données douanières. Si ce commerce génère des emplois et des revenus dans l’économie informelle, il aggrave aussi la pollution textile dans des pays sans infrastructures adaptées au traitement des déchets. La plage de Korle-Gonno à Accra (Ghana) en est l’un des exemples les plus frappants, transformée en véritable décharge à ciel ouvert.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Mais cette donne pourrait changer. L’UE cherche à imposer un cadre plus strict sur les flux transfrontaliers de déchets textiles, notamment en intégrant ces derniers à la Convention de Bâle, qui régule les exportations de déchets dangereux et non dangereux. Cette évolution pourrait imposer davantage de traçabilité et de contrôles, afin d’éviter que l’Europe continue d’exporter son problème textile vers des pays incapables de le gérer.

Derrière les ambitions législatives, une réalité moins reluisante

Face à l’ampleur du problème, la loi Anti-gaspillage pour une économie circulaire (Agec), adoptée en 2020, fixait un cap ambitieux : collecter 60 % des textiles usagés d’ici 2028 et en recycler 70 % dès 2024, puis 80 % à l’horizon 2027. Une trajectoire progressive censée stimuler la montée en puissance des filières de tri et de valorisation.

Dans la foulée, l’Assemblée nationale adoptait en mars 2024 une proposition de loi pour « démoder la fast-fashion ». Le texte cible les géants de l’ultra fast-fashion, qui inondent le marché avec plus de 1 000 nouveautés quotidiennes. Il prévoit également un système de bonus-malus environnemental pouvant aller jusqu’à 50 % du prix de vente – plafonné à 10€ par article – afin de financer des marques plus vertueuses et de ralentir cette surproduction.

La proposition de loi doit encore franchir l’étape du Sénat, où elle n’a pas encore été inscrite à l’ordre du jour. Et en attendant, les objectifs de la loi Agec peinent à se concrétiser. En 2023, environ 270 000 tonnes de textiles ont été collectées dans l’Hexagone, mais seules 33 % ont été réellement recyclées en nouvelles matières premières. Bien loin des 70 % fixés pour 2024. En cause : un manque d’infrastructures de tri automatisé, des capacités de traitement limitées, et des opérateurs – souvent issus de l’économie sociale et solidaire – sous-dotés financièrement. À l’échelle mondiale, le constat est encore plus alarmant : moins de 1 % des fibres textiles usagées sont réutilisées pour fabriquer de nouveaux vêtements.

Les limites du recyclage textile

Sur le papier, pourtant, les technologies de recyclage se perfectionnent. Certaines entreprises, comme l’entreprise française, créée en 2011, Carbios, tentent d’innover avec un recyclage enzymatique capable de dégrader les fibres de polyester pour les transformer en nouveaux textiles. Une avancée saluée, mais encore loin d’être généralisée.

Dans les faits, l’immense majorité du recyclage textile repose sur des méthodes mécaniques, bien moins efficaces. Les vêtements sont triés par couleur et selon leur composition, puis déchiquetés en fibres courtes ou effilochés pour produire des isolants ou des chiffons. Autrement dit, quand ils sont recyclés, les textiles, au lieu d’être réutilisés dans un cycle vertueux, sont plutôt « downcyclés », dégradés ou transformés en produits de moindre valeur, en isolants thermo-acoustiques ou en rembourrage pour sièges de voiture, tandis que moins de 1 % des vêtements usagés sont transformés en nouveaux vêtements, selon une logique de boucle fermée ou au moyen de procédés fibre à fibre.

Si le recyclage est donc une solution, celle-ci présente de nombreuses limites.

Le design des vêtements, par exemple, n’est pas fait pour faciliter leur valorisation. Car les habits contiennent un mélange complexe de matériaux : des fibres souvent mélangées ou diverses (polyester, coton, polycoton) combinées à des éléments métalliques (fermetures éclair, boutons, boucles) et plastiques (étiquettes, logos en vinyle ou motifs imprimés) qui nécessitent un tri particulièrement minutieux pour permettre leur réutilisation ou leur transformation, chaque matière requérant un traitement spécifique. Cette étape, essentielle, mais coûteuse, reste difficile à intégrer pour des structures solidaires qui n’ont pas les capacités d’investissement des grands groupes.

Et quid des vêtements produits à partir de matières recyclées ?

Des alternatives existent, certes, mais elles ne sont pas toujours aussi vertueuses qu’annoncées. Le polyester recyclé, souvent mis en avant par la mode écoresponsable comme la solution la moins carbonée, présente de sérieuses limites.

Cette fibre est issue, dans la grande majorité des cas, du recyclage de bouteilles en plastique PET. Or, ces bouteilles sont ainsi détournées d’un circuit de recyclage fermé – le recyclage bouteille-à-bouteille ou pour les emballages alimentaires – vers la fabrication de textiles. Une fois transformés en vêtements, ces matériaux deviennent pratiquement impossibles à recycler, en raison des teintures, des additifs et surtout des mélanges de fibres.

Si le polyester recyclé séduit tant l’industrie textile, c’est d’abord pour des raisons de logistique et de volume. Les bouteilles en PET constituent un gisement mondial abondant, facile à collecter et à traiter. Aujourd’hui, environ 7 % des fibres recyclées utilisées dans le textile proviennent de bouteilles plastiques – dont 98 % sont en PET. À l’inverse, moins de 1 % des fibres textiles recyclées proviennent de déchets textiles eux-mêmes.


Les différents types de recyclages

Source : The Carbon Footprint of Polyester (Carbonfact). Données basées sur la base EF 3.1, développée par le Joint Research Centre (JRC) de la Commission européenne, dans le cadre de l’initiative Product Environmental Footprint (PEF).

Méthode Émissions carbone (kg CO2e/kg) Remarques
Recyclage mécanique 0,68 – 1,56 Méthode la plus répandue. Utilise des bouteilles plastiques, mais détourne ces déchets de circuits fermés. Qualité de fibre dégradée à chaque cycle, recyclabilité textile très limitée.
Recyclage chimique 1,23 – 3,79 Procédé plus vertueux sur le papier (fibre à qualité équivalente), adapté aux déchets textiles. Mais technologie coûteuse, énergivore et encore peu industrialisée.
PET vierge fossile 3,12 Fabriqué à partir de pétrole, avec un processus très émetteur. Aucune circularité : chaque vêtement produit génère un futur déchet.

Considérer l’ensemble du cycle de vie d’un textile

Enfin, autre problème rarement évoqué : les microfibres plastiques. Les vêtements en polyester, qu’ils soient recyclés ou non, libèrent à chaque lavage des microfibres plastiques susceptibles de perturber les écosystèmes marins et d’entrer dans la chaîne alimentaire humaine. Cette pollution est amplifiée dans le cas du polyester recyclé : soumis à des contraintes thermiques et mécaniques lors du recyclage, le matériau voit ses chaînes polymères se dégrader. Raccourcies et fragilisées, elles sont plus enclines à se fragmenter dès les premiers lavages.

Une étude, publiée en 2024 dans la revue Environmental Pollution, a montré que, à caractéristiques égales, un tissu en polyester recyclé libérait en moyenne 1 193 microfibres par lavage, contre 908 pour son équivalent en polyester vierge. Même écolabellisés, certains textiles recyclés peuvent donc polluer davantage, si l’on considère l’ensemble de leur cycle de vie.

Trier, certes, c’est bien. Mais croire que ces gestes suffiront à endiguer la catastrophe environnementale est une illusion.

Tant que la production textile continuera d’augmenter à un rythme effréné, aucune politique de tri ne pourra compenser la montagne de déchets générée. Le mythe du bon citoyen trieur repose donc sur un malentendu : trier ne signifie pas recycler, et recycler ne signifie pas résoudre la crise des déchets. La vrai solution, c’est d’abord de produire moins, de consommer moins, et de concevoir des vêtements pensés pour durer et être réellement recyclables.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

28.05.2025 à 16:59

#SkinnyTok, la tendance TikTok qui fait l’apologie de la maigreur et menace la santé des adolescentes

Pascale Ezan, professeur des universités - comportements de consommation - alimentation - réseaux sociaux, Université Le Havre Normandie

Emilie Hoëllard, Maître de conférences en sciences de gestion, Université Le Havre Normandie

Faisant sur TikTok la promotion de régimes drastiques, la tendance #SkinnyTok séduit les adolescentes et inquiète éducateurs et professionnels de santé.
Texte intégral (1616 mots)

Associant phrases chocs, musiques entraînantes et récits de transformation physique, de jeunes femmes font sur TikTok la promotion d’une maigreur extrême. Loin de provoquer du rejet, ces messages sont discutés et très partagés sur le réseau social, interpellant éducateurs et professionnels de santé.


Dans les années 1990, les couvertures des magazines féminins annonçaient l’été avec des injonctions à changer son corps : il fallait « perdre 5 kilos avant la plage » ou « retrouver un ventre plat en 10 jours » afin de ressembler aux mannequins filiformes des podiums.

Aujourd’hui, ces supports papier perdent du terrain chez les jeunes filles, au profit de réseaux sociaux comme TikTok, une plateforme au cœur de leur culture numérique. L’imaginaire du corps parfait s’y diffuse plus vite, plus fort, et de manière plus insidieuse.

Parmi les tendances incitant à la minceur sur ce réseau social, #SkinnyTok apparaît comme l’un des hashtags les plus troublants avec 58,2 K de publications en avril 2025.

La pression sociale de discours chocs

À l’aide de vidéos courtes mêlant musiques entraînantes, filtres séduisants et récits de transformation physique (les fameux avant/après), de jeunes femmes s’adressent à leurs paires pour les inciter à moins manger, voire à s’affamer.

Centrées sur des heuristiques de représentativité, ces jeunes femmes mettent en scène leurs corps comme une preuve de la pertinence des conseils qu’elles avancent. Elles soulignent ainsi que leur vécu est un exemple à suivre : « Je ne mange presque plus. »

En surface, leurs recommandations nutritionnelles se fondent sur les messages sanitaires auxquelles elles sont exposées depuis leur enfance : manger sainement, faire du sport… Mais en réalité, leurs discours prônent des régimes dangereusement restrictifs, des routines visant à façonner des corps ultraminces. Basés sur la croyance, qu’il faut éviter de manger pour perdre rapidement du poids, des conseils de jeûne intermittent, des astuces pour ignorer la faim sont véhiculés : « Je ne mangeais qu’à partir de 16 heures + pilates à côté. »

Ici, pas de mises en scène de recettes ou de bons plans pour mieux manger comme dans la plupart des contenus « healthy » sur Instagram, mais des phrases chocs facilement mémorisables pour véhiculer une pression sociale : « Si elle est plus maigre que toi, c’est qu’elle est plus forte que toi » ; « Ne te récompense pas avec de la nourriture, tu n’es pas un chien ! » ; « Tu n’as pas faim, c’est juste que tu t’ennuies » ; « Si ton ventre gargouille, c’est qu’il t’applaudit. »

On ne trouve pas non plus dans les messages estampillés #SkinnyTok de propos bienveillants et empathiques, confortant une estime de soi.


À lire aussi : « Dans la vraie vie aussi, j’aimerais bien porter un filtre » : les réseaux sociaux vus par les 8-12 ans


Au contraire, les prises de parole sont agressives et pensées comme un levier efficace de changement comportemental. Le principe est de susciter des émotions négatives basées sur la culpabilité avec, comme source de motivation, la promesse de vivre un bel été : « Tu ne veux pas faire de sport, OK, alors prépare-toi à être mal dans ta peau cet été. »

Loin de provoquer du rejet sur le réseau social, ces messages sont discutés, partagés, voire complétés par des témoignages issus des abonnées. Certains messages deviennent des références évocatrices de la tendance. Cette viralité amplifiée par l’algorithme de TikTok enferme alors ces jeunes filles dans des bulles cognitives biaisées, qui valident des pratiques délétères pour leur santé.

Des représentations simplificatrices

Si cette tendance « skinny » est rarement remise en question par les followers, c’est sans doute parce que les contenus diffusés apparaissent comme simples à comprendre et qu’ils bénéficient d’une validation visuelle des corps exposés.

Ils s’ancrent dans des connaissances naïves qui viennent se heurter à des savoirs scientifiques, perçus comme plus complexes et moins faciles à mettre en œuvre dans le vécu quotidien des adolescentes pour obtenir rapidement le résultat corporel escompté pour l’été.

En psychologie cognitive, les connaissances naïves sont définies comme des représentations spontanées et implicites que les individus se construisent sur le monde, souvent dès l’enfance, sans recours à des enseignements formalisés. Influencées par des expériences personnelles et sociales, elles peuvent être utiles pour naviguer dans le quotidien, car elles apparaissent comme fonctionnelles et cohérentes chez l’individu. En revanche, elles sont souvent partielles, simplificatrices voire fausses.

Or, ces connaissances naïves constituent le creuset des messages diffusés par les créateurs de contenus sur les réseaux sociaux. En particulier, sur TikTok, les vidéos diffusées cherchent à capter l’attention des internautes, en privilégiant une forte connotation émotionnelle pour provoquer une viralité exponentielle. L’information qui y est transmise repose sur un principe bien connu en marketing : une exposition répétée des messages, quelle qu’en soit la valeur cognitive, influence les comportements.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Apprendre à détecter les fausses informations

Ces croyances simplificatrices sont d’autant plus difficiles à déconstruire qu’elles bénéficient d’une approbation collective, visible sous forme de « likes » par toutes les abonnées. Il apparaît donc nécessaire de mettre au jour le rôle joué par les connaissances naïves dans l’éducation corporelle des adolescentes afin de mieux saisir pourquoi certaines d’entre elles sont plus vulnérables que d’autres à ce type d’injonctions et mettre en place des interventions ciblées.

En outre, les connaissances naïves sont souvent résistantes au changement et aux discours scientifiques. Il s’agit alors de revisiter ces raccourcis cognitifs, fondés sur des liens de causalité erronés (du type : « Je ne mange pas et je serai heureuse cet été »), en proposant des messages de prévention plus adaptés à cette génération numérique.

Pour aller dans ce sens, certains professionnels de santé prennent la parole sur les réseaux sociaux, mais la portée de leur discours semble encore limitée au regard de la viralité suscitée par cette tendance. Face à ce constat, il semble opportun de les inviter à s’approprier davantage les codes de communication numérique pour s’afficher comme des figures d’autorité en matière de santé sur TikTok.

Plus globalement, il ne s’agit ni de diaboliser TikTok ni de prôner le retour à une époque sans réseaux sociaux. Ces plateformes sont aussi des espaces de création, d’expression et de socialisation pour les jeunes. Mais pour que les connaissances qu’elles diffusent deviennent de véritables outils d’émancipation plutôt que des sources de pression sociale, plusieurs leviers doivent être activés :

  • réguler, inciter davantage les plateformes à la modération de contenus risqués pour la santé mentale et physique des jeunes ;

  • apprendre aux adolescents à détecter de fausses évidences sur les réseaux sociaux. Dans cette perspective, notre projet Meals-Manger avec les réseaux sociaux vise à co-construire avec les jeunes une démarche leur permettant d’acquérir et d’exercer un esprit critique face aux contenus risqués pour leur santé, auxquels ils sont exposés sur les plateformes sociales ;

  • éduquer les éducateurs (parents et enseignants) qui sont souvent peu informés sur les comptes suivis par les adolescents et ont des difficultés à établir un lien entre des connaissances naïves diffusées sur les réseaux sociaux et les comportements adoptés dans la vie réelle.

The Conversation

Pascale Ezan a reçu des financements de l'Agence Nationale de la Recherche (projet ALIMNUM (Alimentation et Numérique et projet MEALS (Manger avec les réseaux sociaux)

Emilie Hoëllard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

28.05.2025 à 16:58

Le livre face aux défis de la transition écologique

Louis Wiart, Chaire de communication, Université Libre de Bruxelles (ULB)

Comment produire et distribuer des livres tout en respectant les enjeux de la transition verte ? Le secteur de l’édition devra relever ce défi.
Texte intégral (1412 mots)

Comme l’indique l’expression « bien culturel », le livre est un produit, c’est-à-dire un bien qui s’achète et se vend. Toutefois, ses spécificités font qu’il évolue dans un environnement particulier qu’étudient notamment Louis Wiart et Philippe Chantepie, les auteurs d’Économie du livre, aux éditions La Découverte (collection « Repères »). Nous en publions un extrait consacré à un des défis majeurs du secteur pour les années qui viennent : l’adaptation de son modèle économique aux impératifs de la transition écologique. Numérique ou papier, le livre trouvera-t-il une voie pour être compatible avec ces nouvelles nécessités ?


Comme toutes les industries culturelles, le secteur du livre fait face au défi de la transition écologique, sous ses trois aspects : climatique, de biodiversité et de déchets. Celle-ci représente un enjeu majeur pour l’ensemble de la chaîne de valeur du livre : cycle de production (papier, donc énergie, eau, espèces végétales, formulation des encres), de distribution (transport) et de consommation (déchets). Elle concerne ainsi toutes les étapes de l’activité, de l’éco-conception au réemploi et au recyclage.

Le défi a commencé à être pris en compte à l’échelle internationale par le secteur de l’édition quant aux modes de production et de consommation, qui figurent parmi les objectifs de développement durable (ODD) de l’Agenda 2030 de l’Organisation des Nations unies (ONU) en 2019. Ce défi concerne aussi l’édition et la lecture numériques qui se développent et apparaissent moins favorables pour l’environnement que le mode de production et de consommation classique du papier.

En France, la mise en œuvre de ces objectifs de développement durable repose sur la règle dite de responsabilité élargie du producteur (REP). Elle prend en compte pour chaque industrie une responsabilité du producteur, de bout en bout, à travers chacun des maillons des filières jusqu’au consommateur. Selon le principe pollueur-payeur, il s’agit de rendre responsables les producteurs de l’impact environnemental de leurs produits en assurant individuellement ou collectivement la collecte, la gestion et la valorisation des déchets issus de ces produits (papier, encres).

Des filières REP sont établies pour le verre, le plastique, l’électronique… Le papier d’emballage depuis 1993 et le papier graphique concernent déjà le secteur de la presse depuis 2007. Le secteur de l’édition de livres échappe à cette approche de responsabilité élargie du producteur, le livre papier n’étant pas considéré comme susceptible de devenir un déchet ménager…

[Depuis la remise du manuscrit de ce livre, un plan de transition écologique sectoriel pour l’édition a été rendu public. (Précision des auteurs de l’ouvrage, ndlr)]

Depuis les années 2010 prédomine ainsi une prise de conscience progressive des enjeux de la transition écologique par les professionnels du livre, dont les éditeurs. Fragmentaire et partielle, l’approche dépend surtout d’initiatives issues de maillons de la chaîne à travers des engagements volontaires. Des initiatives d’abord individuelles ou de collectifs prévalent sur certains aspects de l’activité qui visent à promouvoir des modèles de production et de commercialisation de livres plus respectueux de l’environnement.

Peu de papier recyclé

Ainsi, du côté de l’amont, la pression sur la disponibilité et le prix des matières premières (papier, énergie, eau et transport) est mise en avant, même si de nouvelles sensibilités à l’écologie s’expriment. De meilleures pratiques d’achat du papier progressent : 97 % du papier acheté par les éditeurs est certifié par des labels (PEFC, FSC) relatifs à la gestion durable des forêts, alors que le papier recyclé représente seulement 1 % du total.

La production de papier pour l’édition de livres n’est pas prise en compte par la REP papiers graphiques, ce qui constitue un segment particulièrement critique en consommation énergétique et d’eau, mais surtout en matière de transport. En effet, la production de papier provient essentiellement de pays étrangers, la France ayant un solde extérieur très négatif. En aval, du côté des librairies, on mise sur l’aménagement des lieux de vente (éclairage, chauffage, isolation, récupération de mobilier, etc.), l’optimisation des achats de livres pour diminuer les retours ou encore l’usage de produits à plus faible impact (emballages cadeaux, sacs en papier, etc.)].

Enfin, du côté des bibliothèques, sous l’impulsion de la Fédération internationale des associations et institutions de bibliothèques (IFLA), une approche collective prévaut aussi, ce dont témoigne par exemple l’Agenda 2030 des bibliothèques en France. Les objectifs poursuivis tiennent à la mutualisation des ressources entre établissements et à l’amélioration de la logistique pour réduire l’empreinte environnementale des prêts de livres. L’enjeu de la plastification des livres offerts au prêt est également soulevé. À l’avenir, ces initiatives sont conduites à tenir compte d’autres facteurs, comme le transport des consommateurs et des salariés.


Abonnez-vous dès aujourd’hui !

Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).


Un modèle économique à questionner

L’enjeu de la transition écologique de l’édition est surtout concentré sur les éléments les plus industriels du secteur, ce qu’illustre la part de production d’imprimerie hors de France (Espagne, pays d’Europe orientale, voire Chine). Sur le segment de la production et de la commercialisation, le défi de la transition écologique affecte le cœur du modèle économique structurel de l’édition de livres. En effet, l’industrie de l’édition repose sur une logique d’offre structurellement supérieure aux ventes, ne serait-ce que pour atteindre des publics qui, en situation de sous-production et insuffisance de distribution, ne seraient ni informés de l’existence de l’offre ni en mesure de se la voir proposer.

OPC Culture 2023.

L’économie d’échelle issue de l’imprimerie ne constitue pas un frein à ce modèle. Aussi, l’ensemble de la chaîne de distribution (stockage et acheminement aller et retour vers les points de vente) se pérennise. Elle se traduit dans les volumes distribués comme dans ceux des retours, ainsi que dans les taux de pilon. Des outils d’intelligence artificielle (IA) pourraient aussi améliorer la gestion de la production, des stocks et des transports, mais leur propre impact environnemental n’est pas neutre.

La transition écologique peut apparaître comme un défi des plus difficiles à relever pour le secteur de l’édition. Celui-ci a manifesté une grande capacité d’innovation et d’adaptation aux techniques, mais à modèle économique central inchangé. Le défi écologique, en revanche, questionne les fondements mêmes de son modèle économique.


Cet article est issu de l’ouvrage Économie du livre (Ed La Découverte) écrit Philippe Chantepie les intertitres sont de la rédaction de The Conversation France

The Conversation

Louis Wiart ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

28.05.2025 à 16:58

Quand les tribunes donnent de la voix : la puissance du chant des supporters

Fabrice Raffin, Maître de Conférence à l'Université de Picardie Jules Verne et chercheur au laboratoire Habiter le Monde, Université de Picardie Jules Verne (UPJV)

Chanter au stade, c’est plus que soutenir : c’est une expérience esthétique et collective qui fait du football un véritable fait culturel.
Texte intégral (1241 mots)

Après une finale de la Ligue des champions de l’UEFA qui restera dans les annales, retour sur ce qui a provoqué des frissons… hors de la pelouse. Dans les tribunes, les chants se sont élevés, portés par des milliers de voix en fusion. Et si le spectacle avait aussi été là ? Plongée dans une ferveur collective où le chant devient un art et le stade, une scène culturelle à part entière.


Chanter ensemble, brandir des écharpes à l’unisson, participer à la ferveur collective : pour tous les supporters, aller au match de foot ne peut être réduit à une simple rencontre sportive. Cela relève d’un rituel esthétique où l’intensité émotionnelle, le sentiment d’appartenance et la communion se tissent dans l’expérience du stade. Être supporter est inséparable de l’action collective que l’on appelle football. L’intensité du chant des supporters donne au match une véritable portée culturelle, dans un double sens : artistique et anthropologique. Une double perspective qui inscrit le football dans une culture populaire.

La raison d’être du supporter réside dans cette quête d’intensité émotionnelle. Le terrain, le match, le jeu, les joueurs sont au centre, mais le chant amplifie le moment – le chant qui permet de vivre le match, la communion avec l’équipe, de devenir acteur : être le 12e homme dans la vibration collective.

La finalité sur le terrain est avant tout physique et compétitive ; l’expérience des tribunes, tout aussi physique, se construit, elle, dans l’émotion, l’attention et le plaisir. Trois termes qui, pour le philosophe Jean-Marie Schaeffer, définissent l’expérience esthétique. Avec le chant des supporters, l’expérience du match devient une pratique véritablement culturelle.

L’hymne du club : un chant pas comme les autres

L’hymne du club, chanté en début de match, est un rituel en soi. Un chant au statut différent des encouragements communs qui durent toute la partie. Ce chant spécial est rituel en ce sens qu’il fait le lien entre deux réalités. Que les premières notes retentissent, et l’on bascule dans un autre monde : le monde du stade. Le poil se hérisse, le cœur bat plus fort, les larmes coulent. Chacun participe indistinctement, en chantant à tue-tête ! Et de la multitude des tons et des fausses notes mêlées s’élève, comme par magie, un chant toujours juste, reconnaissable entre tous : le chant des supporters.

Les Corons, émotion assurée à Lens, au stade Bollaert-Delelis.

Le chant, comme un précieux commun, a son histoire, liée à l’épopée du club, qui se confond avec celle d’une ville, d’une région. You’ll never walk alone à Liverpool (Angleterre), les Corons à Lens (Pas-de-Calais) ou, plus surprenant, Yellow Submarine des Beatles à Villarreal (Espagne) ! Avec cette intensité émotionnelle, pour tous les supporters, aller au stade devient un moment structurant de l’existence, un moment extraordinaire qui rompt avec la réalité et les difficultés quotidiennes. Aller au stade, c’est passer d’un monde prosaïque à la communion esthétique, au supplément d’âme (cher à Bergson), un moment sacré.

Le stade, lieu de culture vivante

Aussi, dans les tribunes du stade d’Anfield, de Bollaert ou de Villarreal, la ferveur n’a rien d’un simple exutoire. Elle fait du stade un haut lieu d’un territoire. Elle est un langage, une manière d’habiter le monde et de s’y reconnaître. Elle témoigne d’une culture vivante, mouvante, ancrée dans les pratiques d’une ville, pour une grande partie de sa population. En cela, les supporters ne sont pas de simples amateurs de football : ils sont les acteurs d’une culture populaire, où le sentiment d’appartenance et la transmission de rites collectifs forgent une mémoire partagée.

You’ll Never Walk Alone, hymne des fans de Liverpool, est une chanson de Gerry Marsden, lui-même originaire de la ville.

Et devant l’harmonie collective, on ne peut que s’étonner de l’autorégulation de cette foule vociférante.

« Sans doute parce qu’un sentiment collectif ne peut s’exprimer collectivement qu’à condition d’observer un certain ordre qui permette le concert et les mouvements d’ensemble, ces gestes et ces cris tendent d’eux-mêmes à se rythmer et à se régulariser »,

écrivait le sociologue Émile Durkheim à propos du chant religieux.

Un Capo bien-aimé

À bien y regarder cependant, l’émotion des supporters est tout à fait cadrée, en particulier celle des plus ultras, rassemblés dans les Kops.

Tout au long du match – de manière peut-être plus exutoire, cette fois – les chants vont se succéder, au rythme d’une grosse caisse, mais surtout dirigés par la voix d’un meneur amplifiée par un mégaphone. Ce personnage, c’est le Capo, un chef d’orchestre, qui, dos à la pelouse tout le match, n’aura de cesse d’orienter la puissante mélodie du Kop.

« Notre match à nous, c’est de faire en sorte que l’ambiance soit top ! »,

déclare Popom, ex-Capo du Kop de la Butte, à Angers.

Ainsi, le match de football n’est pas qu’un jeu. Il est un théâtre d’émotions, une scène où se rejouent des récits communs et où se tissent des appartenances. Ce que vivent ces supporters, ce n’est pas uniquement un spectacle sportif, mais un moment de culture intégré à l’expérience du football, où l’intensité émotionnelle se déploie comme un art en soi. Une foule unie, un collectif. Au stade se croisent ainsi le sport et la culture, pour que, comme l’écrit la journaliste Clara Degiovanni, « en un seul instant partagé, les chants collectifs parviennent à entrecroiser et à sédimenter des milliers d’histoires et de destinées ».

The Conversation

Fabrice Raffin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

28.05.2025 à 12:27

Les scientifiques qui travaillent sur la fusion nucléaire sont-ils de nouveaux bâtisseurs de cathédrales ? Une conversation avec Yannick Marandet

Yannick Marandet, Directeur de recherches CNRS, Aix-Marseille Université (AMU)

Un grand entretien pour faire le point sur les défis scientifiques et technologiques de la fusion. Aurons-nous accès à cette énergie propre d'ici la fin du siècle ?
Texte intégral (5944 mots)
Yannick Marandet est chercheur en physique des plasmas, spécialiste de la fusion par confinement magnétique. Fourni par l'auteur

La fusion nucléaire fascine et divise. Au-delà de la grande collaboration internationale ITER, mise en place dans les années 1980 afin de fournir un prototype de centrale électrique réellement utilisable pour alimenter le réseau en électricité, les avancées récentes ont fait apparaître de nouveaux acteurs dans le domaine, notamment des start-ups.

Pour faire le point sur les défis scientifiques et technologiques de la fusion, pour mieux comprendre comment les chercheurs et chercheuses vivent le fait de s’impliquer dans des projets de si longue haleine, Elsa Couderc, cheffe de rubrique Sciences et Technologies à The Conversation France, a rencontré Yannick Marandet. Chercheur en physique des plasmas, il a longtemps été directeur de la Fédération française de recherche sur la fusion par confinement magnétique (FR-FCM) et co-dirige aujourd’hui un grand projet de recherche sur les supraconducteurs et la fusion, financé par France 2030.


The Conversation : Vous travaillez sur la fusion nucléaire depuis vingt-cinq ans et vous avez pris diverses responsabilités pour coordonner les efforts français sur la fusion nucléaire, principalement orientés aujourd’hui vers la collaboration internationale ITER. Est-ce que vous pouvez commencer par nous expliquer ce qu’est la fusion nucléaire ?

Yannick Marandet : La fusion nucléaire, ce sont des réactions nucléaires qui sont à l’œuvre dans les étoiles, notamment dans le Soleil. C’est un peu comme des Lego : on assemble des petits noyaux pour en faire des plus gros. Ce sont en fait les processus par lesquels les éléments chimiques dont on est tous constitués, dont la Terre est constituée – comme le carbone, le fer ou l’oxygène – se sont formés dans des générations d’étoiles précédentes. D’où la fameuse expression, « Nous sommes tous des poussières d’étoiles ».

Ces réactions de fusion permettent de fabriquer des atomes plus gros, et ce faisant, elles libèrent de l’énergie contenue dans les noyaux que l’on assemble. Ainsi, dans une étoile en phase de vie normale, quatre noyaux d’hydrogène s’assemblent (l’élément le plus léger de l’Univers, un proton) pour faire un noyau d’hélium.

En fait, le terme hélium vient d’Hélios, car l’hélium a été découvert initialement en observant une éclipse solaire, en 1868. C’est intéressant de penser qu’on a trouvé de l’hélium dans notre étoile avant de l’observer sur Terre. Mais ce n’est qu’une fois qu’on a découvert cet élément sur notre planète, en 1895, qu’on a pu le peser et se rendre compte qu’il est un peu plus léger que quatre noyaux d’hydrogène – de l’ordre de 1 % plus léger. Cette masse perdue durant la transformation de l’hydrogène en hélium a été convertie en énergie : c’est la célèbre formule d’Einstein, E=mc2.

Comment est née l’idée d’utiliser ces phénomènes au cœur des étoiles pour générer de la chaleur, et donc de l’électricité ?

Y. M. : L’idée d’imiter ce qui se passe dans les étoiles est arrivée assez vite. Mais il faut savoir que les réactions de fusion nucléaire entre atomes d’hydrogène qui ont lieu dans les étoiles sont très inefficaces : les premières étapes de ces réactions sont tellement lentes qu’on ne peut même pas en mesurer la vitesse !

Il a donc d’abord fallu comprendre qu’on ne peut pas faire exactement ce que fait le Soleil, mais qu’on peut essayer de faire mieux, en utilisant des réactions qui sont plus rapides. Pour cela, il faut d’abord étudier comment marche une réaction de fusion.

Il faut d’abord faire se rapprocher les noyaux atomiques… malheureusement, ceux-ci se repoussent spontanément – plus ils sont gros, plus ils sont chargés et plus ils se repoussent. On a vu que la fusion de noyaux d’hydrogène à l’œuvre dans les étoiles n’est pas très efficace et, pour ces raisons, les réactions de fusion entre les isotopes de l’hydrogène ont été considérées. Les noyaux de ces isotopes ont par définition la même charge que l'hydrogène, mais contiennent un ou deux neutrons.

La solution actuelle – celle que l’on doit utiliser dans ITER – est arrivée dans le cadre du projet Manhattan – le projet de recherche du gouvernement américain qui visait à construire une bombe atomique, entre 1939 et 1947. Celui-ci se concentrait évidemment sur la fission nucléaire, mais ils ont assez vite pensé à rajouter une dose de fusion par-dessus. Pendant cette période, d’énormes progrès ont été faits en physique nucléaire parce qu’il y a eu de très gros moyens, très focalisés… ce qui a bénéficié au domaine de la fusion, même si c’est un héritage dont on n’aime pas nécessairement se réclamer.

Quoi qu’il en soit, quand les chercheurs du projet Manhattan ont commencé à faire fonctionner des réacteurs nucléaires, ils ont produit du tritium – l’isotope le plus lourd de l’hydrogène, avec deux neutrons. Et quelqu’un s’est rendu compte que le deutérium et le tritium, pour des raisons d'abord mystérieuses à l’époque, fusionnaient 100 fois plus vite que deux noyaux de deutérium.

Une réaction de fusion exploitable pour en faire de l’électricité avait été découverte.

schema d'une réaction de fusion nucléaire
Schéma de la fusion entre deux isotopes de l’hydrogène, le deutérium et le tritium, qui produisent un hélium 4 et un neutron très énergétique. Wikipedia

Y. M. : Oui. Quand on fait une réaction deutérium-tritium, ça fait un noyau d’hélium cinq, extrêmement instable, qui se désintègre en un hélium quatre et un neutron. Ceux-ci vont extrêmement vite – l’énergie qu’on a perdue en masse se retrouve dans l’énergie de mouvement. En freinant ces particules, par collision dans la paroi de la machine, on va récupérer cette énergie, faire chauffer de l’eau et faire tourner des turbines.

Cette réaction deutérium-tritium a un énorme avantage, c’est qu’elle est beaucoup plus probable, et donc rapide, que les autres réactions de fusion nucléaire, comme la fusion de deux hydrogènes, observée dans le Soleil et dont on parlait précédemment… mais elle pose deux défis.

Le premier, c’est qu’elle utilise du tritium, qui est radioactif. Le problème n’est pas tant sa dangerosité, qui est limitée, mais plutôt sa demi-vie (le temps nécessaire pour que la moitié des atomes se désintègrent naturellement), qui n’est que de douze ans. De ce fait, c’est un élément très rare. Il faut le fabriquer pour s’en servir comme combustible – dans ITER par exemple, même si le plasma contiendra de l’ordre d’un gramme de tritium, il faudra stocker quelques kilogrammes sur site.

Le deuxième défaut de cette réaction, c’est qu’elle génère des neutrons de 14 mégaélectronvolts. Cette échelle peut sembler un peu absconse quand on n’a pas l’habitude de la manipuler : ce qu’il faut retenir, c’est que ces neutrons sont très énergétiques, suffisamment pour transformer des impuretés dans la paroi en éléments radioactifs. Et ça, c’est un défi – à tel point qu’aujourd’hui, un domaine de recherche entier est dévolu à développer des matériaux sans ces impuretés.

Pour la fusion deutérium-tritium, il faut utiliser ce neutron énergétique pour bombarder du lithium, et ainsi récupérer du tritium : on résout à la fois le problème d’approvisionnement en tritium et on produit de la chaleur supplémentaire par ces réactions.

Si l’on compare à une centrale à charbon de 300 MW électrique, qui brûle de 1 million à 2 millions de tonnes par an, l’avantage de la fusion est évident : il faut 30 kg de deutérium (l’océan en contient en quantité) et une centaine de kilos de lithium par an. Tout ça sans production de gaz à effet de serre ni déchets autres que la machine elle-même, et sans risques d’emballement.

Mais c’est aussi pour s’affranchir des problèmes liés aux neutrons énergétiques que différentes start-ups promettent aujourd’hui ce qu’on appelle la fusion « aneutronique », exploitant des réactions de fusion dans lesquelles on ne produit pas (ou peu) de neutrons. En n’utilisant pas de tritium, on aurait un carburant qui ne serait pas radioactif et pas (ou peu) de neutrons en sortie. La réaction de choix pour faire ça, c’est de fusionner un proton avec du bore (élément chimique dont le noyau compte cinq protons)… mais elle nécessite de monter à des températures dix à cent fois plus élevées que celles envisagées dans ITER, ce qui veut dire que ces start-ups devront obtenir des plasmas extrêmement performants.

À quelle température a lieu la réaction deutérium-tritium, celle qui doit être utilisée dans ITER ?

Y. M. : Cent cinquante millions de degrés ! Cette température est un vrai défi pour les scientifiques aujourd’hui.

Les plans initiaux de développement de la fusion, dans les années 1940 et 1950, étaient très optimistes… En effet, à l’époque, on ne connaissait pas très bien ce qu’on appelle aujourd’hui la « physique des plasmas ». À 150 millions de degrés, un gaz d’hydrogène de deutérium-tritium n’est plus un gaz ! C’est ce qu’on appelle un « plasma », c’est-à-dire un milieu suffisamment énergétique, suffisamment chaud, pour que tous les électrons soient arrachés de leurs noyaux. On se retrouve avec une soupe d’électrons et d’ions.

On pourrait penser que cette soupe est similaire à un gaz ; mais la grosse différence avec des molécules dans un gaz est que les particules chargées se sentent les unes les autres à grande distance. Ainsi, dans un plasma, si on bouscule un électron quelque part, tous les électrons autour vont le sentir, et bouger également… on comprend bien qu’il peut se passer des choses très intéressantes du point de vue de la physique !

Mais plus complexes aussi, surtout du point de vue des applications. Parce qu’un plasma est quelque chose d’assez compliqué à maîtriser, qui devient très vite turbulent.


Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Et justement, vous avez réalisé votre thèse au début des années 2000, sur l’analyse des plasmas turbulents. Quelles étaient les problématiques à l’époque ?

Y. M. : J’ai fait ma thèse sur la caractérisation de plasmas, en collaboration avec des collègues d’une expérience de fusion appelée à l’époque « Tore Supra » au CEA Cadarache, dans les Bouches-du-Rhône (cette machine est devenue West). J’analysais la lumière émise par les plasmas. Nous avions l’expertise d’analyse, de spectroscopie, et Tore Supra fournissait des plasmas ; ils avaient besoin de mieux comprendre ce qu’ils voyaient.

Une des grandes questions de la recherche sur la fusion a toujours été celle de la qualité du confinement. On utilise des champs magnétiques, générés par des électroaimants, qui confinent les particules chargées dans la machine. En effet, vous l’aurez compris, pour avoir des réactions de fusion, il faut chauffer le plasma. Mais c’est comme à la maison : si on allume les radiateurs à fond mais qu’on laisse les fenêtres ouvertes, la température dans la pièce ne va pas monter beaucoup. Si on ferme les fenêtres, ça va aller mieux, et si on isole mieux la maison, la température va monter plus haut pour la même puissance de radiateur. Dans notre cas, les champs magnétiques jouent un rôle d’isolant. Il faut réussir à isoler suffisamment pour que la température monte à 150 millions de degrés au cœur de la machine et que les réactions de fusion se produisent – après cela, ce sont ces réactions elles-mêmes qui chauffent le plasma.

La qualité de l’isolation est un peu la raison pour laquelle les gens étaient optimistes au départ : on pensait que la chaleur s’échapperait par conduction, c’est-à-dire sans mouvement du plasma, comme quand on pose quelque chose de chaud à un endroit, et que la chaleur passe dans les objets autour. En réalité, le plasma se met en mouvement, comme quand on chauffe de l’eau dans une casserole : il y a des cellules de convection dans la casserole, de la turbulence, qui font que l’eau monte, redescend, et que ça se mélange beaucoup mieux que par conduction ; ce qui mène à une perte de chaleur. Comprendre cette turbulence dans les plasmas est un fil directeur des études sur la fusion depuis longtemps.

La problématique de ma thèse était de mieux caractériser la turbulence en regardant certaines propriétés de la lumière émise par le plasma.

Comment ces problématiques ont-elles évolué au fil de votre carrière ?

Y. M. : La question du confinement magnétique du plasma est globalement beaucoup mieux comprise… mais, encore aujourd’hui, il reste des points difficiles.

En effet, on sait que lorsqu’on dépasse une certaine puissance de chauffage dans le plasma, celui-ci s’organise de manière un peu différente, dans un régime où cette fameuse turbulence qui nous embête se « suicide » au bord du plasma : elle génère elle-même des écoulements qui la suppriment. Ça permet de beaucoup mieux confiner le plasma, et ce régime de fonctionnement (au-dessus d’une certaine puissance de chauffe) a été appelé « le mode H », pour high confinement. C’est le mode d’opération qui a été prévu dans ITER.

Néanmoins, bien que l’on ait compris des aspects importants de son fonctionnement, on ne sait toujours pas prédire avec précision à quel niveau de chauffage la transition vers le mode H va se produire. Des lois empiriques, fondées sur les résultats des expériences actuelles, sont utilisées pour extrapoler à ITER. Cette situation n’est pas si inhabituelle, les avions volent bien que nous n’ayons pas percé tous les secrets de la turbulence autour des ailes. Mais mieux on comprend, plus on peut optimiser.

Pourquoi le mode H résiste-t-il aux efforts des physiciens depuis quarante ans ?

Y. M. : Très probablement parce qu’il implique des interactions entre des phénomènes à différentes échelles. Dans l’espace, on doit comprendre des mécanismes depuis les échelles millimétriques jusqu’au mètre ou à la dizaine de mètres (la taille de la machine) ; et dans le temps, depuis la fraction de microsecondes jusqu’à plusieurs secondes. Il est difficile de capturer toutes ces échelles de manière globale, de les intégrer les unes aux autres, de façon suffisamment générale pour être prédictives.

Ici aussi, on est dans une situation qui est très intéressante du point de vue de la physique, mais qui nécessite une modélisation extrêmement détaillée au niveau des processus microscopiques, car nous avons affaire à des milieux hors d’équilibre. La physique est très riche parce qu’elle implique des particules, des champs électromagnétiques, dans des configurations géométriques complexes. Elle est aussi très « non linéaire ». Pour simplifier, ceci signifie qu’on ne peut pas résoudre les équations à la main, de façon exacte : on approxime les solutions numériquement, avec des ordinateurs. La puissance de calcul disponible sur les très gros calculateurs a ainsi permis de grands progrès.

Ceci étant, malgré ces frustrations au niveau de la compréhension théorique, les expériences ont progressé et les performances des machines comme les tokamaks ont été multipliées par 100 000 depuis les années 1970 (en termes de « triple produit », une métrique qui mesure de la qualité de l’isolation).

La qualité de l’isolation tient-elle à la puissance des aimants ?

Y. M. : En partie. Disons que si on est capable de faire des champs magnétiques plus élevés, en principe, on est capable d’avoir un meilleur confinement. Mais, sur ITER, on a déjà poussé les champs magnétiques proche de la limite pour la technologie d’aimants utilisée, d’autant plus qu’il faut magnétiser un volume gigantesque – ITER fait 800 mètres cubes.

On utilise donc le second facteur pour améliorer l’isolation : on augmente la taille. Pensez au thé – on laisse le thé dans la théière parce qu’il y refroidit moins vite que dans une petite tasse. C’est pour ça que les machines comme ITER, les tokamaks, ont eu tendance à grossir avec les années. On peut dire que la taille d'ITER est directement liée à la technologie d'aimants utilisée.

Aujourd’hui, on entend pourtant parler de start-ups qui veulent faire des machines, des tokamaks, plus petites…

Y. M. : Tout à fait, avec l'idée que cela réduira très significativement le coût de construction. L'idée est d’utiliser une autre technologie d’aimants, plus récente que celle utilisée dans ITER et qui doit encore faire ses preuves. ITER utilise des électro-aimants supraconducteurs, c’est-à-dire à base de matériaux n’opposant aucune résistance au passage d’un courant électrique. On peut faire passer des courants gigantesques, des dizaines de milliers d’ampères, sans perte par chauffage… ce qui permet de faire des aimants très puissants. Mais pour être supraconducteurs, ces matériaux doivent être refroidis à -269 °C et ne doivent pas être plongés dans des champs magnétiques au-dessus de typiquement douze tesla (l’unité des champs magnétiques)

Dans les années 1980, des matériaux supraconducteurs à haute température critiques ont été découverts. Ces matériaux fonctionnent déjà bien à -195 °C, pour le grand public, c’est toujours très froid, mais cela simplifie beaucoup le refroidissement, car on peut utiliser de l’azote liquide.

Et si on utilise ces mêmes supraconducteurs entre -269 °C et -250 °C – ce qui est tout à fait possible, mais nécessite un frigo plus cher et plus encombrant –, on peut faire passer des courants deux fois plus importants que dans les supraconducteurs classiques et générer des champs magnétiques deux fois plus intenses… ce qui permet en principe de réduire la taille de la machine, sans perdre en qualité d’isolation !

VERS DES TOTAMAKS PLUS PETITS

    La stratégie de certaines start-ups est de réduire la taille des tokamaks en utilisant des aimants supraconducteurs à plus haute température critique, dans lesquels on puisse faire passer des courants plus forts à basse température.
    Il y a quelques années, ces matériaux extrêmement difficiles à fabriquer à une échelle industrielle sont devenus relativement mûrs. CFS, une spin-off du Massachusetts Institute of Technology (MIT), s’est mis en tête de développer un aimant de tokamak sur la base d’un matériau appelé Rebco (pour « Rare Earth Baryum Copper Oxyde »). Ils ont démontré qu’ils pouvaient générer un champ magnétique deux fois plus élevé que les aimants d’ITER. Ils construisent maintenant une machine qui s’appelle Sparc.
    La start-up chinoise Energy Singularity a utilisé les mêmes matériaux pour faire un champ magnétique encore un peu plus intense, en 2024.
    Un des débats actuels – assez vif – sur la possibilité de réduire la taille des tokamaks porte sur la résistance mécanique de la machine dans son ensemble. En effet, avec ces aimants si puissants, il y a de telles forces qui s’appliquent dans le tokamak qu’il faut vraiment ruser pour que le bâti soit assez résistant – en caricaturant, s’il faut tant d’acier pour tenir les aimants en place qu’on atteint la taille d’ITER, on n’aura rien gagné.
    À supposer que tout ça fonctionne, on se demande ensuite si, en faisant une machine plus petite on ne risque pas d’accentuer d’autres défis. C’est tout l’enjeu des années à venir, et Sparc est une expérience très intéressante !

C’est pour cela qu’un gros projet a été lancé au niveau français, un « PEPR » (un programme et équipement prioritaire de recherche) appelé SupraFusion, et dont vous êtes un des co-directeurs ?

Y. M. : Oui, SupraFusion s’attaque exactement à cette question : maîtriser la technologie des aimants supraconducteurs à haute température pour développer des applications sociétales – sachant que c’est la fusion qui est en train de tirer l’industrialisation de ces technologies avancées d’aimants supraconducteurs.

Que peut-on faire d’autre avec des aimants supraconducteurs à haute température ?

Y. M. : Il y a déjà un câble électrique d’alimentation de la gare Montparnasse qui utilise ces technologies-là, qui permettent de faire des câbles très compacts – très utiles lorsqu’il y a peu de place, en milieu urbain. On envisage aussi des dispositifs électrotechniques qui permettent de renforcer la stabilité des réseaux électriques (des « limiteurs de courant ») ; mais aussi des génératrices d’éoliennes plus légères, plus efficaces. En santé, on pourrait faire des IRM plus petits voire portables. En physique des particules, de nouveaux accélérateurs.

L’idée, c’est d’utiliser la fusion comme aiguillon – ce qu’on appelle l’« effet Formule 1 ». On s’attaque à quelque chose d’extrêmement difficile pour tirer l’innovation, et on attend un ruissellement sur beaucoup d’autres applications qui sont moins exigeantes.

Est-ce que vous sentez une évolution dans la perception de la fusion nucléaire par rapport à vos débuts ?

Y. M. : Quand je suis arrivé, c’était une phase un petit peu plus compliquée, la décision de construire ITER n’était pas acquise.

Enfant, je rêvais de devenir astrophysicien, mais j’ai finalement choisi de travailler sur la fusion parce que je voulais contribuer plus directement à la société.

Ceci dit, le chemin à parcourir vers l’énergie de fusion restait assez flou pour moi. J’étais focalisé sur ma thématique de recherche et il faut du temps pour acquérir une vision plus large des problématiques en jeu. L’importance du défi scientifique et l’impact qu’aura l’énergie de fusion étaient déjà bien perçus, mais cela restait avant tout pour moi un problème de physique, dont l’ambition me fascinait. Lors de mon postdoc à l’Université de Floride, je me souviens avoir été approché par un collègue qui m’a expliqué travailler avec une entreprise privée de fusion, Tri-Alpha Energy, et m’a encouragé à les rejoindre. Je crois que j’ai dû le dévisager comme s’il était un extraterrestre, cela me semblait complètement décalé ! Cette entreprise existe toujours (TAE Technologies) et génère des revenus en commercialisant des appareils d’imagerie médicale développés dans le cadre de ses recherches sur la fusion.

À l’heure actuelle, de nombreuses start-ups travaillent sur la fusion. Leur existence change la perception qu’ont le public et les décideurs : la physique est suffisamment comprise, et le travail sur ITER a suffisamment fait progresser la technologie pour se lancer dans la bataille de la commercialisation dès maintenant. Les années à venir vont être très intéressantes.

Il me semble, par ailleurs, observer la montée en puissance d’un courant de pensée hostile au progrès scientifique en général et à la fusion en particulier. Se doter d’une nouvelle source d’énergie est perçu comme néfaste – on s’entête dans une forme de fuite en avant alors qu’il faudrait juste être plus sobre. Il s’agit là d’une question de choix de société et le rôle des scientifiques est d’informer ces choix – pour ce qui concerne l’énergie, ma conviction est qu’il est plus sage de se donner les moyens d’agir. S’il devient vital d’extraire du CO2 de l’atmosphère en masse, les besoins énergétiques seront gigantesques et la fusion ne sera pas de trop !

Mais l’actualité de ces dernières années, à la fois géopolitique et climatique, a refocalisé l’attention du grand public sur la question de l’énergie, bien plus qu’au moment où j’ai débuté ma carrière. Il me semble que la fusion est perçue comme une partie de la solution. À mon sens le seul danger est que son développement soit utilisé comme prétexte pour ne pas réduire les émissions de gaz à effet de serre dès maintenant. Les moyens mis dans la fusion peuvent paraître énormes du point de vue de la recherche, mais il faut les comparer au coût de notre système énergétique. Il est alors clair que les ressources mises dans la fusion ne vont pas étouffer la transition énergétique.

Enfin, le projet ITER résulte de discussions entre Reagan et Gorbatchev – il y avait vraiment l’idée de développer cette source d’énergie dans un but de paix. Cette dimension de collaboration scientifique entre grandes puissances pour des applications au bénéfice de tous existe encore dans le monde multipolaire d’aujourd’hui et contribue à donner une image positive de la fusion magnétique.

Est-ce différent de faire de la recherche sur la fusion nucléaire dans un pays où la fission est si bien installée, par rapport à un pays où le mix énergétique n’inclut pas ou peu de fission ?

Y. M. : C’est une question intéressante. L’énergie de fusion sera une énergie pilotable décarbonée, qui est donc très utile pour stabiliser les réseaux électriques et garantir la continuité de l’alimentation. Il en va de même pour les centrales nucléaires actuelles, mais les réserves en uranium sont limitées, surtout dans un contexte de forte croissance du secteur. L’approvisionnement en uranium est l’une des raisons pour lesquelles la France relance aujourd’hui le programme de « réacteurs à neutrons rapides », une technologie de fission nucléaire. Certaines promesses de ces réacteurs sont similaires à celles de la fusion (avec sa capacité à produire de l’électricité pendant très longtemps sur les réserves actuelles, etc.) et ces réacteurs à neutrons rapides ont déjà produit de l’électricité en France (Superphénix). Par contre, cette technologie présente des risques comparables à ceux des centrales nucléaires actuelles. Quoi qu’il en soit, leur relance joue certainement un rôle sur la perception de l’utilité de la fusion à moyen terme au niveau des acteurs français du domaine.

Si l’on regarde ce qui se passe ailleurs, le Royaume-Uni investit lourdement dans la fusion et construit des réacteurs nucléaires EPR français en parallèle. La Chine a les moyens de développer toutes les technologies de front : les variantes de la fission, et plusieurs projets de fusion majeurs. De fait, on estime que la Chine dépense plus de 1,5 milliard d’euros par an pour son programme fusion, devant les États-Unis et l’Europe.

La situation est différente en Allemagne, qui est sortie du nucléaire et où la production pilotable est essentiellement assurée par des centrales au charbon et au gaz, qui émettent des quantités importantes de gaz à effet de serre. L’Allemagne s’est dotée récemment d’une feuille de route ambitieuse pour la fusion, dans l’optique de décarboner à terme cette part pilotable.

Le fait est que si la France investit lourdement dans l’énergie nucléaire, elle investit également dans la fusion : dans le projet ITER dont les retombées économiques sont majeures (6 milliards d’euros de contrats pour les industriels français à ce jour) et, en parallèle, dans l’étape suivante, à travers le projet de PEPR et le soutien à une start-up française du domaine, située à Grenoble, Renaissance Fusion.

Avec la fusion, les échéances semblent toujours lointaines – on parle de plasma dans ITER en 2035, de génération d’électricité pour alimenter le réseau à la fin du siècle. Est-ce que vous avez l’impression de vivre dans le futur en travaillant sur quelque chose qui n’arrivera pas d’ici la fin de votre carrière ?

Y. M. : Quelqu’un a comparé ça aux constructeurs de cathédrales. On travaille sur un projet dont les fruits ne seront pas nécessairement disponibles dans la durée de notre vie. On se met au service de quelque chose de plus grand. C’est une forme d’humilité, chacun apporte sa pierre ! Alors, il y a les boutades habituelles sur la fusion (« C’est pour dans trente ans et ça le restera »)… mais ce que je constate, c’est qu’il y a beaucoup de progrès, comme je vous le disais, sur les performances depuis les années 1970.

En ce moment, on progresse sur des aspects importants, comme le record de durée de plasma réalisé dans West cette année (1 337 secondes, soit 22 minutes).

En termes de performance sur le gain de fusion, les progrès ont été portés par nos collègues de la fusion inertielle, qui utilisent des lasers et ont obtenu des gains nets supérieurs à 1, c’est à dire que le plasma a produit plus d’énergie que ce qui lui a été apporté par les lasers. Sur ce point, pour la fusion magnétique, nous sommes dans une phase de latence, le temps qu’ITER soit finalisé. Je pense qu’une des raisons pour lesquelles ça prend autant de temps, c’est que les objectifs d’ITER sont extrêmement ambitieux : puisque on veut faire dix fois mieux qu’aujourd’hui en termes de performance, et le faire pendant mille secondes pour s’approcher du fonctionnement d’une centrale… alors que les records de performance actuels, en termes de gain, ont été atteints pour moins d’une seconde.

En d’autres termes, vous cherchez à faire dix fois mieux pendant mille fois plus longtemps…

Y. M. : Oui, et c’est important, parce que certaines start-ups promettent des choses bien plus tôt, mais sur des durées de plasma beaucoup plus courtes. Les résultats seront très intéressants, mais cela leur permet d’éviter pour l’instant des problèmes que l’on aura de toute façon, un jour ou l’autre, dans une centrale.

Mais je pense qu’on travaille en fait en parallèle, car ces start-ups poussent des technologies qui pourraient s’avérer clé pour la suite. Ma conviction, c’est que grâce à ces efforts combinés, l’étape « post-ITER » va beaucoup accélérer.

The Conversation

Yannick Marandet a reçu des financements d'AMIDEX, de l'ANR et de l'Europe.

PDF

28.05.2025 à 12:27

Les enzymes, ces « nanomachines du vivant » qui pourraient transformer des déchets plastiques en ressources

Bastien Bissaro, Chercheur sur la biodiversité fongique et les biotechnologies, Inrae

Fanny Seksek, Doctorante au Laboratoire de Biodiversité et Biotechnologies Fongiques, Inrae

Recycler certains déchets plastiques, c’est possible, grâce à des molécules biologiques ultraspécialisées.
Texte intégral (1825 mots)

Les déchets plastiques sont une plaie désormais bien identifiée. Certaines enzymes – des protéines très spécialisées, véritables nanomachines – sont capables de dégrader des molécules similaires aux plastiques de consommation courante.

Une enzyme microbienne, capable de s’attaquer à la barrière protectrice de plantes, a été détournée pour recycler le PET, un plastique dont on fait les bouteilles d’eau.


Chaque année, 400 millions de tonnes de plastiques sont produites sur Terre, soit la masse de 40 000 tours Eiffel. Environ 80 % de ces plastiques sont éliminés dans des décharges ou rejetés dans l’environnement. Les plastiques sont aujourd’hui indispensables à notre mode de vie moderne, car ils répondent à des besoins en matière de santé, d’habillement, d’emballage, de construction, de transport, de communication, d’énergie, etc.

Malheureusement, les plastiques (ou polymères synthétiques), principalement dérivés de ressources fossiles, posent cependant un problème écologique majeur en raison de leur faible taux de recyclage et de leur accumulation dans l’environnement. Différentes pistes de recyclage économe en énergie existent. S’il convient de garder à l’esprit qu’il n’y a pas de meilleur déchet que celui qui n’est pas généré, il faut aussi s’attaquer à dégrader les déchets déjà produits et ceux qui sont devenus indispensables.

En 2020, une étude a démontré qu’il est possible de recycler le PET – constituant principal de nombreuses bouteilles plastiques notamment – grâce à des enzymes, les « nanomachines du vivant ».

Comment recycler les plastiques de façon sobre ?

Pour commencer, expliquons ce qu’est un plastique : une succession de « perles » microscopiques (appelées monomères) qui sont assemblées en « colliers » (polymère), auxquels s’ajoutent diverses molécules chimiques. Le type de monomère, et son assemblage en polymère dictent la nature du plastique et ses propriétés.

Recycler les déchets plastiques implique donc soit de couper le polymère en monomères d’origine pour ensuite reformer de nouveaux colliers (on parle alors de recyclage chimique ou enzymatique), soit de broyer le déchet plastique pour le réagglomérer (on parle alors de recyclage mécanique).

Le recyclage chimique repose en général sur des procédés qui sont très gourmands en énergie et le recyclage mécanique produit souvent des matériaux de moindre qualité après retraitement.


À lire aussi : Recyclage et valorisation des déchets plastiques : comment ça marche ?



À lire aussi : Vers des plastiques biodégradables et recyclables ? La piste des « PHAs » progresse


Il est important de noter que moins de 10 % du plastique mondial est actuellement recyclé. Des technologies de recyclage qui sont à la fois moins gourmandes en énergie et plus propres sont donc très recherchées.

Les enzymes, outils du vivant pour catalyser les réactions chimiques

Face à ce constat, l’utilisation d’enzymes représente une solution (bio) technologique prometteuse.

En effet, les enzymes sont des outils indispensables du vivant : produites par tout organisme, ces protéines ont pour rôle de catalyser des réactions chimiques de manière très fine et contrôlée.

Les processus enzymatiques sont partout : de la digestion des aliments à leur transformation en énergie, en passant par la fabrication d’hormones et autres composés indispensables au fonctionnement des êtres vivants.


Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


La force inégalée des enzymes, expliquant leur prépondérance comme nanomachines du vivant, est leur sélectivité : pour pouvoir assurer sa fonction et ne pas modifier son environnement de manière incontrôlée, chaque enzyme agit sur une liaison chimique bien déterminée, permettant ainsi d’obtenir des produits de réaction parfaitement contrôlés.

Et les plastiques dans tout ça ? De par leur introduction très récente dans l’environnement, les enzymes spécialisées dans la dégradation de plastiques synthétiques pétrosourcés sont encore (très) rares.

Cependant, la similitude de ces plastiques avec des polymères naturels récalcitrants qui, eux, peuvent être dégradés par certaines enzymes naturelles a donné à la communauté scientifique l’idée d’adapter ces dernières enzymes aux plastiques.

schéma de la cutine et du PET
Le PET et le biopolymère de cutine partagent des similarités chimiques, qui permettent d’adapter une même enzyme pour dégrader l’un et l’autre. Fanny Seksek et Bastien Bissaro, Fourni par l'auteur

Recycler le PET grâce à une enzyme naturelle modifiée

Un bel exemple de cette démarche est celui développé par l’entreprise française Carbios en collaboration avec les équipes de recherche du Toulouse Biotechnology Institute (TBI) pour le recyclage enzymatique du polyéthylène-téréphtalate (PET), un plastique largement utilisé dans la fabrication de bouteilles en plastique et de textiles.

Pour cela, ils ont utilisé une enzyme appelée « cutinase », spécialisée dans la dégradation de la cutine, qui est un polymère d’acide gras que l’on trouve communément à la surface de certaines plantes. Cette barrière protectrice est dégradée par certains pathogènes comme des bactéries et des champignons, qui produisent pour ce faire des enzymes spécialisées dans le clivage de ses chaînes. Comme les liaisons chimiques reliant les monomères constituant la cutine et le PET sont de même type (liaison ester), la cutinase testée s’est avérée avoir une activité (certes faible) de dégradation du PET.

Cela a constitué une base prometteuse pour ensuite améliorer l’activité de l’enzyme, par des méthodes dites d’« ingénierie protéique ». Cette stratégie a permis d’adapter l’enzyme à un procédé industriel, qui se déroule dans des conditions très lointaines des conditions naturelles de l’enzyme (température plus élevée, concentrations en polymère élevées, besoin de réaction rapide, etc.).

In fine, ce procédé enzymatique permet de récupérer les monomères du PET, qui peuvent ensuite être réutilisés pour synthétiser du PET « neuf » pour faire soit de nouvelles bouteilles, soit des vêtements. Si la variabilité des bouteilles et des textiles (additifs, colorants) peut impacter l’efficacité du procédé, les performances sont suffisamment bonnes pour justifier la construction d’une usine à Longlaville, en Meurthe-et-Moselle, débutée en 2024.

Développer d’autres enzymes pour recycler d’autres types de plastiques

Bien que cette découverte soit prometteuse pour le déploiement d’enzymes dans le recyclage du PET, elle ne peut s’appliquer à tous les plastiques existants : à chaque liaison chimique son enzyme, puisque celles-ci sont hautement sélectives.

Pour chaque plastique que l’on souhaite recycler, c’est donc un nouveau défi. Les plastiques les plus abondants sur Terre que sont le polyéthylène (abrévié PE) et le polypropylène (abrévié PP) sont constitués de liaisons carbone-carbone très solides, les rendant totalement insensibles aux enzymes jusqu’ici découvertes. Cela reste donc rare de voir des success stories de recyclage enzymatique des plastiques, car c’est un sujet relativement récent qui va demander de nombreuses années de travail pour arriver à de nouvelles réussites.

The Conversation

Bastien Bissaro a reçu des financements de l'ANR.

Fanny Seksek a reçu des financements de l'ANR.

PDF

28.05.2025 à 12:27

Des souris nées de deux pères : que nous apprend cette première mondiale ?

Jean-François Bodart, Professeur des Universités, en Biologie Cellulaire et Biologie du Développement, Université de Lille

Début 2025, une équipe chinoise a donné naissance à des souris, à partir de deux pères, bouleversant ainsi des certitudes sur la reproduction sexuée et le rôle du génome paternel.
Texte intégral (1997 mots)

Et si, chez les mammifères, la naissance pouvait se passer de l’union des cellules sexuelles d’un père et d’une mère ? Début 2025, une équipe chinoise franchissait une étape inédite en donnant naissance, à partir de deux pères, à des souris qui ont pu atteindre l’âge adulte, bouleversant ainsi des certitudes sur la reproduction sexuée et le rôle du génome paternel.

Cette prouesse, rendue possible par des modifications épigénétiques ciblées, fournit un nouvel éclairage sur les mécanismes fondamentaux du développement embryonnaire.


Chez les mammifères, la reproduction sexuée implique la fusion de deux cellules sexuelles, ou gamètes : l’ovocyte maternel et le spermatozoïde paternel. Si cette règle semble universelle, elle ne l’est pas chez tous les animaux : de nombreux poissons, reptiles ou insectes peuvent se reproduire par parthénogenèse, qui est un mode de reproduction dans lequel un œuf se développe en un nouvel individu sans avoir été fécondé par un mâle.

Mais, chez les mammifères comme la souris, les tentatives de développement embryonnaire à partir d’un seul type de génome – qu’il soit maternel ou paternel – avaient échoué systématiquement.

Au cours de la formation des gamètes, l’empreinte génomique, ou marquage épigénétique, rend certains gènes actifs ou silencieux selon leur origine parentale. Les marquages épigénétiques sont des modifications chimiques de l’ADN ou de ses protéines associées : ils n’altèrent pas la séquence génétique mais influencent l’expression des gènes, un peu comme des interrupteurs qui allument ou éteignent certains gènes selon leur provenance. Cette empreinte est essentielle pour la régulation de gènes impliqués dans le développement jusqu’à son terme de l’embryon.

Photo de ligres femelles et mâles (un ligre est un croisement entre un lion mâle et une tigresse femelle) prise au parc d’attractions Everland, en Corée du Sud
Les ligres sont issus de l’hybridation d’un lion et d’une tigresse. Hkandy/Wikimedia, CC BY

Ce principe d’empreinte parentale est parfois observé lors de l’hybridation entre espèces proches, comme le lion et le tigre. Lorsqu’un lion et un tigre s’accouplent en captivité, le nouveau-né, ligre ou tigron, n’est pas le même selon que la mère est une tigresse ou une lionne. Cette différence s’explique par les mécanismes d’empreinte génétique : les gènes paternels (du lion) favorisent la croissance tandis que les gènes maternels (de la lionne) la limitent. Ainsi, un ligre (père lion, mère tigresse) devient le plus grand des félins, car il bénéficie des gènes de croissance du lion sans les freins maternels. À l’inverse, un tigron (père tigre, mère lionne) reste de taille normale ou petite, car la lionne transmet ses gènes inhibiteurs de croissance. Ces variations remarquables illustrent la puissance de l’empreinte parentale dans la régulation du développement.

Souris bi-maternelles : une première étape franchie

En 2004, naît Kaguya, première souris viable issue de la combinaison de deux génomes maternels. Cette naissance s’inscrivait dans une recherche qui visait à explorer et confirmer le rôle central de l’empreinte parentale dans la viabilité embryonnaire. Pour contourner l’empreinte génomique, des ovocytes immatures de souris nouveau-nées sont modifiés génétiquement par la suppression de la région régulatrice du gène maternel H19 et l’activation d’un gène paternel Igf2 (régulation de la croissance). Le noyau de ces ovocytes est transféré dans un ovocyte mature normal, créant un embryon bimaternel.

Seuls 2 souriceaux survivent sur 598 embryons, dont Kaguya, qui a atteint l’âge adulte et a pu se reproduire normalement, mais dont le développement présentait un retard de croissance par rapport à celui des souris issues d’une reproduction classique. En 2015, le perfectionnement d’une approche utilisant la modification de l’empreinte génomique de cellules souches embryonnaires haploïdes (un seul exemplaire de chaque chromosome) a permis l’obtention de souris bimaternelles fertiles avec une efficacité accrue.

Si la reproduction bi-maternelle a pu être obtenue, la reproduction bi-paternelle s’est avérée un défi plus complexe. Le gamète maternel, en plus du matériel génétique, apporte l’essentiel des ressources nécessaires au développement initial de l’embryon (ARN, protéines, organites), tandis que le spermatozoïde apporte essentiellement son ADN, qui permettra la première division cellulaire.

Les embryons de souris issus de deux pères présentaient initialement de graves anomalies, incompatibles avec un développement complet, et mouraient avant la naissance ou peu après.


Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


La naissance de souris viables issues de deux pères

Début janvier, l’équipe de Zhi-kun Li a franchi ce verrou biologique en réalisant une série de 20 modifications génétiques ciblées sur des régions d’empreinte clés dans des cellules souches embryonnaires dérivées de spermatozoïdes. Ces modifications incluaient des délétions, des mutations et modifications de régions régulatrices sur des gènes critiques, dont des gènes impliqués dans la croissance embryonnaire, le développement placentaire et les fonctions neurologiques. Ces cellules modifiées ont ensuite été fusionnées avec un second spermatozoïde et injectées dans un ovocyte énucléé, c’est-à-dire un ovocyte dont le matériel nucléaire est retiré. Au cours du développement précoce, l’ajout de cellules supplémentaires pour former un placenta fonctionnel, s’est montré crucial pour un développement jusque la naissance. Ces modifications génétiques ciblées ont donc permis de corriger les déséquilibres d’expression génique imposés par l’empreinte parentale.

Les résultats ont été spectaculaires : les défauts majeurs observés dans les embryons bipaternels (croissance excessive, anomalies placentaires, troubles de la succion) ont été corrigés. Ces souris ont grandi et, pour certaines, survécu jusqu’à l’âge adulte mais restaient stériles et incapables de se reproduire naturellement. Le taux de réussite reste modeste (environ 4 % des embryons modifiés).

Souris bipaternelles, bimaternelles et énigmes de l’empreinte génomique

Les souris bimaternelles et bipaternelles présentent des caractéristiques opposées, reflétant le rôle antagoniste des empreintes parentales. Les premières sont plus petites, vivent plus longtemps et sont plus anxieuses, tandis que les secondes grandissent plus vite, vivent moins longtemps, sont plus téméraires, mais présentent des troubles du développement. Cela confirme que les gènes paternels stimulent la croissance, tandis que les gènes maternels la freinent, assurant un équilibre vital. Les travaux récents montrent que l’empreinte génomique est le principal obstacle à la reproduction bipaternelle. En modulant ces régions, un développement embryonnaire normal peut se produire.

Cette avancée ouvre plusieurs perspectives. En recherche fondamentale, l’étude de l’empreinte génomique permettra de mieux comprendre certaines maladies humaines rares comme les syndromes de Prader-Willi, caractérisé par une obésité sévère et des troubles alimentaires, et d’Angelman, qui provoque un retard intellectuel et une absence quasi totale de langage, tous deux liés à des défauts d’empreinte. Sur le plan des biotechnologies, la correction de ces anomalies pourrait améliorer l’efficacité du clonage animal et la stabilité des cellules souches en médecine régénérative. Enfin, les souris bipaternelles et bimaternelles offrent de nouveaux modèles pour explorer l’influence des génomes parentaux sur le développement et le comportement.

De nombreuses limites subsistent. Les souris bipaternelles présentent encore des anomalies (croissance accélérée, troubles du comportement, espérance de vie réduite), et leur développement dépend de manipulations lourdes et d’un environnement très contrôlé.

La génération de souris adultes à partir de deux pères, rendue possible par la modification de l’empreinte génomique, questionne donc la compréhension des règles fondamentales de la reproduction chez les mammifères. Cette avancée ouvre des voies inédites, et rappelle la complexité des mécanismes épigénétiques sans éluder une réflexion éthique critique : la question de la transposabilité à d’autres espèces, et en particulier à l’humain, n’est pas une question mineure.

The Conversation

Jean-François Bodart ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

28.05.2025 à 12:26

Pourquoi les grands instruments scientifiques sont-ils remplis de vide ?

Sylvain Lemettre, Ingénieur-chercheur en physique du vide, Université Paris-Saclay

Le vide est un outil fondamental pour le fonctionnement des très grands instruments scientifiques. Quels sont ces instruments, et pourquoi le vide leur est-il indispensable ?
Texte intégral (1789 mots)
Représentation artistique du tunnel pour le FCC-hh (collisionneur proton-proton) (image : PIXELRISE) CERN, CC BY

Dans notre quotidien, ce qui nous apparaît comme des espaces vides sont en fait remplis de milliards de molécules de gaz, le « vrai » vide se trouve essentiellement dans l’espace. Certains grands instruments scientifiques doivent pourtant être emplis de vide pour fonctionner.


En cette année 2025, l’Organisation européenne pour la recherche nucléaire (CERN) a publié l’étude de faisabilité de la construction d’un nouvel accélérateur de particules géant, appelé Futur collisionneur circulaire (FCC). Cet accélérateur mesurerait de 80 à 100 kilomètres de circonférence et serait donc au moins trois fois plus grand que le plus grand accélérateur de particules du monde, nommé LHC, déjà construit sur le même site, à la frontière franco-suisse. Ce projet, par son gigantisme, soulève de nombreuses réserves, et ce jusque dans la communauté scientifique : certains estiment que les chances de nouvelles découvertes scientifiques apportées par cet accélérateur sont trop faibles en regard de son impact écologique.

Une des caractéristiques fondamentales d’un accélérateur de particules est qu’il fonctionne sous un très haut niveau de vide. Mais le LHC n’est pas la seule installation sous vide géante construite par l’être humain sur la planète.

Le vide, qu’est-ce que c’est ?

Le terme vide est employé dans la vie de tous les jours pour exprimer une absence ou un manque de matière. En réalité, même un espace qui nous paraît vide est empli de molécules gazeuses : une boîte de 1 m3 ne contenant aucun objet en apparence est en fait remplie d’environ 1029 molécules gazeuses, principalement de l’azote et de l’oxygène. Cette boite est, comme tout ce qui nous entoure, à une pression d’à peu près 101 325 Pascal (Pa), correspondant à la pression atmosphérique, aussi exprimée par l’unité 1 atmosphère.

En physique le vide caractérise un espace dans lequel le nombre de molécules gazeuses est raréfié par rapport à cette pression atmosphérique, ce qui se traduit par une plus faible pression que 1 atmosphère.

Le développement continu des technologies du vide depuis le XVIIème siècle a permis d’atteindre des niveaux de vide de plus en plus élevés – correspondant à des pressions de plus en plus basses – qui ont été classés en différentes catégories : descendre jusqu’à 10-1 Pa c’est réaliser un vide « primaire », jusqu’à 10-6 Pa c’est réaliser un vide « secondaire » ou « haut vide », jusqu’à 10-10 Pa « l’ultravide », et des pressions encore inférieures sont appelées « extrême vide ».


Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Le vide est donc une notion relative : vivre sous 1 atm est une exception, étant donné que l’immense majorité de l’univers est en fait « sous vide ». Par exemple, sur la Lune, qui n’a pas d’atmosphère, la pression est inférieure à 10-8 Pa telle que l’a mesurée la mission Apollo 14 en 1971. Quelle que soit la région de l’espace considérée (interplanétaire, interstellaire ou intergalactique), le niveau de vide est si élevé qu’il est préférable de le quantifier non plus par des pressions en pascal mais par des densités de molécules par unité de volume. On estime ainsi qu’il n’y a que quelques molécules gazeuses par m³ dans l’espace intergalactique.

Le vide est un outil essentiel qui intervient dans la fabrication – voire qui est nécessaire au fonctionnement – d’un très grand nombre d’objets technologiques, trop nombreux pour être listés, tels que les imageurs infrarouge ou les cellules solaires. Il est indispensable à la réalisation des expériences dans certains des très grands instruments scientifiques tel que l’accélérateur de particules.

L’accélérateur de particules

Cet instrument permet d’accélérer à des vitesses relativistes (proches de celle de la lumière), à l’intérieur d’un ensemble de tubes, des particules atomiques telles que des électrons ou des protons, pour les faire se collisionner et étudier ainsi de quoi elles sont constituées, ou pour leur faire émettre des rayonnements ultrabrillants permettant ensuite de sonder la matière. Ces particules ne peuvent être manipulées efficacement et précisément que dans un environnement extrêmement contrôlé, et donc sans molécule de gaz. Le vide contribue aussi à protéger les composants de l’accélérateur de la dégradation.

Le réseau existant de tubes du LHC du CERN atteint une longueur totale de 104 km, maintenu selon les sections sous une pression allant de 10-4 Pa à 10-10 Pa. Pour ces dernières, cela signifie qu’elles contiennent au moins 1010 molécules par m3 – ce qui représente donc encore un grand nombre de molécules par rapport à celles que l’on trouve dans l’espace profond. Cette installation est enterrée à 100 m sous la terre. Le CERN espère construire un accélérateur encore plus grand, le FCC à partir de 2030, tandis que la Chine planifie aussi de construire son accélérateur géant dans les années à venir.

Un autre très grand instrument scientifique est aussi basé sur de longues sections de tubes sous vide : c’est le détecteur d’ondes gravitationnelles.

Le détecteur d’ondes gravitationnelles

La détection d’ondes gravitationnelles – ces infimes perturbations de l’espace-temps – est notamment réalisée dans quatre détecteurs géants construits en Europe, aux États-Unis et au Japon. Le principe de détection repose sur la mesure des déviations du trajet rectiligne d’un laser. Ce dernier circule dans des tubes maintenus à 10-7 Pa. Le vide élimine toute source de perturbations du rayonnement laser, et le stabilise : il supprime les obstacles constitués par les molécules de gaz, il contribue à éliminer les vibrations soniques et thermiques. Enfin, il protège les instruments de la contamination particulaire.

Le plus grand des détecteurs d’ondes gravitationnelles est actuellement le LIGO aux États-Unis dans l’état de Washington, avec 8 km de tube représentant 1 200 m³ de volume. Un plus grand encore devrait entrer en construction à partir de 2028 en Europe, nommé Einstein Telescope, dont la longueur totale de tube sous vide approcherait 120 km environ – soit plus que le LHC !

Le tokamak

Un tokamak est la pièce principale d’un réacteur de fusion nucléaire, qui promet une nouvelle source d’énergie dans un horizon encore lointain. Il s’agit d’un tore (forme géométrique ressemblant à celle d’un donut) dans lequel est généré un plasma dont la température atteint celle régnant au cœur des étoiles – soit une température extrême de plusieurs dizaines de millions de degrés ! Obtenir et maintenir de telles températures nécessite une excellente isolation thermique, qui est assurée par le vide.

Le plus grand tokamak du monde est en cours d’assemblage sur le site d’ITER (réacteur thermonucléaire expérimental international) dans les Bouches-du-Rhône. Le volume des parties sous vide avoisine les 10 000 m3, qui seront sous une pression inférieure ou égale à 10-4 Pa.

Enfin, un autre type de chambre à vide permet de reproduire des températures régnant dans l’espace : la chambre de simulation spatiale.

La chambre de simulation spatiale

La principale source de dommages affectant les composants d’un véhicule spatial est le rayonnement solaire, car ce dernier n’est plus filtré par l’atmosphère terrestre. Pour tester au sol la tenue thermique d’un équipement avant de l’envoyer dans l’espace, des chambres à vide dites de « simulation spatiale » ont été construites. Celle du Space Environments Complex de la NASA située dans l’État de l’Ohio est la plus grande installation sous vide du monde par son volume : plus de 22 000 m3. Les objets placés à l’intérieur sont soumis à des cycles de température pouvant aller de -160 °C à 80 °C, sous une pression inférieure à 5x10-4 Pa.

La revue de ces très grands instruments scientifiques a donné un panorama des principales fonctions technologiques du vide, qui peuvent être classées en deux catégories : faire circuler des objets (des particules atomiques, de la lumière, et peut-être des êtres humains) ou reproduire à la surface terrestre un environnement spatial.

The Conversation

Sylvain Lemettre ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

28.05.2025 à 12:25

Quand les animaux prennent la parole

Alban Lemasson, Professeur à l'université de Rennes 1, directeur du laboratoire d'éthologie animale et humaine (EthoS), Université de Rennes 1 - Université de Rennes

Maël Leroux, Maître de conférence, Université de Rennes 1 - Université de Rennes

Découvrez un extrait de l’ouvrage « Quand les animaux prennent la parole ! » où l’on se demande si les animaux peuvent utiliser une forme rudimentaire de syntaxe.
Texte intégral (2544 mots)
Les chimpanzés peuvent communiquer entre eux en combinant des cris pour produire de nouveaux sens. Mael Leroux, Fourni par l'auteur

Dans leur livre « Quand les animaux prennent la parole ! », tout juste paru dans la collection « Espace des sciences » des éditions Apogées, Alban Lemasson et Maël Leroux explorent la richesse et la complexité de la communication vocale des animaux. Peut-on vraiment parler de langage animal ? Existe-t-il des formes de conversation, des intentions d’informer, des dialectes chez d’autres espèces ? Découvrez un extrait où les auteurs se penchent sur une question clé : les animaux utilisent-ils une forme rudimentaire de syntaxe ?


Le Grand Robert recense cent mille mots qui constituent autant d’unités porteuses de sens nous permettant de communiquer les un·e·s avec les autres. Cependant, ce n’est pas ce nombre impressionnant de mots qui permet de considérer le langage humain comme le système de communication le plus complexe du règne animal. Nos capacités de mémoire limitent très vite le nombre de mots que nous sommes capables de maîtriser et notre discours se compose en moyenne à 90 % des mêmes mille mots ! […] Malgré cela, notre langage reste, à notre connaissance, le système de communication le plus complexe, avec un « pouvoir génératif infini ». Autrement dit, peu importe la situation et même si celle-ci est inédite, les humains seront capables de la décrire précisément en utilisant le langage.

Mais alors, comment peut-on communiquer à propos d’un nombre infini de situations avec un nombre limité de mots ? Il y a une astuce : nous sommes capables de combiner ces mots en structures plus complexes : les phrases. C’est la syntaxe. Et c’est cette structuration syntaxique qui donne à notre langage son pouvoir génératif infini : la diversité des phrases que nous pouvons construire est théoriquement illimitée. Par exemple, nous pouvons dire « le chat sur le chemin chasse l’oiseau », mais nous pouvons également dire « le chat à soixante-cinq têtes sur le chemin qui mène au puits chasse l’oiseau qui est allé se poser sur les bords de la Seine ». Si la première phrase est couramment utilisée, il est très probable que la deuxième n’ait jamais été construite jusqu’à l’écriture de ce livre. Malgré sa singularité, nous comprenons cette deuxième phrase parfaitement, au même titre que la première, plus commune. Cela s’explique par le caractère compositionnel de ce type de structures syntaxiques : nous dérivons le sens de ces structures du sens des unités qui les composent. Ainsi, nous sommes capables de comprendre n’importe quelle construction, quelle que soit sa complexité ou sa nouveauté, en déchiffrant le sens des mots qui composent la phrase et la manière dont ils sont agencés. […] La question qui se pose est donc la suivante : cette syntaxe est-elle le propre de notre espèce ou pouvons-nous observer des formes rudimentaires de syntaxe chez d’autres espèces animales ?


Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Photographie d’un Mone de Campbell
Les mones de Campbell combinent des cris pour signaler si un danger émane du sol ou plutôt du ciel. Animalia, CC BY

Les premiers travaux documentant des formes de syntaxe chez les animaux non humains se sont basés sur les systèmes de communication déjà décrits chez le mone de Campbell, un petit singe cercopithèque d’Afrique de l’Ouest. […] Cette espèce possède deux cris d’alarme distincts pour chacun de ses prédateurs : le krak pour le léopard et le hok pour l’aigle. Mais la vie d’un petit cercopithèque dans la forêt ivoirienne est semée de bien d’autres embûches, certes moins dangereuses qu’un léopard ou un aigle, mais tout aussi importantes à prendre en compte. Par exemple, une branche qui tombe d’un arbre ou l’arrivée d’un groupe d’antilopes sont autant de perturbations représentant une gêne ou un risque non négligeable. Cependant, démultiplier les types de cris distincts pour alerter sur chacune de ces perturbations constituerait un vocabulaire trop important pour ces singes, sans compter les risques de confusion qu’un tel nombre de cris générerait et qui pourrait se révéler fatale dans une situation urgente. La solution : combiner le krak et le hok avec une autre unité, le oo, qui signale la présence d’une perturbation plus générale. Ainsi, les singes, en présence d’une perturbation venant d’en haut, telle une branche qui tombe, vont combiner le hok avec le oo pour former la structure hok-oo : « comme un aigle ». À l’inverse, lorsque les mones de Campbell rencontrent une perturbation venant du sol, comme une antilope, elles vont combiner le krak avec le oo pour former la structure krak-oo : « comme un léopard ». Des expériences de repasse par haut-parleur de cris avec et sans « suffixe » à la fois naturels (vrai krak ou vrai krak-oo) et artificiels (krak-oo dont on a retiré le oo pour construire en laboratoire un faux krak, et krak auquel on a ajouté un oo pour construire un faux krak-oo) ont montré que les sujets réagissaient bien au sens créé par la combinaison indépendamment du contexte d’enregistrement initial. En combinant ces unités porteuses de sens en structures plus complexes, ces cercopithèques démontrent des capacités rudimentaires de syntaxe. Parce que le sens de ces structures est dérivé directement du sens des unités qui les composent, ces combinaisons sont considérées comme des éléments de syntaxe dite « compositionnelle » chez ces primates. […]

Une autre structure syntaxique compositionnelle observée chez diverses espèces consiste en la combinaison d’un cri d’alarme avec un cri de recrutement. Le cri d’alarme, chez le chimpanzé par exemple, est produit lorsqu’un individu est surpris ou effrayé, en présence d’un serpent notamment, mais aussi lors d’un séisme ou à l’arrivée d’un potamochère (cousin du sanglier). Les chimpanzés produisent également des cris de recrutement lorsqu’ils sollicitent de l’aide pour chasser du gibier ou se défendre contre une communauté de chimpanzés voisine. Des observations en milieu naturel indiquent que les chimpanzés combinent ces deux cris en une structure complexe lorsqu’isolés du groupe, ils tombent nez à nez avec un serpent. L’hypothèse formulée par les scientifiques est que le chimpanzé, dans cette situation, appelle ses congénères aux alentours à l’aide, tout en précisant le caractère urgent et dangereux de la situation. Pour tester cette hypothèse, les scientifiques ont dissimulé un modèle de serpent imprimé en 3D sur la trajectoire de chimpanzés isolés de leur groupe dans les forêts d’Ouganda. Les résultats sont sans appel : dans cette situation, les chimpanzés produisent cette combinaison de manière systématique et les chimpanzés dans les environs qui entendent cette structure se joignent à l’individu émetteur : ils sont recrutés pour chasser ce serpent. Mais les chimpanzés qui entendent la combinaison d’un cri d’alarme avec un cri de recrutement perçoivent-ils cette structure comme un système syntaxique ? Ou interprètent-ils simplement chaque cri l’un après l’autre sans qu’un lien syntaxique entre les deux ne soit nécessaire pour comprendre la situation et réagir de manière appropriée ? Pour répondre à cette question, les scientifiques ont effectué des expériences de repasse chez les mêmes chimpanzés sauvages d’Ouganda.

Ces expériences consistent à diffuser, par haut-parleur, les cris d’alarme et de recrutement seuls, ainsi que la combinaison des deux, à des chimpanzés et à mesurer l’intensité de leur réaction. Si les chimpanzés interprètent la combinaison alarme-recrutement comme un système syntaxique, alors l’intensité de leur réponse à la combinaison doit être supérieure à la somme de leur réponse aux deux cris pris indépendamment l’un de l’autre. Les résultats de ces expériences montrent que les chimpanzés réagissent le plus fortement lorsque la combinaison est jouée : ils regardent dans la direction du haut-parleur plus rapidement et scrutent dans cette direction plus longtemps. C’est également uniquement dans ce cas que les chimpanzés s’approchent du haut-parleur. En comparaison, les chimpanzés ne regardent que très peu vers le haut-parleur et ne s’approchent jamais lorsqu’ils entendent seulement un cri d’alarme ou un cri de recrutement. Dans le premier cas, un cri d’alarme seul peut simplement indiquer la surprise de l’individu émetteur sans nécessairement indiquer un danger immédiat. Dans le deuxième cas, un individu qui entend un cri de recrutement seul, en l’absence d’autres indications lui permettant de déterminer la raison d’un potentiel recrutement, va se désintéresser de la source de ce cri : était-ce pour chasser une antilope ? Défendre mon territoire ? Prises ensemble, ces données indiquent que les chimpanzés réagissent de manière significative, plus qu’additive à la combinaison, c’est-à-dire que leur réaction à la combinaison alarme-recrutement est plus importante que ne serait leur réaction à un cri d’alarme ajoutée à leur réaction à un cri de recrutement. La combinaison produite par les chimpanzés est donc bien une structure syntaxique compositionnelle, dont le sens est dérivé du sens des unités qui la composent (« Attention ! Viens ! »). Ce type de structure syntaxique alarme-recrutement est également présent chez plusieurs espèces d’oiseaux comme le cratérope bicolore, la mésange japonaise et la mésange charbonnière. […]

Couverture de l’ouvrage « Quand les animaux prennent la parole ! » publié aux Éditions Apogée
Couverture de l’ouvrage « Quand les animaux prennent la parole ! » publié aux Éditions Apogée. Fourni par l'auteur

Les implications de ces résultats sont particulièrement importantes d’un point de vue de l’évolution du langage et de notre espèce. En effet, la présence de formes rudimentaires de syntaxe chez les primates, et notamment les chimpanzés, nos plus proches parents, suggère que la syntaxe serait évolutivement plus ancienne. Jusqu’alors considérée comme un des éléments distinctifs de notre espèce, la syntaxe serait déjà présente chez notre ancêtre commun, voire au-delà au regard des données disponibles chez les autres espèces de primates !

The Conversation

Maël Leroux a reçu des financements de l'ANR (ANR-24-CE28-6179-01) et de Rennes Métropole (24CO981).

Alban Lemasson ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

28.05.2025 à 12:24

Le quiz Science de la quinzaine

Benoît Tonson, Chef de rubrique Science + Technologie, The Conversation France

Le quiz Science de la quinzaine sur des articles de The Conversation.
Lire + (224 mots)
Le quiz Science, tous les 15 jours dans la newsletter Moins de bruit, plus de Science. CC BY

Pour recevoir le quiz Science chaque quinzaine dans votre boîte mail, abonnez-vous à notre newsletter «Moins de bruit, plus de science».


Espace, préhistoire, IA, biologie… Prenez le temps d'explorer l'actu scientifique, de rencontrer un chercheur ou une chercheuse dans le grand entretien, et évadez-vous dans le monde des sciences !

Cette semaine, un quiz pour tester vos connaissances sur les animaux. À vous de jouer !

Pour en savoir plus sur les capacités de communication des animaux nous vous invitons à lire ces deux articles :

The Conversation
PDF

27.05.2025 à 22:13

How ongoing deforestation is rooted in colonialism and its management practices

Justine Loizeau, Postdoctoral research fellow in sustainability and organization, Aalto University

Antoine Fabre, Maitre de Conférences en Sciences de Gestion, Université Paris Dauphine – PSL

Clément Boyer, Doctorant à la Chaire Comptabilité Écologique, Université Paris Dauphine – PSL

Pierre Labardin, Professeur des Universités, IAE La Rochelle

The world’s remaining great primary forests, including those in Borneo, the Amazon and the Congo basin, are still threatened by deforestation. This harmful practice often has colonial origins.
Texte intégral (2047 mots)
As early as 1917, the Michelin company invested in plantations to produce rubber in what is now Vietnam. Here, hevea trees are seen in Southeast Asia in 1913. W. F. de Bois Maclaren, The Rubber Tree Book.

Half of the world’s forests were destroyed during the 20th century, with three regions mainly affected: South America, West Africa and Southeast Asia. The situation has worsened to the point that, in 2023, the European Parliament voted to ban the import of chocolate, coffee, palm oil and rubber linked to deforestation.

A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!

A long-standing dependence on raw materials

These products are at the heart of our economies and consumption habits. The case of rubber is particularly emblematic. Without this material, there would be no tyres and, thus, no cars, bicycles, sealing joints or submarine communication cables. Industrial rubber production depends on extracting latex, a natural substance that rubber trees such as hevea produce. Under pressure from corporations and states, Brussels last October announced a one-year postponement of its law regulating rubber imports.

This dependence on the rubber industry is not new. Rubber was central to the second industrial revolution, especially with the rise of automobiles and new management methods. While this history often centres on factories, citing contributions from figures such as Frederick Taylor and Henry Ford and industrial giants like Michelin, its colonial roots are less well known.

Indeed, rubber – like the other resources mentioned above – has been and continues to be primarily produced in former colonial territories. In many cases, rubber trees are not native to the regions where they have been cultivated. Rubber seeds from South America, where latex was already extracted by picking, were transported by colonists to empires for the development of plantations. In particular, the French colonial empire, spanning Africa and Southeast Asia, saw a significant expansion of hevea plantations at the expense of primary forests. Monocultures of rubber trees replaced thousands of hectares.

Ford in the Amazon, Michelin in present-day Vietnam

This management model was favoured because it allowed for lower extraction costs from the coloniser’s perspective. For example, in 1928, Henry Ford negotiated an agreement with the Brazilian government granting him a 10,000 km2 concession of forest land to establish Fordlandia, a settlement designed to produce the rubber needed for his factories. However, this industrial utopia in the Amazon failed due to resistance from Indigenous people and a fungal disease that ruined the plantations.

Business Insider reports on the Fordlandia fiasco.

Following the same model, Michelin invested in plantations in present-day Vietnam as early as 1917. The plantation model and new management methods reduced the cost of rubber production and accelerated its global distribution. These management practices spread across the British, Dutch and French empires, becoming dominant in Southeast Asia in the early 20th century at the expense of primary forests.


À lire aussi : Allowing forests to regrow and regenerate is a great way to restore habitat


The ‘Taylorization’ of work and nature

Rubber plantations resulted from applying Taylorism not only to workers – especially colonised workers – but also to nature. Both people and trees were subjected to a so-called “scientific” organisation of labour. In our article, L’arbre qui gâche la forêt The Tree That Spoils the Forest, published in the Revue française de gestion (French Journal of Management) in 2024, we analysed historical archives, including a variety of newspapers from 1900 to 1950, covering national, local, colonial and thematic (scientific, cultural, etc.) perspectives. We show that this organisational model is based on an accounting undervaluation of indigenous people’s labour and of nature. This undervaluation is embodied in the metric of the cost price (i.e. the total cost of production and distribution) and in the shared concern to see it lowered. “Ultimately, it’s the cost price that must determine the fate of rubber,” stated the newspaper L’Information financière, économique et politique on February 1, 1914.

In the eyes of some, Asians who were labelled as “coolies” and Brazilian “seringueiros” comprised a low-cost labour pool, with no mention of their working conditions and despite very high mortality rates. “Coolie” is a derogatory colonial term that refers to agricultural labourers of Asian heritage, while “seringueiros” refers to workers in South American rubber plantations.

“By the way, in the Far East, there are reservoirs of labour (Java Island, English Indies), which supply plantations with workers who, while not the most robust, provide regular work at a very advantageous cost price.” (L’Information financière, économique et politique, November 11, 1922)

Concerning trees, only the plantation costs were considered, silencing the human and ecological costs of primary forest destruction.

“In the first year, some 237 francs will have to be spent on the clearing itself; then the planting, with staking […] and weeding, will represent an expense of 356 francs. […] For the following years, all that remains to be done is to consider the maintenance costs, cleaning, pruning, care, supply of stakes, replacement, etc. This will result in an expenditure of 1,250 francs for the first five years.” (L’Information financière, économique et politique, January 31, 1912)

The ‘Cheapization’ of life

The focus on cost price leads to standardisation of management practices by aligning with what is cheapest, at the expense of ever more intense exploitation of human and non-human workers. In other words, these assumptions about the construction of accounting metrics and the circulation of these metrics play a role in the “cheapization” of human and non-human labour. We borrow the concept of “cheapization” from the environmental historian Jason W. Moore. In his view, the development of capitalism is marked by a “cheapization of Nature”, which includes, within the circuits of capitalist production and consumption, humans and non-humans whose work does not initially have a market value. Living beings are thus transformed into a commodity or factor of production: “animals, soils, forests and all kinds of extra-human nature” are being put to work.


À lire aussi : What actually makes avocados bad for the environment?


Why does this colonial past matter?

These ways of managing people and nature continue to this day. Many industries still rely on the extraction of natural resources at low cost and in large quantities in the countries of the global south. Rubber is not the only resource whose exploitation dates to the Industrial Revolution: palm oil, sugar, coffee and cocoa have also had, and still have, an impact on the forests of the global south and are based on the work of local people. The exploitation of these resources is also often the fruit of colonial history. In 1911, the Frenchman Henri Fauconnier brought the first palm oil seeds, a plant originally from Africa, to Malaysia. More than a century later, the country remains a leading palm oil producer, a resource largely responsible for the deforestation of primary forests.

Beyond the case of rubber alone, we question the link between the pursuit of profit in formerly colonised territories, the destruction of the environment and the exploitation of local populations on two levels. Not only are primary forests destroyed to feed short-term profits, but habituation to this mode of environmental management is a historical construct. We must remember this when looking at news from countries with colonial pasts. Whether we’re talking about preserving the Amazon rainforest, poisoning soil and human bodies with chlordecone in the Antilles, or building a pipeline in Uganda, we need to take a step back. What are the historical responsibilities? What are the links between creating economic activities here and exploiting ecosystems and local populations there? What role do management theories and tools play in realising or reproducing these exploitative situations?

At a time when the ecological and social emergency is constantly invoked to call for the transformation of management practices and business models, the rubber example invites us to consider the colonial matrix of managerial practices and the Western historical responsibilities that led to this same emergency. And suppose we have to turn to other forms of management tomorrow: who may legitimately decide how to bring about this change? Are former colonisers best placed to define the way forward? Knowledge of colonial history should encourage us to recognise the value of the knowledge and practices of those who were and remain the first to be affected.


The COCOLE project is supported by the French National Research Agency (ANR), which funds project-based research in France. The ANR’s mission is to support and promote the development of fundamental and applied research in all disciplines, and to strengthen dialogue between science and society. To find out more, visit the ANR website.

The Conversation

Antoine Fabre has received funding from the French National Research Agency via the programme “Counting in a colonial situation. French Africa (1830-1962)” (ANR-21-CE41-0012, 2021-2026).

Pierre Labardin is a professor at La Rochelle University. He has received funding from the French National Research Agency via the programme “Counting in a colonial situation. French Africa (1830-1962)” (ANR-21-CE41-0012, 2021-2026).

Clément Boyer et Justine Loizeau ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.

PDF

27.05.2025 à 17:06

Terrorisme : comprendre le parcours des « loups solitaires » pour prévenir de nouveaux attentats

Diego Muro, Senior Lecturer in International Relations, University of St Andrews

Ovidiu Craciunas, PhD candidate, The Handa Centre for the Study of Terrorism and Political Violence, University of St Andrews

Les attentats perpétrés par des « loups solitaires » se sont multipliés ces dernières décennies. Comment répondre efficacement à cette menace ?
Texte intégral (2203 mots)

Santé mentale défaillante, radicalisation sur les réseaux sociaux, sentiment d’injustice… Des individus isolés ont multiplié les attentats ces dernières décennies, faisant de nombreuses victimes. Comment répondre et parvenir à endiguer cette menace ?


Les attentats à motivation politique, perpétrés par des individus isolés, sans affiliation directe avec un groupe terroriste, sont devenus plus fréquents en Europe au cours des dernières décennies.

L’une des formes les plus courantes et les plus dévastatrices de violence commises par des acteurs solitaires consiste à foncer dans la foule. En 2016, Mohamed Lahouaiej-Bouhlel a utilisé cette méthode pour tuer 86 personnes à Nice. En 2011, Anders Breivik a fait exploser une bombe dans le centre d’Oslo avant de commettre une fusillade de masse sur l’île d’Utøya, faisant 77 morts. Toutes les attaques menées par des acteurs isolés ne sont pas aussi meurtrières ou aveugles. Certaines visent des personnes précises, comme l’ont montré les assassinats de l’homme politique allemand Walter Lübcke en 2019 et du député britannique David Amess en 2021.

Le terrorisme des acteurs solitaires – également appelés « loups solitaires » – pose un défi de taille aux États européens. Les outils traditionnels de lutte contre le terrorisme conçus pour des groupes organisés comme Al-Qaida, l’État islamique ou l’organisation terroriste indépendantiste basque ETA sont beaucoup moins efficaces contre des individus agissants seuls. Si les complots d’acteurs solitaires sont généralement moins complexes, ils peuvent néanmoins causer des dommages importants.

Nous avons également constaté que les attaques perpétrées par des acteurs isolés peuvent avoir des répercussions considérables. L’indignation publique qui en résulte peut intensifier les débats sur des questions litigieuses telles que l’immigration et, en fin de compte, renforcer le soutien aux partis extrémistes.

Les attaques par mimétisme ou réaction sont une autre conséquence du terrorisme commis par des acteurs solitaires. Les fusillades de masse perpétrées par Brenton Tarrant à Christchurch en Nouvelle-Zélande, en 2019, en sont un exemple frappant. Ce dernier a cité les actions de Breivik et d’autres comme source d’inspiration directe. Selon le propre manifeste de Tarrant, un élément déclencheur clé de sa radicalisation a été l’attaque islamiste de 2017 à Stockholm, où Rakhmat Akilov, un demandeur d’asile originaire d’Ouzbékistan, a conduit un camion dans une foule, tuant cinq personnes, dont un enfant de 11 ans.

Pourquoi les attentats perpétrés par des acteurs isolés sont si difficiles à prévenir

Parce que les acteurs solitaires opèrent de manière indépendante et communiquent rarement leurs intentions, leur identité reste souvent inconnue jusqu’après une attaque. Leurs objectifs et idéologies sont fréquemment ambigus, ce qui rend difficile la prédiction de leur comportement ou le choix de cibles potentielles. Même identifier correctement un incident comme un acte de terrorisme commis par un acteur solitaire peut s’avérer difficile.

Le cas d’Axel Rudakubana illustre cette difficulté. En 2024, Rudakubana a tué trois jeunes filles à Southport, dans le nord de l’Angleterre, après s’être introduit dans leur atelier de danse sur le thème de Taylor Swift. Malgré la découverte d’un manuel d’entraînement d’Al-Qaida en sa possession, les procureurs n’ont trouvé aucune preuve substantielle de motivation politique et ont qualifié l’incident de « tuerie de masse ».

Il est très difficile – voire impossible – de déterminer avec certitude le nombre exact d’attentats terroristes commis par des acteurs solitaires en Europe. L’absence d’une définition universellement acceptée du terrorisme constitue une partie du problème. Il est également possible que certains actes de violence massive soient classés comme terroristes alors qu’ils sont en réalité idéologiquement neutres. De même, il peut être difficile de déterminer si un individu a réellement agi seul, surtout à une époque marquée par la radicalisation en ligne.

Ce qui est clair, c’est que les attaques terroristes indépendantes sont devenues plus fréquentes au début des années 2010. En 2013, ces incidents se sont multipliés, l’Europe enregistrant de six à sept attaques islamistes et d’extrême droite par an (contre moins d’une par an avant 2010). Ces chiffres se réfèrent strictement aux cas où les auteurs ont agi de manière indépendante. Par exemple, l’attaque au camion-bélier d’Anis Amri à Berlin en 2016 et la tentative de suicide de Taimour al-Abdaly à Stockholm en 2010 ont d’abord été considérées comme des actes solitaires, mais des enquêtes ultérieures ont révélé des liens avec des cellules islamistes.

Le terrorisme des « loups solitaires » semble moins répandu parmi les groupes d’extrême gauche et des groupes nationalistes, bien qu’il y ait des exceptions.

Attentats terroristes perpétrés par des acteurs isolés en Europe

Un graphique montrant comment les attaques solitaires se sont multipliées au milieu des années 2010
Ce graphique montre l’augmentation des attaques terroristes perpétrées par des acteurs isolés au milieu des années 2010. D muro, O Craciunas, CC BY-ND

Cette évolution vers des attentats perpétrés par des acteurs isolés est probablement le résultat de l’évolution des stratégies de lutte contre le terrorisme mises en œuvre après des attentats majeurs tels que les attentats à la bombe dans les trains de Madrid en 2004 et les attentats à la bombe de Londres en 2005. Il est devenu plus difficile de mener à bien des complots à grande échelle, de sorte que des groupes comme Al-Qaida et, plus tard, l’État islamique, se sont mis à encourager ou à organiser des attentats perpétrés par des individus vaguement affiliés, agissant indépendamment mais en leur nom.

La lutte entre les groupes terroristes et les gouvernements est une lutte d’adaptation constante. En 2018, les données d’Europol indiquaient que tous les attentats islamistes qui avaient été menés à bien en Europe cette année-là avaient été exécutés par des acteurs solitaires.

Les attentats commis par des loups solitaires ont une histoire encore plus longue dans le terrorisme d’extrême droite.

L’expression « loup solitaire » a été popularisée pour la première fois dans la propagande suprémaciste états-unienne au début des années 1990, bien avant que les chercheurs n’adoptent l’expression plus neutre de « terroriste solitaire ». À mesure que les efforts antiterroristes se concentraient sur les groupes suprémacistes blancs, nombre de leurs membres ont considéré l’action individuelle comme le moyen le plus efficace d’échapper à la détection et de préserver le secret de leur mode opérationnel.

Répondre à la menace

Heureusement, nous comprenons désormais les crimes commis par des acteurs isolés. Ces attaques résultent de facteurs psychologiques et environnementaux complexes.

Bien qu’il ne faille pas simplement considérer les auteurs comme « fous », la santé mentale peut jouer un rôle dans la radicalisation, en particulier lorsqu’elle est associée à des griefs personnels, des aspirations vouées à l’échec et un sentiment d’injustice. Les influences familiales, les pairs et les espaces en ligne façonnent également ce processus. Bien que chaque parcours de radicalisation soit unique, certains schémas peuvent être observés – et les reconnaître précocement peut contribuer à réduire la menace.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


L’idée de « radicalisation autonome » mérite aussi d’être nuancée. Il est rare que les auteurs isolés se radicalisent totalement seuls ; leurs manifestes reprennent souvent des thèmes idéologiques plus larges, influencés par des théories du complot ou des figures charismatiques. Ces individus attribuent souvent une signification symbolique à leurs actes. Sensibiliser à l’impact des discours publics violents est essentiel – à condition de ne pas nuire à la liberté d’expression. L’histoire montre que proposer des « soupapes de sécurité » contre les idées controversées est plus constructif que la censure.

Les attentats perpétrés par des acteurs isolés sont, en partie, difficiles à prévenir, précisément parce qu’ils ne constituent pas une menace systémique comme peut l’être le terrorisme coordonné basé sur des groupes. Le danger réside dans des explosions de violence isolées plutôt que dans des campagnes soutenues. Mais certains schémas récurrents peuvent être observés – et les suivre de près pourrait aider à prévenir de prochaines tueries.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

27.05.2025 à 17:06

La plupart des incidents impliquant une voiture-bélier ne sont pas des actes terroristes, mais ils sont de plus en plus fréquents

Milad Haghani, Associate Professor & Principal Fellow in Urban Risk & Resilience, The University of Melbourne

Hossein Parineh, Research Fellow, The University of Melbourne

Il existe des mesures pratiques pour protéger les foules lors d’événements se déroulant sur la voie publique.
Texte intégral (1880 mots)

À Liverpool, ce 26 mai, durant la célébration du titre de champion d’Angleterre de football remporté par les Reds, comme à Paris 19 jours plus tôt, après la qualification du PSG pour la finale de la Ligue des champions, des piétons ont été renversés par des véhicules qui n’auraient pas dû pouvoir accéder à ces zones. Les incidents de ce type, dits attaques à la voiture-bélier, sont de plus en plus fréquents dans le monde. Quelles que soient les motivations de leurs auteurs – le terrorisme dans un tiers des cas, mais aussi des crises de folie ou des considérations de vengeance individuelle, par exemple –, ces épisodes sanglants pourraient être réduits si des mesures de protection précises étaient systématiquement mises en place en amont de chaque rassemblement de grande ampleur.


Ce lundi 26 mai, des centaines de milliers de supporters du Liverpool Football Club s’étaient rassemblés dans le centre de la ville de Liverpool pour célébrer le titre de champion d’Angleterre remporté cette saison par le club. Peu après 18 heures, heure locale, une Ford Galaxy gris foncé a été précipitée par son conducteur dans la foule, quelques minutes après le passage du bus à impériale transportant les joueurs et l’encadrement de l’équipe. Une cinquantaine de personnes ont été blessées, 27 d’entre elles ont été hospitalisées, dont quatre enfants. Deux personnes se trouvent dans un état grave.

Que s’est-il passé exactement à Liverpool ?

Selon des témoins oculaires et, au vu des premières images, il apparaît que, au départ de cette séquence, pendant que le véhicule était à l’arrêt, le conducteur a eu une altercation avec plusieurs personnes qui se trouvaient dans la foule. Il a ensuite effectué une brève marche arrière avant d’accélérer et de percuter plusieurs dizaines de personnes.

L’automobiliste, un habitant de la région de Liverpool âgé de 53 ans, a été arrêté sur place. La police a déclaré ne pas considérer l’incident comme un attentat terroriste et indiqué qu’il s’agit d’un acte isolé.

À ce stade, on ne sait pas avec certitude pour quelle raison l’homme a foncé dans la foule. Les autorités ont demandé au grand public de ne pas diffuser d’informations erronées sur ses motivations supposées.

D’une manière générale, il est important de noter que des événements tels que celui-ci, quand des véhicules renversent de nombreux piétons, surviennent de plus en plus fréquemment. Afin de mieux protéger les foules à l’avenir, il est nécessaire d’établir une typologie de ce genre d’épisodes et d’identifier les facteurs de risque qu’ils ont en commun.

Une fréquence accrue

Plusieurs cas de véhicules chargeant des foules de piétons ont été signalés récemment dans le monde entier. Leur nombre croissant est inquiétant. Rien qu’au cours des derniers mois, des incidents se sont produits dans les villes suivantes :


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Sur ces sept incidents récents, seuls deux – ceux de La Nouvelle-Orléans et de Munich – ont été confirmés comme étant des actes terroristes commis par des « loups solitaires ». Les attaques au véhicule-bélier ne sont pas toujours des actes terroristes, loin de là, et leur survenue ne reflète pas nécessairement le niveau de menace terroriste pesant sur une ville ou sur un pays donné.

Dans au moins deux des cas récents – Mannheim et Vancouver –, les auteurs avaient des antécédents psychiatriques.

Tendances globales

En analysant systématiquement les incidents documentés dans les médias et les sources publiques telles que Wikipédia, nous avons identifié au moins 152 attaques au véhicule-bélier ayant visé des foules civiles dans le monde entier depuis l’an 2000.

Ces attaques ont fait environ 511 morts à ce jour. L’attentat le plus meurtrier reste de loin celui du 14 juillet 2016 à Nice (Alpes-Maritimes), qui a fait 86 morts et des centaines de blessés. Le conducteur a été abattu par la police ; par la suite, huit autres personnes ont été reconnues coupables de complicité de terrorisme ou d’infractions à la législation sur les armes.

Les pays qui ont été le plus souvent les théâtres de ces attaques sont les États-Unis (31), la Chine (29), l’Allemagne (14) et Israël (14 également). Avant l’incident de Liverpool, le Royaume-Uni avait connu six attaques de ce type.

L’examen des données disponibles au niveau mondial montre une forte augmentation des incidents en 2017 et en 2018, suivie d’un bref déclin et d’une nouvelle augmentation après 2022. En 2025, il y a eu jusqu’à présent au moins 14 incidents dans le monde, qui ont entraîné au moins 50 décès.

Moins d’un tiers des épisodes recensés ont été attribués à des attaques terroristes.

Que faire ?

S’il est bien sûr essentiel de surveiller la manière dont les organisations terroristes changent de tactique, il convient aussi de tenir compte du fait que les récents incidents liés à des véhicules-béliers sont de plus en plus liés à un ensemble d’autres facteurs, notamment des crises de santé mentale, des griefs personnels et des accès de rage.

Du point de vue de la sécurité publique et de la planification d’événements, le motif importe moins que le résultat. Un véhicule, quelle que soit l’intention de son conducteur, peut causer des dommages massifs et ce risque doit être géré.

Voici les principales mesures pratiques que les villes devraient mettre en œuvre pour mieux protéger les foules lors d’événements se déroulant dans des rues ouvertes :

  • Installer des obstacles solides et peu espacés : des obstacles capables de résister au choc d’un camion roulant à grande vitesse doivent être placés à chaque point d’accès à une zone qui sera fréquentée par une importante foule piétonne. Les cônes en plastique et le ruban adhésif ne suffisent pas. Ces obstacles doivent être placés suffisamment près les un des autres pour empêcher que les véhicules puissent se faufiler entre les obstacles ou les contourner.

  • Interrompre les trajectoires rectilignes : il faut éviter que des véhicules puissent prendre de la vitesse en empruntant de longs tronçons de route ouverte à l’approche des lieux de rassemblement. Pour cela, il convient d’utiliser des clôtures ou de stationner des véhicules de façon à briser les lignes de vue et à créer des chicanes naturelles qui ralentiront les véhicules.

  • Contrôler étroitement l’accès des véhicules aux zones de rassemblement : seuls les véhicules d’urgence ou de service indispensables et approuvés à l’avance doivent pouvoir pénétrer dans les zones de l’événement, sous surveillance et en respectant des plages horaires strictes.

  • Maintenir les restrictions en place après l’événement : aucun accès de véhicule ne doit être autorisé tant que la zone n’a pas été entièrement vidée de ses occupants. La présence de la foule ne s’arrête pas avec la fin de l’événement.

En d’autres termes, à aucun moment de la manifestation, que ce soit avant, pendant ou après, un véhicule non autorisé ne doit pouvoir entrer en contact avec la foule.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

27.05.2025 à 17:05

BD : L’Héritage du dodo (épisode 5)

Mathieu Ughetti, Illustrateur, vulgarisateur scientifique, Université Paris-Saclay

Franck Courchamp, Directeur de recherche CNRS, Université Paris-Saclay

La crise climatique n’avance pas seule : elle est indissociable de la crise de la biodiversité. Découvrez en exclusivité les 10 épisodes de la BD concoctée par Mathieu Ughetti et Franck Courchamp.
Texte intégral (695 mots)

La crise climatique n’avance pas seule : elle est indissociable de la crise de la biodiversité. Découvrez en exclusivité, chaque mercredi, les 10 épisodes de la BD concoctée par Mathieu Ughetti et Franck Courchamp. Dans l’épisode 5, on s’intéresse aux insectes, aux oiseaux et aux migrations.


L’Héritage du dodo, c’est une bande dessinée pour tout comprendre à la crise du climat et de la biodiversité. Chaque semaine, on explore la santé des écosystèmes, on parle du réchauffement climatique mais aussi de déforestation, de pollution, de surexploitation… On y découvre à quel point nous autres humains sommes dépendants de la biodiversité, et pourquoi il est important de la préserver. On s’émerveille devant la résilience de la nature et les bonnes nouvelles que nous offrent les baleines, les bisons, les loutres…

On décortique les raisons profondes qui empêchent les sociétés humaines d’agir en faveur de l’environnement. On décrypte les stratégies de désinformation et de manipulation mises au point par les industriels et les climatosceptiques. Le tout avec humour et légèreté, mais sans culpabilisation, ni naïveté. En n’oubliant pas de citer les motifs d’espoir et les succès de l’écologie, car il y en a !

Retrouvez ici le cinquième épisode de la série !

Ou rattrapez les épisodes précédents :

Épisode 1
Épisode 2
Épisode 3
Épisode 4


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !



Rendez-vous la semaine prochaine pour l’épisode 6 !
Pour ne pas le rater, laissez-nous votre adresse mail


Ou abonnez-vous à L’Héritage du dodo sur :


Une BD de Franck Courchamp & Mathieu Ughetti
Qui sommes-nous ?

Republication des planches sur support papier interdite sans l’accord des auteurs


Créé en 2007 pour accélérer et partager les connaissances scientifiques sur les grands enjeux sociétaux, le Fonds Axa pour la Recherche a soutenu près de 700 projets dans le monde entier, menés par des chercheurs originaires de 38 pays. Pour en savoir plus, consultez le site Axa Research Fund ou suivez-nous sur X @AXAResearchFund.

The Conversation

Cette BD a pu voir le jour grâce au soutien de l’Université Paris Saclay, La Diagonale Paris-Saclay et la Fondation Ginkgo.

Mathieu Ughetti ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

27.05.2025 à 17:04

L’affaire de Bétharram, ce n’est pas du passé : interroger l’idéologie punitive en France

Éric Debarbieux, Professeur émérite en sciences de l'éducation, Université Paris-Est Créteil Val de Marne (UPEC)

Si le recours aux châtiments corporels est désormais condamné, l’idéologie qui a autorisé ces pratiques est loin d’avoir disparu en France.
Texte intégral (2204 mots)

Si le recours aux châtiments corporels est désormais condamné, l’idéologie qui a autorisé ces pratiques est loin d’avoir disparu en France. En témoignent ces discours faisant primer le répressif sur l’éducatif. L’affaire de Bétharram nous invite à interroger les effets de système qui perdurent et les mécanismes de reproduction de la violence.


Plus de 200 plaintes ont été déposées pour des faits de violences physiques et sexuelles, commis des années 1950 aux années 2000, dans une école catholique des Pyrénées-Atlantiques. L’affaire de Bétharram défraie la chronique depuis des mois, au point de menacer un premier ministre soupçonné d’avoir couvert ces faits.

Mais, comme le disent les victimes, cette affaire ne doit pas être masquée en une « affaire Bayrou » : il convient de la penser au-delà des responsabilités éventuelles de cet homme politique.

Le châtiment corporel, c’était avant-hier ?

Des claques, des coups, de l’isolement à genoux sur le perron, par une nuit glaciale, le catalogue des châtiments corporels infligés surprend. Il s’agirait d’une violence d’une autre époque, révolue. C’est l’argument de défense de l’institution, et la conséquence judiciaire en est la prescription s’appliquant à la plupart des affaires révélées.

« Affaire de Bétharram : il témoigne des violences dans l’établissement scolaire » (Le Monde, mars 2025).

En soi, cela n’est pas faux. L’évolution pluriséculaire du regard sur l’enfant a fortement démonétisé l’usage de la violence en éducation, comme cela a été démontré par bien des historiens, au regard de l’histoire longue. Cela a été acté juridiquement et anciennement.

Le droit français a interdit le châtiment corporel à l’école dès 1803, même s’il a fallu longtemps pour que cette interdiction s’applique. Celle-ci a été répétée dans une circulaire de 1991. Beaucoup plus récente a été l’interdiction faite aux familles par la loi du 10 juillet 2019 relative à l’interdiction des violences éducatives ordinaires qui a précisé que l’autorité parentale s’exerce sans violences physiques ou psychologiques.

Les enquêtes de victimation à l’école témoignent de la rareté, mais non de l’absence du châtiment corporel dans les écoles publiques. Il en est ainsi dans une enquête, menée sous ma direction pour l’Unicef, en 2010, qui montre (p.22) qu’il s’agit encore en moyenne d’environ 6 % des élèves du primaire qui déclarent avoir été frappés par un membre du personnel.

Quantitativement cela est minoritaire, ce qui n’est pas une raison pour l’admettre, et l’on peut comparer avec les taux obtenus par le même type de recherche menée dans des pays du continent africain, qui peuvent atteindre 80 % d’élèves concernés. Aux États-Unis, ce sont encore au moins 19 États, principalement au Sud, qui autorisent le châtiment corporel à l’école, y compris avec un instrument (le paddle).

… ou c’est demain ?

Aussi, dira-t-on, la violence, c’était avant et c’est ailleurs ? Oui, mais. Mais l’idéologie qui autorise ces pratiques est loin d’avoir disparu en France, et si celles-ci se sont en moyenne raréfiées, cachées, celle-là reste bien vivace.

Elle est idéologie du redressement de l’enfant, de sa domination par le « bon père de famille », y compris dans les déclarations du premier ministre lorsqu’il justifie la gifle en disant qu’il s’agit d’un « geste éducatif », paroles que j’ai commentées dans une chronique récente.

Elle est aussi idéologie de son enfermement et de son éloignement en cas de déviance : les victimes en ont témoigné, être en internat à Bétharram était bien en soi une punition. Un moyen de redresser l’enfant, d’en faire « un homme » en l’éloignant.

Cette idéologie de l’enfermement orthopédique et de la primauté du répressif sur l’éducatif n’a sans doute pas autant régressé qu’espéré. Ce désir d’enfermer, ce réflexe punitif, sont (re)devenus dominants et ils traversent toutes les couches de la société. C’est un mantra politique et populiste. Une loi réformant la justice des mineurs, révulsant les juristes et les éducateurs, vient d’être votée avec comme souhait des peines de prison ferme pour les adolescents dès 13 ans, de manière à leur causer une sorte de « choc carcéral », suivant les mots de Gabriel Attal, ex-ministre de l’éducation.

Malgré un rapport très critique de la Cour des comptes, les centres éducatifs fermés continuent d’être une solution dispendieuse, inefficace et humainement destructrice, pourtant largement affirmée par le pouvoir exécutif.

« Dans un centre éducatif fermé pour mineurs délinquants » (France Info, 2025)

Sur le plan de la punition, il est une expérience commune qui consiste, lorsque l’on critique la « fessée » ou la « claque », voire les violences éducatives ordinaires, de s’entendre rétorquer : « On ne peut plus rien faire. »

Il est évident qu’il ne s’agit pas ici d’une quelconque apologie du laisser-faire mais de la condamnation de la violence en éducation. À ce « On ne peut plus rien faire » correspond très bien le « On ne peut plus rien dire » qui oppose les réticences patriarcales à la dénonciation du sexisme commun.

Violences et soumission

Bétharram est l’exemple même des effets d’un milieu clos et d’une culture qui favorisent systémiquement les violences de domination : soumission par les coups et la crainte qui peut dériver vers une soumission sidérée aux actes pédocriminels. Il existe un continuum des violences répressives et sexuelles. C’est largement démontré dans les milieux clos, par la recherche sur les populations vulnérables, tout autant qu’en milieu carcéral.

Ce n’est pas simplement la responsabilité individuelle des prédateurs qui est en jeu : dans la recherche actuelle sur les auteurs de violence sexuelle, de plus en plus est abandonnée la théorie de « la pomme pourrie », c’est-à-dire de l’individu seul déviant dans un milieu sain : on lira à cet égard l’excellent article du psychologue Nicolas Port dans la revue l’Année canonique en 2024 et portant entre autres sur les profils des prêtres agresseurs sexuels.

Le milieu culturel et le contexte institutionnel font partie des conditions du passage à l’acte, de sa détection possible et des cécités réelles ou de… mauvaise foi. On se dira alors que le catholicisme lui-même est en jeu. Son organisation est en effet largement empreinte de domination patriarcale. Celle-ci agit dans le vocabulaire (« Mon père »), dans la hiérarchie du genre qui est minoration du féminin, officialisée par l’impossible ordination des femmes, ce qui est contesté par le féminisme chrétien.

L’enseignement catholique est lui-même fracturé idéologiquement et si « l’ordre » reste un argument de légitimation, il n’en est pas moins que bien de ses écoles se rapprochent plus de l’univers de la pédagogie Montessori que de celui de Bétharram, suivant l’idéologie des classes moyennes supérieures.

La ligne de fracture est sans doute désormais plus politique que théologique. Certes, c’est dans l’électorat catholique et religieux qu’ont été recrutées une bonne partie des troupes de la Manif pour tous et il y a une porosité de cet électorat aux thèses identitaires extrêmes. Mais cet électorat ne s’y résume pas, loin de là, même si l’on peut craindre un élargissement des franges traditionnalistes. Cela nécessite – en éducation comme sur bien des points – un aggiornamento de la doctrine et de l’organisation du catholicisme, à cet égard l’affaire de Bétharram peut puissamment y aider.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Il serait en outre totalement contre-productif d’assimiler les violences révélées à l’ensemble des chrétiens : mutatis mutandis, ce serait la même erreur que celle qui assimile musulmans et terroristes… L’option fondamentaliste et pseudo-traditionnelle dans toutes les religions du livre est en jeu. Ainsi, dans une recherche menée en Israël et relatée dans un livre majeur sur la violence en contexte à l’école, Benbenishty et Astor démontrent la plus grande présence des violences sexuelles dans les écoles islamiques fondamentalistes et dans les écoles juives ultraorthodoxes, ces dernières fournissant les troupes d’extrême droite maintenant au pouvoir dans ce pays.

Des mineurs violents ?

Enfin, une dernière erreur à éviter est de séparer le problème de la violence des adultes et celle de la violence commise par des mineurs, y compris la violence sexuelle. Bien sûr, la plupart des victimes ne deviennent pas des agresseurs et tentent de se protéger de la dure loi de conservation de la violence.

Mais il n’empêche qu’être battu est un facteur de risque important de devenir sexuellement victime, et éventuellement d’être un agresseur. Toute la littérature par facteurs de risque l’a démontré. Les témoignages recueillis à Bétharram montrent parmi les perpétrateurs de grands élèves utilisés comme surveillants. Plus loin, la parution récente d’un livre d’Aude Lorriaux, bien documenté, sur les violences sexuelles commises par des mineurs pose avec force le lien entre l’idéologie masculiniste et sa reproduction violente de ces violences par les mineurs.

Il ne s’agit pas d’y voir une jeunesse perverse, mais bien un effet de système, renforcé par une idéologie dont le trumpisme est un avatar. Les adultes peuvent aussi, terriblement, être de mauvais exemples.

Aussi, s’il est vrai qu’un meilleur contrôle des lieux éducatifs clos, une meilleure formation des personnels, une information plus précise de tous les élèves sur le consentement et la vie affective et sexuelle peuvent être une partie de la solution, il n’en reste pas moins que l’affaire de Bétharram, sans forcément être une affaire Bayrou, est bien une affaire politique.

The Conversation

Au cours de ma carrière j'ai pour mes recherches obtenu des subventions de l'ANR, de la Commission Européenne, de l'UNICEF, du Conseil Régional Aquitaine, de la CASDEN BP. Je n'ai plus de financements en cours. J'ai fait la préface du Livre d'Aude Lorriaux cité dans l'article.

PDF

27.05.2025 à 17:04

Après #MeToo, quelle sexualité dans les entreprises ?

Joan Le Goff, Professeur des universités en sciences de gestion, Université Paris-Est Créteil Val de Marne (UPEC)

Christine Noël-Lemaître, Maitresse de conférences en philosophie, Aix-Marseille Université (AMU)

Émilie Reinhold, Chercheuse associée en gestion, Université Paris-Est Créteil Val de Marne (UPEC)

François De March, Chercheur en sciences de gestion, Université Paris-Est Créteil Val de Marne (UPEC)

La recherche en management a longtemps ignoré la place de la sexualité dans l’entreprise. La vague #MeToo sera-t-elle l’occasion de s’y intéresser ?
Texte intégral (1997 mots)

Les entreprises sont à la fois le lieu de rencontres amoureuses et sexuelles et le point de focalisation du phénomène #MeToo qui dénonce les violences sexistes et sexuelles. La recherche en management s’est peu intéressée à ce sujet, qui fait l’objet d’un colloque organisé à l’IAE Paris-Est afin d’apporter de premiers éclairages à la question suivante : comment le mouvement #MeToo est-il vécu dans le monde professionnel ?


Né en 2007 mais popularisé en 2017 lors de l’affaire Weinstein – du nom du producteur américain accusé de multiples violences sexistes et sexuelles (VSS) –, le mouvement #MeToo a amplement permis de libérer la parole des victimes de harcèlement ou d’agressions sexuelles. Tout comme sa déclinaison francophone (#balancetonporc), cette déferlante de témoignages sur les réseaux sociaux présente la caractéristique de concerner le monde professionnel, au-delà du monde du cinéma. Décliné pour différents secteurs économiques, des médias à la santé, ce système de signalement public a entraîné des changements comportementaux aussi bien parmi les salariés que parmi leurs employeurs.

Dans le même temps, l’entreprise demeure aujourd’hui encore un lieu au sein duquel s’épanouissent relations sexuelles et rencontres amoureuses, que ce soit entre collègues ou entre un subordonné et son supérieur hiérarchique. Histoires d’un soir ou romances durables constituent donc une dimension de la vie professionnelle. Leurs conséquences organisationnelles positives ou négatives sont bien réelles : départ spontané ou provoqué, conflits interpersonnels, désengagement, productivité accrue ou altérée, entrepreneuriat en couple, etc.

Un point aveugle de la recherche en management

Pourtant, la sexualité dans les organisations est un thème notoirement délaissé dans la recherche universitaire. Certes, les études critiques en management anglophone l’ont abordée, dès 1984, avec un célèbre article de Gibson Burrell. Le sociologue britannique y pointait le processus de désexualisation dans les organisations en cours depuis le XIVe siècle, en relation avec le processus de civilisation décrit par Norbert Elias. Ce processus était engendré par l’avènement du protestantisme puritain accompagnant le développement du capitalisme. La chasse aux activités sexuelles (et à l’alcoolisme) sur les lieux de travail visait d’abord à accroître la productivité.

En 1992, Gibson Burrell poursuit son étude et se demande si le processus de « re-sexualisation » engagé dès les années 1960-1970 dans les pays occidentaux ne conduisait pas à des phénomènes d’oppression des femmes (discrimination, harcèlement sexuel) ou à leur exploitation comme objets sexuels dans les publicités ou les rapports avec la clientèle. Mais, ces recherches mises à part, la sexualité demeurait largement ignorée des travaux académiques.

Juste avant la vague #MeToo, un bilan des recherches sur la sexualité dans les organisations en prenait acte et reconnaissait que le thème restait encore, si ce n’est tabou, du moins assez peu développé dans le courant dominant en gestion alors que le contrôle, la marchandisation et la commercialisation de la sexualité n’avaient jamais été aussi importants, de même que son instrumentalisation commerciale. Le phénomène #MeToo aurait dû attiser la curiosité des chercheurs. Or, c’est le contraire qui semble s’être passé, malgré de rares exceptions.

Persuadés que, parce qu’elle imprègne et structure les organisations malgré elles, la sexualité mérite davantage d’attention dans les recherches en gestion, nous organisons un colloque pour évoquer les conséquences du phénomène #MeToo au sein des entreprises, point aveugle des retombées de cette vague de libération de la parole, dont nous publions ici les résultats de quelques contributions


À lire aussi : « Le Direktør » de Lars von Trier : une comédie d’entreprise sur le pouvoir et ses fantasmes


Résistances masculines

Farah Deruelle s’est intéressée aux résistances masculines suscitées par la régulation accrue des relations amoureuses et sexuelles au travail, perçue comme une désexualisation nécessaire par beaucoup de femmes. Après avoir mené plus de 60 entretiens, elle a observé trois formes principales de résistance :

  • la crainte de la fin de la séduction au travail, valeur pourtant au cœur d’une supposée identité française ;

  • la peur d’une aseptisation des relations professionnelles, amplifiée par l’instauration de codes de conduite et la suppression des temps festifs ;

  • l’appréhension d’une éventuelle censure féministe qui limiterait la liberté créative.

Un interviewé lors de l’enquête en entreprise de Farah Deruelle exprime son dépit :

« Donc voilà, c’est dur d’être un homme au XXIe siècle, hein. Y’a un peu d’humour, mais y’a un peu de vérité quand même. Tu sais pas trop comment te comporter. »

La principale conclusion de ce travail de recherche est qu’après #MeToo, de nombreux hommes craignent de subir un déclassement professionnel.


Abonnez-vous dès aujourd’hui !

Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).


Éthique de la sexualité

Ce contexte permet à Christine Noël-Lemaître de (re)poser la question des enjeux éthiques de la sexualité sur le lieu de travail. Sa recherche scrute la dynamique des règles formelles explicitées dans les documents éthiques et juridiques diffusés en interne et en externe et des règles informelles en matière de comportement sexuel au sein des grandes entreprises cotées en France. Fondée sur une analyse des documents éthiques et une série d’entretiens exploratoires, l’étude pointe ainsi le minimalisme éthique en vigueur au sein des organisations post-#MeToo en France.

À l’inverse de la majorité des grandes entreprises, Cap Gemini ne se contente pas de rappeler que le harcèlement sexuel est illégal, mais alerte les salariés sur des comportements susceptibles d’être interprétés comme relevant d’une forme de harcèlement :

« L’un•e de mes collègues se tient toujours très près derrière moi, pose la main sur mon dos et mes épaules lorsque je suis à mon bureau. Cela me gêne énormément. S’agit-il de harcèlement ? C’est possible. Si vous le pouvez, demandez à votre collègue d’éviter de vous toucher. Ensuite, si vous estimez que cela n’a rien changé, vous pouvez en parler à votre manager. Si cela vous met mal à l’aise, vous pouvez vous adresser directement à votre responsable des ressources humaines »

L’érotisme, une force contre le travail ?

François De March emprunte un chemin opposé en confrontant #MeToo à la pensée de l’écrivain et philosophe français Georges Bataille. Selon ce dernier, l’érotisme renvoie à une conception anthropologique dans laquelle l’hominisation (le passage de l’animal à l’homme) se traduit par l’apparition simultanée du travail et des interdits. La sexualité humaine s’est constituée en opposition au travail, car sa dimension violente le menace. D’abord religieux, les interdits visaient ainsi en première intention à protéger le travail de cette violence. Mais ils n’étaient pas absolus, leur transgression était toujours possible et s’exprimait dans la communauté des amants.

En attaquant exclusivement la sexualité masculine, le phénomène #MeToo ne peut pas être considéré comme un nouvel interdit. Il s’oppose radicalement à cette communauté des amants en stigmatisant uniquement l’un des deux. Les effets observables – baisse des relations sexuelles, augmentation de l’homosexualité féminine chez les jeunes, règles de plus en plus contraignantes dans les organisations – expriment la crainte croissante de la sexualité masculine. En ce sens, le phénomène #MeToo serait une négation de l’érotisme bataillien. Dès lors, le recours à la pensée de Bataille en permet une critique raisonnée, dans la lignée des écrits de Marcela Iacub et de Sabine Prokhoris. Elles dénoncent la violence de la croisade #MeToo,qu'elles estiment « beaucoup plus sévère que les anciens interdits d’origine religieuse » : dénonciations publiques sans preuves, injures vis-à-vis des incriminés, demandes d’annulations de manifestations artistiques et universitaires, menaces de violence physique, intimidations, actions en « meute ».

Le risque de la dissolution de #MeToo dans le cynisme managérial

Comme d’autres préoccupations sociétales surgies avant elle (RSE, écologie, lutte contre les discriminations, etc.), l’action contre les violences sexistes et sexuelles au sein des entreprises est susceptible de connaître aussi bien des pratiques sincères que des détournements.

Du point de vue des dirigeants, le levier #MeToo peut être utilisé pour des fins personnelles, non sans cynisme. En s’intéressant à une organisation caritative au cœur d’un scandale fortement médiatisé (Emmaüs), Joan Le Goff montre comment #MeToo a pu ainsi être mobilisé pour y prendre le pouvoir, en dévoyant cette bonne cause au détriment des victimes (éventuelles ou attestées).

Alors qu’elle rencontre des résistances internes pour réorienter la stratégie du groupe, la nouvelle équipe de direction a tenté de disqualifier les antennes locales, héritières historiques du fondateur et des valeurs de la communauté solidaire. En impliquant ses adversaires dans un scandale sexuel (avéré), elle sait qu’ils ne pourront pas riposter, même sur d’autres sujets. Ici, #MeToo semble servir à bâillonner l’opposition pour surmonter des dissensions organisationnelles. La machine managériale peut renverser le sens d’un mouvement sociétal et en faire une ressource pour des stratagèmes, d’autant qu’une attaque sur la réputation est à la fois très efficace et peu coûteuse.

Ministère du travail, 2024.

Au-delà de ces pistes de réflexion, le colloque abordera d’autres thèmes comme l’intelligence artificielle et l’industrie du sexe, l’humour sexiste ou encore l’hypocrisie organisationnelle autour de la prostitution.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

27.05.2025 à 17:04

Réarmement : l’indispensable coopétition entre petites, moyennes et grandes entreprises de la défense

Johanna Gast, Professeur Associé en Entrepreneuriat et Stratégie, Montpellier Business School

Chloé Zanardi, Enseignant-chercheur

Frédéric Le Roy, Professeur de Management Stratégique - MOMA et Montpellier Business School, Université de Montpellier

Cette coopération de circonstance est devenue un élément clé pour de grands groupes et des PME de la défense habituellement en compétition. L’enjeu : les faire travailler ensemble.
Texte intégral (2341 mots)
Le challenge Cohoma a pour ambition de fédérer les acteurs de la robotique autour d’un projet commun, en constituant des équipes mixtes regroupant grands industriels, chercheurs et start-ups spécialisées. © Armée de Terre

La France a adopté une loi de programmation militaire 2024-2030 ambitieuse : 413 milliards d’euros pour moderniser les armées. Concrètement, financer sa base industrielle et technologique de défense composée de 4 500 entreprises, dont neuf grands groupes industriels comme Thales ou MBDA, et de nombreuses PME. L’enjeu : les faire travailler ensemble dans une logique de « coopétition », une relation mixant la compétition et la coopération. Une véritable révolution copernicienne.


Face à la menace russe et à un désengagement états-unien, l’Europe se réarme. Fin avril 2025, 16 pays de l’Union européenne demandent à Bruxelles d’être temporairement dispensés des règles encadrant la stabilité budgétaire pour investir davantage dans la défense. La France n’a pas manifesté cet intérêt, mais Emmanuel Macron a évoqué en février 2025 l’idée de porter les dépenses militaires françaises de 2,1 % à 5 % du PIB.

Alors que la France se prépare à cette potentielle guerre de haute intensité, le gouvernement français met en ordre de marche sa base industrielle et technologique de défense (BITD) dans une nouvelle logique : celle de la « coopétition ». Ce mixte de coopération et de compétition entre différents acteurs qui étaient historiquement en coopération client-fournisseur est une véritable révolution copernicienne.

Pourquoi ? Hétéroclite, la BITD française repose sur des petites ou moyennes entreprises (PME) innovantes comme Decomatic ou Baumier, et de grands groupes industriels de défense comme Thales ou MBDA. Les associer sous un prisme de coopétition porte-t-il les promesses d’une industrie de défense plus agile, innovante et souveraine ? Et pour quelles réussites ? C’est l’objet du travail doctoral réalisé par Chloé Zanardi et encadré par Frédéric Le Roy et Johanna Gast.

Base industrielle et technologique de défense (BITD)

La BITD française repose sur un écosystème structuré autour d’un petit nombre de grands groupes : Airbus Defence & Space, Thales, Safran, MBDA, Naval Group, Dassault Aviation, CEA, Ariane Group, Nexter, Arquus ; et d’un très grand nombre de PME. En 2019, sur les 26 452 fournisseurs directs du ministère des armées, 84,5 % étaient des PME et entreprises de taille intermédiaire (ETI), contre seulement 1 % de grands groupes.

Les grands groupes de défense français occupent une position de maîtres d’œuvre industriels incontournables. Ils assurent des missions allant de la recherche et développement à la vente de briques technologiques, en passant par la fourniture d’équipements et de services pour la défense. Compte tenu des besoins croissants des forces armées en matière d’innovation de rupture, ces grands groupes ont déployé des stratégies ambitieuses et mobilisé des moyens significatifs pour la recherche et développement (R&D). En 2020, Thales emploie 25 000 personnes pour la R&D, dont une majeure partie en France, et 3 000 personnes pour la recherche et technologie (R&T) sur un effectif total de 65 000 personnes.

Infographie de la Base industrielle et Technologique de Défense
Infographie de la Base industrielle et Technologique de Défense. Ministère des Armées

Quant aux PME, elles ne sont plus uniquement considérées comme des sous-traitants. Elles dispensent leurs solutions innovantes aux maîtres d’œuvre, mais également apportent directement des solutions aux forces armées elles-mêmes. L’entreprise Exosens développe des technologies d’amplification, de détection et d’imagerie ; MC2 Technologies, des hyperfréquences pour des applications de sûreté et de sécurité ; Akira Technologies, la conception et la réalisation de systèmes de conversion d’énergie et de bancs d’essai spéciaux.

Émancipation progressive des PME

Les PME de défense françaises ont longtemps évolué dans un schéma de relations verticales avec les grands industriels du secteur. La chute du mur de Berlin, suivie d’une réduction marquée des budgets militaires, a mis en lumière la fragilité de ce modèle. En réaction à la baisse des commandes de l’État aux grands groupes, nombre de PME se sont tournées vers le développement d’innovations technologiques à usage civil ou dual.

À partir des années 2000, ces PME ont saisi l’opportunité offerte par l’émergence de technologies disruptives telles que la robotique, le big data, l’intelligence artificielle ou l’Internet des objets. Soutenues par la création de l’Agence Innovation Défense en 2018, elles ont pu revenir sur le devant de la scène, en proposant des solutions à forte valeur ajoutée pour la défense, souvent issues de savoir-faire développés dans le secteur civil. Des entreprises spécialisées dans les drones, comme Delair ou Novadem, développent des solutions pour l’armée française. Dès lors, la relation traditionnelle de sous-traitance fait de la place à des dynamiques plus horizontales.

« N’ayons pas peur. Ni de nos idées ni de celles des autres. En un mot, innovons toujours. […] Il faut penser globalement, ne pas opposer la petite entreprise au fleuron industriel », rappelle Florence Parly, ministre des Armées de la France de 2017 à 2022, dans un discours du 22 novembre 2018.

La coopétition, une troisième voie stratégique prometteuse

Face au dilemme entre collaboration ou concurrence, une stratégie hybride émerge dans le secteur de la défense : la coopétition. Cette stratégie, combinant coopération et compétition, permet aux PME de collaborer avec des industriels majeurs sur certains projets, tout en conservant leur indépendance sur d’autres segments. Longtemps réservée aux relations entre grands industriels, la coopétition entre les PME et les grands groupes a déjà été observée dans d’autres secteurs, comme le montrent nos recherches dans l’agrochimie.

Dans la défense, nous observons l’émergence de stratégies de coopétition asymétrique, où l’agilité des PME complète la puissance de feu des grands groupes. Elles peuvent se matérialiser à travers des dispositifs favorisant la co-innovation comme le challenge Cohoma, organisé par l’armée de Terre, ou encore le projet Centurion, organisé et coordonné par la direction générale de l’armement (DGA). Le challenge Cohoma a pour ambition de fédérer les acteurs de la robotique autour d’un projet commun, en constituant des équipes mixtes regroupant grands industriels, chercheurs universitaires et start-ups spécialisées.

Syndrome Not Invented Here

Si la coopétition est porteuse de fortes potentialités, plusieurs obstacles freinent l’engagement des entreprises dans ce type de stratégie, tout en pouvant compromettre son bon déroulement. Premièrement, un déséquilibre important en termes de ressources et de poids sur le marché subsiste entre les PME et les grands groupes. Ces derniers, forts de leur position historique et de leur force de frappe structurelle, matérielle et humaine, peuvent être tentés d’exploiter leur domination et de jouer sur la dépendance encore existante des PME aux grands groupes du secteur.

Deuxièmement, nous avons constaté des craintes chez les deux coopétiteurs. Du côté des PME, la crainte est double : voir leurs compétences et ressources absorbées par le grand groupe à des fins concurrentielles, et subir une captation déséquilibrée de la valeur co-créée dans le cadre de la coopétition. Du côté des grands groupes, la coopétition demeure une stratégie portée par les directions générales, mais encore peu intégrée dans les pratiques opérationnelles. Le syndrome NIH (« Not Invented Here »), encore très présent dans ces équipes, constitue un frein majeur aux démarches de co-innovation.

Sans cadre clair, une PME peut se retrouver à transmettre son savoir-faire sans en récolter les fruits, voire être évincée du projet une fois l’innovation intégrée. Les études de Fernandez, Le Roy et Chiambaretto montrent que des mécanismes de management clairs sont essentiels pour que la coopétition fonctionne de manière équitable. C’est pourquoi un encadrement s’avère essentiel pour superviser et faciliter la coopétition entre les PME et les grands groupes de défense.

Repenser le rôle de l’acteur public

Dans l’industrie de la défense, l’acteur public joue un double rôle de client et de régulateur. En supervisant activement le tissu industriel, il peut jouer un rôle structurant pour favoriser des relations coopétitives équilibrées entre PME et grands groupes. Il lui est possible, notamment, de faciliter l’accès direct des PME au marché en simplifiant les dispositifs de soutien, en finançant le passage à l’échelle et en clarifiant les besoins opérationnels.

Le régulateur client peut utilement contribuer à instaurer un climat de confiance entre les coopétiteurs en multipliant les échanges directs. Il s’agit à la fois de sensibiliser les PME à la protection de leur propriété intellectuelle et aux risques inhérents à la coopétition, et de promouvoir auprès des grands groupes des pratiques d’innovation coopétitive équilibrées. La DGA, par l’intermédiaire de son médiateurou de son « plan en faveur des ETI, PME et start-ups » (PEPS), peut fluidifier les relations commerciales, agir comme tiers de confiance, promouvoir les bonnes pratiques contractuelles et encourager le partage d’information stratégique.

De façon générale, la coopétition entre PME et grands groupes dans l’industrie de la défense semble être la stratégie à suivre pour redonner à la France une capacité militaire innovante et puissante.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

27.05.2025 à 17:03

Derrière la rivalité des clubs de football, celle (de l’ego) de leurs présidents

Mokhtar Bouzouina, PhD en sciences de gestion, Université Paris Nanterre – Université Paris Lumières

Faouzi Bensebaa, Professeur de sciences de gestion, Université Paris Nanterre – Université Paris Lumières

Les dirigeants d’équipes de football s’affrontent en dehors du carré vert, et pas que sur le terrain des données financières, mais sur celui de l’ego, des émotions et des symboles.
Texte intégral (1663 mots)
En finale de la Ligue des champions, Nasser Al-Khelaïfi, président du PSG, affrontera (symboliquement) son homologue Giuseppe Marotta de l’Inter de Milan. Victor Velter/Shutterstock

La finale de la Ligue des champions de l’UEFA oppose le Paris Saint-Germain et l’Inter de Milan. Focus sur la rivalité des équipes en coulisse, celle des présidents de club. Les moteurs : l’ego, les émotions et les médias sportifs qui mettent le feu aux poudres. Comment l’expliquer ?


Nasser Al-Khelaïfi, le président du Paris Saint-Germain (PSG), et Giuseppe Marotta, le président de l’Inter de Milan, n’ont pas échangé d’invectives par média interposé en vue de la finale légendaire du football. Si le président parisien ne règne pas en maître en Ligue des champions, il montre les muscles en ligue 1 : « John, John, John… Arrête de parler ! Tu comprends rien. T’es qu’un cow-boy qui vient de nulle part et tu viens nous parler », conspue-t-il John Textor, le propriétaire de l’OL. Plus qu’un échange musclé, cette altercation révèle une réalité peu explorée : celle de la compétition entre dirigeants de clubs sportifs.

Pendant longtemps, dans les manuels de stratégie, la concurrence est essentiellement fondée sur une mécanique rationnelle. Selon Porter, les entreprises sont censées fonctionner en avantages/coûts, selon Lieberman et Montgomery, être first mover ou selon Barney, s’appuyer des ressources et des compétences idiosyncrasiques, liées au tempérament d’une personne.

Mais si la concurrence entre entreprises ne se jouait pas uniquement sur des chiffres, des modèles d’analyse abstraits ou des stratégies froidement rationnelles, mais plutôt dans l’interaction humaine entre décideurs ? Les théories du management classique se tromperaient-elles ?

Cette contribution s’appuie sur une thèse soutenue en décembre 2024 à l’Université Paris-Nanterre. Elle intègre le facteur humain dans l’analyse de la dynamique concurrentielle, à partir d’entretiens avec des dirigeants de clubs de football professionnel, en Ligue 1 et en Ligue 2.

Carré vert et coups bas

Les dirigeants d’entreprises sont perçus comme des stratèges méthodiques, alignant des décisions optimisées, s’appuyant sur des outils censés être adéquats et ayant fait leurs preuves : matrice SWOT, modèle des cinq forces, dilemme du prisonnier, etc. Cette grille de lecture montre vite ses limites lorsque les environnements obéissent à d’autres logiques.

Dans le secteur du football professionnel, fortement médiatisé, où les émotions et les enjeux symboliques sont omniprésents, la concurrence prend une dimension plus personnelle. C’est ce que rappelait la sociologie stratégique de Crozier et Friedberg en s’intéressant à la dynamique des jeux d’acteurs, et la stratégie individuelle de chaque personne dans une organisation. Un président rappelle :

« On a toujours dans la tête que le football, c’est l’espace de 90 ou 95 minutes, mais pour moi, ça me fait immédiatement penser à la compétition. Et très souvent, même les dirigeants y sont. Les dirigeants viennent dans ce monde-là parce que c’est des gens qui aiment la compétition. »

La concurrence dans le football ne suit pas seulement une logique d’optimisation, elle suit aussi une logique d’affrontement personnel. En ce sens, la rivalité personnelle devient une dimension au cœur de la dynamique concurrentielle. Un autre président témoigne :

« Entre clubs, on ne peut pas se faire de sales coups, c’est le sport qui décide, c’est le carré vert comme on dit. Mais entre individus, parfois, il y a des coups bas… »

Ego et émotions

Pour certains dirigeants, posséder un club de football n’est pas une simple opération économique. C’est un vecteur d’image, une scène sur laquelle se joue autre chose que le business. Comme le confie un autre dirigeant :

« Il y a pas mal de dirigeants qui ont tellement les moyens que finalement un club de football, ce n’est pas le centre de leur univers. Ils vont y chercher autre chose que ce qu’ils peuvent chercher dans leur business au quotidien. »


À lire aussi : Le football remonte-t-il à l’Antiquité gréco-romaine ?


Dans les hautes sphères du football professionnel – Ligue 1 et Ligue 2 –, c’est très feutré en surface… mais explosif en coulisse. Loin des caméras, la concurrence se reflète le plus souvent dans les egos entre les dirigeants des clubs. Ce ne sont pas les clubs qui s’affrontent, mais les personnes qui les possèdent et/ou les dirigent. Comme le reconnaît un président, « il y a une rivalité entre dirigeants parce qu’il y a des problèmes d’ego entre les personnes ».

Et lorsque les egos se heurtent, la logique dérape. Ici, on ne défie pas le business model de l’autre, mais on se confronte à un autre président, à un dirigeant, voire à un individu. Un autre dirigeant confesse avec lucidité :

« Il y a des dirigeants qui ne s’aiment pas ou qui m’aiment pas ; il y a des jalousies qui se créent entre dirigeants et ça pousse certains à faire des choses qui n’ont pas de sens pour leurs clubs. Certains dirigeants vont parfois prendre une décision qui n’est pas guidée par la cohérence de leur projet, mais par des satisfecits donnés pendant quinze jours. »

Football et luxe : même scène, autres costumes

L’univers du football professionnel n’est guère une anomalie dans l’univers des affaires. Bien au contraire. C’est simplement plus visible et exacerbé. La médiatisation agit comme un révélateur. Un dirigeant le confirme avec un regard transversal sur sa propre expérience :

« Avant, je travaillais dans le secteur bancaire. Le PDG de Lehman Brothers était en concurrence avec le PDG de Merrill Lynch et de Goldman Sachs. D’énormes egos aussi qui brassaient d’autres chiffres qui n’ont rien à voir avec le secteur du football. »

Ailleurs, ces rivalités existent tout autant… hors caméra. Le secteur du luxe l’illustre parfaitement avec Bernard Arnault et François Pinault. On découvre un univers où les dirigeants s’affrontent, les gestes sont codés, les messages soigneusement adressés. Mais tout se joue dans l’ombre. Là où le football affiche ses conflits à la Une des journaux sportifs, le luxe les habille de silence et de symboles avec des acquisitions prestigieuses, des fondations artistiques ou des gestes ostentatoires mais feutrés. Le moteur reste le même : des hommes en quête de domination symbolique autant qu’économique.

Et puisque la famille Arnault possède le Paris Football Club (PFC) et la famille Pinault, le Stade rennais, la rivalité peut maintenant se jouer sur le carré vert.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Élimination symbolique

Il ne s’agit nullement de remettre en cause les fondements de la concurrence, tant s’en faut. L’idée : élargir le spectre de son analyse par l’intégration de l’interaction humaine qui joue un rôle loin d’être négligeable. Cette dernière est structurée par une dimension émotionnelle et des interactions personnelles. Elles substituent à la rivalité organisationnelle une confrontation personnalisée centrée sur l’individu, perçu comme l’ennemi à dépasser ou à éliminer symboliquement. Mais, attention, il n’y a pas de mise à mort au rendez-vous !

Cette dimension semble pourtant quasiment absente dans les théories dominantes de la stratégie des organisations. Elle constituerait un champ d’analyse stratégique à part entière permettant de mieux comprendre non seulement la genèse des stratégies, mais également les modalités concrètes de leur mise en œuvre. Exit alors la boîte noire organisationnelle !

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

27.05.2025 à 17:03

Comment recréer l’esthétique Wes Anderson ? Une recette en huit ingrédients

Warren Buckland, Reader in Film Studies, Oxford Brookes University

Pour tenter d’imiter Wes Anderson, il faut combiner tous ses « ingrédients » dans les bonnes quantités.
Texte intégral (1270 mots)
Dans son nouveau film, « The Phoenician Scheme », déploie une fois encore son art du cadrage et de la symétrie. TPS Productions, LLC

Alors que The Phoenician Scheme, le nouveau Wes Anderson, sort en salles le 28 mai, les réseaux sociaux débordent de pastiches. Mais comment capter vraiment son style ? Mode d’emploi pour recréer la magie andersonienne… sans se tromper de recette.


Les films de Wes Anderson tiennent souvent à une seule image saisissante. Ce goût pour le visuel s’est affirmé dès La Famille Tenenbaum (2001), lorsque Margot (Gwyneth Paltrow) descend du bus – une scène devenue emblématique. Depuis, cette esthétique singulière a conquis de nombreux fans, qui traquent le « style Anderson » dans les moindres recoins de leur quotidien.

La page Instagram Accidentally Wes Anderson, créée en 2017, a connu un succès fulgurant en publiant des photographies de lieux réels qui, par hasard, correspondent à l’univers visuel d’un film de Wes Anderson.

Par exemple, un métro milanais semble tout droit sorti de son imaginaire, avec son agencement symétrique, ses murs bleu pastel et ses barres jaunes éclatantes. Sur les réseaux sociaux, des internautes « romantisent » leur quotidien à la manière des films d’Anderson. Tout a commencé avec Ava Williams, qui a publié une vidéo d’un trajet en train sur TikTok, avec cette légende : « T’as intérêt à pas faire genre t’es dans un film de Wes Anderson quand j’arrive. »

Avec la sortie prochaine d’un nouveau film, The Phoenician Scheme (en salles françaises le 28 mai 2025), les réseaux sociaux vont sans doute être inondés de nouvelles tentatives d’imitation. Mais toutes ces pastiches ne sont pas forcément réussies.

Le style Wes Anderson que tentent de reproduire ces internautes est une esthétique insaisissable, qui ne prend forme que par une combinaison spécifique d’éléments.

Les ingrédients d’un film de Wes Anderson

Penser l’esthétique d’Anderson comme une combinaison d’éléments revient à l’envisager comme une recette.

Quand on fait un gâteau, il ne suffit pas d’avoir la liste des ingrédients : il faut aussi les bonnes proportions. De nombreux chercheurs en cinéma ont identifié les principales caractéristiques (les ingrédients) du style andersonien. On y retrouve :

  1. un angle de caméra frontal

  2. des plans-tableaux

  3. un cadrage symétrique (souvent centré)

  4. une vue en plongée (vue d’en haut)

  5. une caméra fixe ou un mouvement de caméra mis en avant

  6. du ralenti

  7. une séquence en montage accompagnée d’une bande-son (rock ou musique instrumentale décalée)

  8. des palettes de couleurs harmonieuses.

Mais pour imiter Wes Anderson, il faut combiner ces ingrédients dans les bonnes proportions.

Cette combinaison stylistique typique émerge dans son troisième long métrage, La Famille Tenenbaum (2001). Ce film se distingue par son usage constant de plans-tableaux, où les personnages sont disposés de manière formelle, sur le même plan, face au spectateur. Ces images sont immédiatement reconnaissables par leur composition frappante et leur effet dramatique.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Prenons la séquence où Anderson nous présente sa « galerie de personnages (22 ans plus tard) » (comme l’indique le carton-titre). Tous les personnages sont montrés face à un miroir. Ici, la caméra prend la place du miroir, ce qui les amène à regarder directement l’objectif.

Ces images-tableaux sont renforcées par une caméra fixe et un cadrage centré (les personnages sont positionnés au centre de l’image), ce qui accentue la symétrie et l’immobilité.

Anderson varie les combinaisons de ces plans-tableaux. Le film s’ouvre sur un plan-tableau symétrique et statique d’un livre de bibliothèque (The Royal Tenenbaums), filmé en plongée (vue du dessus), la caméra étant perpendiculaire au comptoir. Ce premier plan combine donc pas moins de cinq éléments : angle frontal, plan-tableau, cadrage centré, vue en plongée et caméra fixe.

L’originalité du style andersonien ne réside pas dans chacun de ces éléments pris isolément, mais dans leur combinaison spécifique.

Margot descendant du bus

Autre exemple emblématique : Margot retrouve Richie (Luke Wilson) après son voyage en mer.

Elle descend du bus et marche vers la caméra – donc vers Richie, qui se trouve derrière l’objectif. Ce plan combine une nouvelle fois angle frontal, plan-tableau et cadrage centré. Mais il s’y ajoute cette fois une caméra en mouvement (qui recule pour suivre Margot) et un ralenti, le tout accompagné de la chanson These Days interprétée par Nico.

L’usage systématique des plans-tableaux dans La Famille Tenenbaum (et dans les films suivants) se conjugue avec d’autres éléments stylistiques pour créer une esthétique cohérente.

Les traits qu’Anderson combine dans ses films ne sont pas arbitraires. Tous remplissent une même fonction : attirer l’attention sur la forme, et instaurer une distance entre les spectateurs et les personnages.

Anderson rejette les techniques narratives classiques (celles dites « invisibles ») au profit d’un cinéma réflexif, où le regard du spectateur est guidé vers une observation clinique et distante de personnages excentriques évoluant dans des univers tout aussi singuliers.

Alors, si vous souhaitez transformer un moment de votre quotidien en scène andersonienne, pensez d’abord à l’histoire que vous voulez raconter, et combinez avec soin les huit ingrédients qui font toute la magie d’un véritable plan signé Wes Anderson.

The Conversation

Warren Buckland ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

27.05.2025 à 12:12

Avec Darwin, la fin de la situation exceptionnelle de l’humain : ce qu’en dit l’éthique

Jean-Yves Goffi, Professeur, Université Grenoble Alpes (UGA)

Darwin met à mal la croyance en la situation exceptionnelle de l’humain, par rapport aux autres animaux. Sa théorie de l’évolution est aussi une réponse possible aux thèses créationnistes.
Texte intégral (1980 mots)

Quelles sont les conséquences de la théorie de l’évolution de Darwin sur la croyance en la situation exceptionnelle de l’humain ? Cette question est au cœur de la réflexion du philosophe américain James Rachels, spécialiste d’éthique, dans Animaux humains. Les implications morales du darwinisme (Éliott éditions, 2025). Une réponse possible aux thèses créationnistes qui ont le vent en poupe, notamment aux États-Unis.


Dans un passage célèbre des conférences rassemblées sous le titre Introduction à la psychanalyse, Freud affirme que l’amour-propre naïf de l’humanité a dû endurer deux cinglants démentis infligés par la science et doit se préparer à en affronter un troisième.

Le premier, associé au nom de Copernic, ce fut lorsqu’elle a montré que la Terre, n’est pas le centre de l’Univers mais ne constitue qu’une portion minuscule du système d’un monde dont on peut à peine se représenter l’immensité.

Le second, associé au nom de Darwin, date de l’époque où la recherche biologique a réduit à rien le prétendu privilège humain au sein de la Création en établissant sa descendance du règne animal et en affirmant le caractère irréductible de sa nature animale.

Le troisième, associé au nom de Freud lui-même, résultera du fait que la recherche psychologique est en train d’établir que le moi n’est pas le maître en sa propre demeure et qu’il ne peut atteindre, en se fondant sur ce dont il est conscient, que de maigres informations relatives à ce qui se joue dans la vie psychique.

Le parcours original du naturaliste Darwin

On devine qu’en procédant ainsi, Freud présente à son auditoire un Darwin passablement simplifié et enrôlé dans un propos qu’il n’aurait peut-être pas cautionné. Premièrement, il est discutable de présenter Darwin comme un biologiste, le cursus des études au XIXe siècle étant très différent de ce qu’il est de nos jours.

Son statut dans l’institution scientifique est d’ailleurs un peu particulier : à une époque où la science se professionnalise dans la cadre de l’Université, il représente encore par quelque côté la science d’amateurs éclairés du XVIIIᵉ siècle.

La première partie du livre du philosophe américain James Rachels qui vient d’être traduit en français sous le nom Animaux humains. Les implications morales du darwinisme tente de rendre compte objectivement de son parcours.

Darwin est un naturaliste. Il a commencé, puis abandonné des études de médecine. Il s’est tourné, sans grand enthousiasme, vers la théologie afin de devenir pasteur de l’Église anglicane. Passionné par l’observation des êtres vivants et visiblement doué, il a été remarqué par plusieurs de ses professeurs et recommandé par l’un d’eux pour être embarqué comme naturaliste à bord d’un navire de la Royal Navy, au cours d’une campagne de cartographie de la côte sud-américaine (1831-1836).

L’Origine des espèces et la sélection naturelle

Les rapports et les échantillons adressés au pays pendant cette période furent jugés si intéressants qu’à son retour, il fut élu au conseil de la Société de géographie, puis devint membre de la prestigieuse Royal Society.

Il travailla assidûment, recueillit et systématisa ses observations et publia en novembre 1859 l’Origine des espèces au moyen de la sélection naturelle, ou la lutte pour l’existence dans la nature (selon la traduction du livre en français, ndlr). Dans cet ouvrage, qui n’est pas destiné aux spécialistes, Darwin affirme qu’il développe un seul long argument ; en voici les deux conclusions principales, assez modestes en apparence :

Premièrement, dans le monde du vivant, les espèces n’ont pas été créées séparément mais descendent d’autres espèces. Deuxièmement, c’est le mécanisme de la sélection naturelle qui est le moyen de ce processus. Comme il naît bien plus d’individus de chaque espèce qu’il n’en peut survivre, tout être présentant par rapport à ses congénères une variation qui lui est favorable, si infime semble-t-elle, a une plus grande chance de survivre et d’avoir une descendance manifestant cette modification.

Darwin est assez prudent pour ne pas employer le terme « évolution » ; il est assez prudent, également, pour différer l’application à l’être humain de sa théorie.

Mais il n’est pas besoin d’être grand clerc pour s’apercevoir du caractère considérable de ses implications : le monde n’est pas resté inchangé depuis sa création ; il est d’ailleurs impropre de le concevoir comme l’effet d’un acte créateur ; on peut donc retracer son histoire sans l’intervention d’un créateur sage et bienveillant ; le statut du divers n’est pas de manifester imparfaitement des réalités invariables ; il est l’effet du mouvement par lequel la vie se propage, etc.

La fin de la croyance en la situation exceptionnelle de l’humain

La notion d’implication est précisément au cœur de l’interprétation de Darwin proposée par James Rachels : mais il s’agit d’implications morales. Pour y voir plus clair, intéressons-nous au titre original de son ouvrage : Created from Animals est une expression difficile à traduire en français. Il s’agit en fait d’une formule de Darwin lui-même, extraite de son Notebook C (page 196-197), qui s’énonce ainsi :

« Dans son arrogance, l’homme se croit une grande œuvre, digne de l’intervention d’une divinité. Il est plus humble et, je crois, plus vrai de considérer qu’il a été créé à partir des animaux. »

James Rachels est connu par ses travaux en éthique appliquée, très représentatifs de ce qu’était cette discipline au tournant des années soixante et soixante-dix du siècle dernier. Il y est question, en effet, de discrimination raciale, d’avortement, de recherche médicale sur le fœtus, de la faim dans le monde, de l’euthanasie, etc.

Sur toutes ces questions, l’auteur adopte des positions qui sont maintenant devenues banales, mais qui s’inscrivaient à l’époque dans un courant de contestation de la morale traditionnelle et, plus particulièrement, du manque d’humilité dont – avec les meilleures intentions du monde – elle faisait preuve.

Dans Animaux humains, il ne va pas chercher à extraire des normes morales à partir des thèses de Darwin. Il ne soutient pas non plus la thèse ridicule selon laquelle l’être humain serait, de part en part, un animal comme les autres. Il va plutôt montrer que le propos darwinien rend difficilement tenable la croyance en la situation exceptionnelle de l’être humain au sein de l’univers qui est au fondement de cette morale traditionnelle.


À lire aussi : Humains, animaux, cellules, plantes : tous conscients ?


L’histoire immémoriale du vivant n’est pas le développement d’un plan divin visant à placer l’homme, créé à l’image et à la ressemblance de Dieu, au sommet des êtres et à part d’eux. L’être humain n’est pas non plus le seul être investi de dignité du fait de la possession d’une faculté unique : la raison.

Celle-ci, en effet, n’est pas une affaire de tout ou rien, mais de plus ou moins. Il faut plutôt voir les êtres humains et les autres animaux comme les membres d’une même famille, les premiers ayant développé des instincts – en particulier altruistes – que les autres ont parfois déjà manifestés, bien que d’une façon moins élaborée.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


L’œuvre de Darwin a toujours été l’objet d’interprétations antagonistes, et parfois même violemment antagonistes. On pense, bien sûr, à une opposition frontale comme celle que l’on trouve entre André Pichot, la Société pure : de Darwin à Hitler (Flammarion, 2000) et Patrick Tort, l’Effet Darwin. Sélection naturelle et naissance de la civilisation (Seuil, 2008).

Une chose est certaine cependant : elle est, moyennant des apports qui faisaient défaut à Darwin – on pense, évidemment, à la génétique – du côté de la science et non de l’idéologie.

Darwin contre le créationnisme

C’est ainsi que ses théories, bien qu’elles n’aient pas pour objet de constituer une réfutation en règle des thèses créationnistes fondées sur une lecture littérale de la Bible, mettent en évidence le caractère dogmatique et arbitraire de celles-ci. Il ne sera pas question ici des causes ou des raisons expliquant leur vogue, spécialement aux États-Unis, mais de leur contenu. Le livre d’Eugenie C. Scott, Evolution vs Creationism. An Introduction, (University of California Press, 2009) constitue une bonne introduction à la question.

Les thèses darwiniennes, en effet, mettent en danger leur prétention à la vérité. Les théories créationnistes affirment que l’Univers a été créé par un dieu personnel, que pour l’essentiel il n’a pas changé depuis la Création et, enfin, qu’il exprime un dessein de la Divinité.

En ce sens, la plus importante implication du darwinisme est bien de rendre possible une perspective pour laquelle l’homme n’est ni le sens ni le but de l’Univers.


Jean-Yves Goffi a dirigé la thèse de Florian Couturier (soutenance en 2014), le traducteur de l’ouvrage de James Rachels Animaux humains. Les implications morales du darwinisme (Éliott éditions). J.-Y. Goffi a rédigé la préface de cette traduction.

The Conversation

Jean-Yves Goffi ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

27.05.2025 à 11:54

Les substituts au sel de table : un risque pour la santé ?

Sandrine Wetzler, PhD, chef de projets scientifiques - Mission nutrivigilance, Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses)

Les substituts au sel de table, à base de potassium, présentent des risques pour certaines populations. Un étiquetage sur les emballages de ces produits pourrait alerter les consommateurs.
Texte intégral (2254 mots)

Les substituts au sel de table, à base de potassium, peuvent présenter des risques pour la santé de populations spécifiques (insuffisants cardiaques et rénaux, hypertendus, diabétiques, sujets âgés…). L’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses) recommande d’informer davantage les consommateurs concernés, notamment au moyen d’un étiquetage sur les emballages de ces produits.


En pharmacie comme en supermarché, des substituts au « sel de table » sont proposés à la vente pour accompagner les personnes soumises à un « régime sans sel » pour raisons de santé, ou qui souhaitent diminuer leur apport en sodium conformément aux recommandations des instances nationales et à celles de l’Organisation mondiale de la santé (OMS).

L’OMS estime que, dans le monde, environ 1,9 million de décès par an sont liés à une consommation de sodium trop élevée. En effet, il est clairement établi qu’il existe un lien entre un apport excessif de sel sodé et l’hypertension artérielle, cause d’une augmentation du risque de maladies cardiovasculaires.

Vigilance avec les substituts de sel à base de potassium

L’OMS préconise de consommer moins de 2 g de sodium par jour (soit moins de 5 g de sel de table). Les populations dont la consommation de sel est trop élevée se tournent parfois vers des substituts de sel sans savoir que ces produits ne sont pas sans risque.

Ces produits sont à base de chlorure de potassium. Leur consommation peut notamment se révéler potentiellement dangereuse pour les personnes ayant comme antécédents médicaux une hypertension artérielle, une insuffisance cardiaque, rénale ou encore un diabète.


À lire aussi : Nouvelle recherche : des mélanges d’additifs alimentaires associés à une augmentation du risque de diabète de type 2


Ainsi, en octobre 2018, un cardiologue a alerté l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses) concernant un risque d’excès de potassium (hyperkaliémie) dans le sang avec des conséquences sévères, voire mortelles, liées à la consommation de chlorure de potassium.

Il s’agissait de chlorure de potassium utilisé comme au substitut au « sel de table » (ou chlorure de sodium) dans un contexte de régime « pauvre en sel » (c’est-à-dire hyposodé, dans le langage médical). L’Anses a aussitôt engagé une expertise visant à évaluer les risques associés à la consommation de ces produits.

Le potassium, un minéral pourtant essentiel à l’organisme

Le potassium est pourtant un minéral essentiel à l’organisme, présent dans l’ensemble de nos cellules. Il joue notamment un rôle fondamental dans la transmission nerveuse, la contraction musculaire et la fonction cardiaque. Il est également impliqué dans la sécrétion d’insuline, dans les métabolismes des glucides et des protéines ainsi que dans l’équilibre acido-basique de l’organisme.

Dans son rapport de 2021 proposant une mise à jour des références nutritionnelles en vitamines et minéraux, l’Anses a estimé qu’un apport en potassium de 3 500 mg/j avait un effet bénéfique sur la pression artérielle chez les adultes et que des apports en potassium inférieurs à 3 500 mg/j étaient associés à un risque plus élevé d’accident vasculaire cérébral. Faute de données suffisamment robustes pour fixer un besoin nutritionnel moyen, un apport satisfaisant de 3 500 mg/j a été défini pour les hommes et pour les femmes.


Chaque mardi, le plein d’infos santé : nutrition, bien-être, nouveaux traitements… Abonnez-vous gratuitement dès aujourd’hui.


En France, les apports en potassium sont en moyenne de 3 484 mg/j chez les hommes et de 2 755 mg/j chez les femmes (Anses, chiffres publiés en 2017). Ils sont légèrement plus élevés chez les hommes, principalement en raison des plus fortes quantités alimentaires qu’ils consomment.

À noter qu’une concentration trop faible de potassium dans le sang (ou hypokaliémie) – qui résulte d’un apport alimentaire insuffisant en potassium, ce qui occasionne des crampes, de la fatigue et/ou encore des troubles urinaires – est exceptionnelle. Cette situation n’est guère rencontrée que dans le cadre de régimes très hypocaloriques ou de malnutrition.

Quelles manifestations cliniques liées à l’excès de potassium ?

Les principaux groupes alimentaires qui contribuent aux apports en potassium dans l’alimentation sont les féculents, les produits céréaliers, les légumes ainsi que les produits laitiers. Le chocolat ou la banane font également partie des aliments naturellement sources de potassium (selon les données de la table de composition nutritionnelle des aliments Ciqual).

Outre les substituts de sels sodés, le chlorure de potassium est également utilisé dans de nombreux produits alimentaires, en raison notamment des processus de fabrication (enrichissement des denrées en potassium, additifs et auxiliaires technologiques) sans que cela soit clairement indiqué sur ces produits.

Pour la population générale en bonne santé, les risques pour la santé d’un apport alimentaire élevé en potassium, c’est-à-dire au-delà des recommandations nutritionnelles, semblent limités.

En revanche, pour certains groupes dans la population, en particulier ceux dont l’excrétion rénale de potassium est altérée, un tel apport peut conduire à une concentration trop élevée de potassium dans le sang (ou hyperkaliémie, définie pour environ 5,5 millimoles par litre, soit 215 mg/l chez les adultes) et, dans certains cas, avoir des effets néfastes sur la fonction cardiaque.

Les manifestations cliniques de l’hyperkaliémie légère à modérée sont généralement non spécifiques, par exemple une faiblesse généralisée, une paralysie, des nausées, des vomissements et une diarrhée.

Une hyperkaliémie élevée (supérieure à 6,5 millimoles par litre, soit environ 254 mg/l) peut conduire à des signes cliniques variables selon la cause et l’état de santé du patient : les plus dangereux sont des troubles du rythme cardiaque, potentiellement mortels. Les risques liés à l’excès de potassium sont majorés par la déshydratation, chez les personnes âgées notamment.

Insuffisants rénaux et cardiaques, diabétiques, hypertendus et sujets âgés, plus à risque

La base de données internationale de l’OMS (Vigilyze), qui recense tous les effets indésirables des médicaments, a été interrogée pour identifier tous les cas d’hyperkaliémie à travers le monde depuis 1986.

Sur plus de 23 000 cas (comprenant environ un millier de cas d’évolution fatale), un peu moins de 3 000 sont recensés en France. La cause était principalement d’origine médicamenteuse, notamment chez des patients diabétiques (de type 2), des insuffisants cardiaques et insuffisants rénaux, traités par des médicaments diminuant l’excrétion rénale du potassium ou apportant du potassium.

Ainsi, en considérant ces observations et l’ensemble des données de la littérature scientifique, il apparaît que les personnes les plus à risque d’hyperkaliémie en cas d’utilisation inappropriée de sels de potassium sont :

  • les patients insuffisants rénaux au stade 4 dit « stade de l’insuffisance rénale terminale » ;

  • les patients diabétiques ;

  • les patients insuffisants cardiaques ;

  • les patients hypertendus ;

  • les sujets âgés, ceux-ci étant plus fréquemment traités pour l’hypertension artérielle, le diabète, l’insuffisance cardiaque ou une diminution de la fonction rénale.

L’Agence européenne de l’alimentation (Efsa) rapporte aussi quelques études de cas qui ont indiqué qu’une supplémentation en potassium de 5 000 à 7 000 mg/j pouvait aussi avoir des effets indésirables sur la fonction cardiaque d’adultes en bonne santé. Elle a également identifié des situations à risque chez les individus réalisant des activités susceptibles d’entraîner une déshydratation (activité sportive, travail en pleine chaleur…).

Étiquetage et autres recommandations de l’Agence de sécurité sanitaire

Les personnes présentant l’une ou l’autre des situations à risque forment un ensemble non négligeable de la population française. Ainsi, l’Agence nationale de sécurité sanitaire (Anses) a recommandé que les personnes qui doivent diminuer leurs apports en sel ou augmenter leurs apports en potassium soient informées des risques d’hyperkaliémie liée aux interactions avec les substituts à base de chlorure de sodium.

Les pouvoirs publics ont donc été alertés sur les dangers encourus par les consommateurs du fait d’un manque d’information sur les étiquettes concernant l’utilisation des sels de potassium, en particulier pour les personnes non suivies ou mal suivies présentant une des affections qui majorent le risque.

Il a été suggéré d’ajouter des mentions sur les produits concernés, comme :

« Les personnes traitées pour hypertension artérielle, diabète, insuffisance cardiaque ou ayant une fonction rénale réduite sont invitées à ne consommer le produit que sous contrôle médical. »

Par ailleurs, depuis 2006, l’Anses recommande que le consommateur soit informé lors de l’achat de compléments alimentaires contenant du potassium ou de substitut de sel que ceux-ci sont contre-indiqués en cas d’insuffisance rénale ou de régime pauvre en potassium.

L’Anses a également attiré l’attention des pouvoirs publics sur l’existence des trois allégations de santé autorisées dans la réglementation européenne pour le potassium, dont l’une indique que « le potassium contribue au maintien d’une pression sanguine normale ». Cette allégation pourrait inciter les sujets hypertendus à se tourner vers les denrées proposant du chlorure de potassium et ainsi à s’exposer à un risque sanitaire.

En conclusion, il convient de rappeler l’importance d’un suivi médical rigoureux et régulier des personnes à risque et de manière générale, de la bonne information au consommateur de ces substituts de sel alimentaire, afin de réduire significativement le risque d’hyperkaliémie.

The Conversation

Sandrine Wetzler ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

27.05.2025 à 09:33

Tri à la source : comment les collectivités gèrent-elles les déchets alimentaires ?

Service Environnement, The Conversation France

Toutes les collectivités doivent proposer une solution de valorisation des déchets alimentaires. Compost ou méthanisation, ces pratiques transforment nos restes en ressources.
Texte intégral (1000 mots)

La nouvelle obligation du tri à la source pour les collectivités, en vigueur depuis début 2024, permettra d’éviter l’incinération ou l’enfouissement de biodéchets qui auraient pu être valorisés pour produire des amendements organiques ou du biogaz, explique Muriel Bruschet, de l'Ademe.


Depuis le 1ᵉʳ janvier 2024, les collectivités doivent proposer à leurs habitants une solution de tri à la source et de valorisation de l’ensemble de leurs déchets alimentaires. En 2017, les biodéchets (soit les déchets alimentaires et déchets verts) représentaient 1/3 des ordures ménagères en France.

Cette nouvelle étape permet d’éviter l’incinération ou l’enfouissement, tout en valorisant ces déchets qui auront deux destinations principales : les amendements organiques (agriculture) et le biométhane (énergie).


Visuel d'illustration de la newsletter Ici la Terre représentant la planète Terre sur un fond bleu.

Abonnez-vous dès aujourd'hui.

Pour suivre au plus près les questions environnementales, retrouvez chaque jeudi notre newsletter thématique « Ici la Terre ».


Cette réglementation est le fruit d’un long processus débuté en 2010, repris en 2015 pour en fixer l’échéance au 1ᵉʳ janvier 2025. L'Union européenne a finalement repris cette mesure et en a avancé l’échéance à 2024.

La loi n’étant pas punitive, la seule sanction est indirecte : la taxe générale sur les activités polluantes (TGAP), qui s’applique aux poubelles noires, va passer de 17 (2019) à 65 euros la tonne (2025). Les collectivités ont donc intérêt, en principe, à en diminuer le volume.

Deux choix s’offrent à elles : la gestion de proximité ou la collecte. Dans le premier cas, il s’agit de compostage individuel ou partagé. Dans le second cas, les biodéchets sont collectés et envoyés vers une unité de traitement : soit une compostière industrielle, soit un méthaniseur.

Compostage ou méthanisation

Commençons par l’usage le plus répandu, le compostage. Au cours de ce processus qui dure entre 4 et 6 mois et fait monter la température des biodéchets jusqu’à 70 °C, la matière se transforme en compost. Ce dernier est ensuite revendu au milieu agricole et va enrichir le sol en matière organique, lui conférer une meilleure rétention de l’eau et limiter l’érosion des sols. Il diminue en parallèle les besoins en engrais, dont l’usage augmente à mesure que les sols se dégradent.

L’autre possibilité est la méthanisation : sous l’action de microorganismes naturellement présents dans les biodéchets, la matière organique, confinée en enceinte fermée en l’absence d’oxygène (contrairement au compostage), subit une fermentation anaérobique et se dégrade. De cette réaction est obtenue du biogaz ainsi qu’une fraction solide – le digestat – qui est soit recompostée soit épandue directement sur des sols agricoles.

Enjeux d'acceptabilité

Le choix va surtout répondre à des enjeux territoriaux. Dans les zones qui pratiquent l’élevage, les méthaniseurs sont nombreux, car ils permettent d’en valoriser les effluents. Dans le sud de la France au contraire, les plates-formes de compostage sont plus nombreuses, puisque les cultures sont plutôt maraîchères (vergers, viticulture, etc.).

Où installer les nouvelles plates-formes ? Comment adapter l’existant ? À cela se mêlent des enjeux d’acceptabilité, ces solutions pouvant générer des nuisances selon l’endroit où elles se trouvent. Des études sont en cours pour évaluer les coûts et les bénéfices environnementaux associés.


Ce texte est la version courte de l’article écrit par Muriel Bruschet (Ademe).

The Conversation

Cet article a été édité par le service Environnement de The Conversation à partir de la version longue écrite par Muriel Bruschet (Ademe).

PDF

26.05.2025 à 16:55

Jackson Pollock et les fractales, ou quand les mathématiciens enquêtent sur la peinture

Laurent Delisle, Chercheur associé en Mathématiques, ECE Paris

Amine Jaouadi, Research associate professor, ECE Paris

Pourquoi les œuvres de Pollock fascinent-elles ? Du beau, de l’art… des maths.
Texte intégral (2050 mots)

Avez-vous déjà vécu une expérience esthétique face à une œuvre d’art ?

S’asseoir dans le musée Marmottan pour admirer la beauté des Nymphéas, de Monet ; avoir un lien intime avec Mona Lisa, de Léonard de Vinci, alors qu’elle capte votre regard malgré vos petits déplacements au Louvre en dépit de l’affluence ; ressentir de l’anxiété en regardant le Cri, de Munch, ou encore, devant une toile de Pollock, trouver de la beauté dans ce qui peut sembler de prime abord un fatras de jets de peinture.


Cette peinture exposée à New York, aux États-Unis, a été créée par Jackson Pollock (1912-1950) avec sa technique du « dripping », qui consiste à verser ou éclabousser de la peinture sur une toile plutôt que de l’appliquer avec des coups de pinceau.

Bien que la technique puisse sembler chaotique, l’art controversé de Pollock a mis en évidence une remarquable structure mathématique, appelée « fractale », comme cela a été discuté dans un article scientifique publié dans Nature, en 1999.

La quantification mathématique de l’art abstrait

Résoudre des équations, décrire les forces de la nature, prédire les fluctuations des marchés sont des exemples révélant la puissance des mathématiques. Les arts tels que la peinture et la sculpture peuvent aussi s’inspirer des propriétés mathématiques telles que les symétries, les formes géométriques, les rapports et l’autosimilarité (le caractère d’un objet dans lequel on peut trouver des similarités en l’observant à différentes échelles).

Par exemple, le dessin Homme de Vitruve, de Léonard de Vinci, représente le corps humain inscrit dans un carré et un cercle avec des rapports se rapprochant du nombre d’or ou, encore, la superposition de formes géométriques des toiles cubistes de Picasso.

Et aussi, comme nous le décrivons ici, l’autosimilarité et les propriétés fractales des toiles de Jackson Pollock.

La « dimension » est un outil pouvant quantifier un objet naturel ou abstrait. Par exemple, un point est de dimension nulle, une ligne est de dimension 1, le cube Rubik est tridimensionnel. Ces exemples montrent que la dimension d’objets communs est entière.

Cependant, la nature peut créer des objets surprenants de dimension non entière ! En effet, le mathématicien Benoît Mandelbrot a montré que le littoral de la France est de périmètre infini mais de superficie finie (551 695 km2). Le chou romanesco est un drôle de légume de volume fini possédant une superficie infinie. Ces exemples sont des fractales.

Comment pouvons-nous décrire ces objets curieux ? Pouvons-nous calculer leur dimension ?

Les fractales en mathématiques et dans la nature

Qu'est-ce qu'une fractale ?

  • Une fractale est un motif infini caractérisé par l’autosimilarité, c’est-à-dire un objet possédant la même apparence lorsqu’il est vu à différentes échelles.

Mandelbrot a aussi développé de nombreux ensembles de fractales – on peut sur certains sites zoomer et voyager dans ces espaces étranges aux noms poétiques, comme la vallée des hippocampes.

Vue partielle de l’ensemble de Mandelbrot
Vue partielle de l’ensemble de Mandelbrot. Wolfgang Beyer avec le logiciel Ultra Fractal 3, CC BY-SA

Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Les fractales ne sont pas qu’une création de mathématiciens, mais aussi de la nature. Les arbres, les nuages, la foudre présentent des irrégularités pouvant être quantifiées à l’aide des fractales. Mandelbrot a dit :

« Les nuages ne sont pas des sphères, les montagnes ne sont pas des cônes, les littoraux ne sont pas des cercles, l’écorce d’un arbre n’est pas lisse et la foudre ne se déplace pas en ligne droite. »

Nous retrouvons aussi les fractales en biologie, en géologie et en santé. Par exemple, la dimension fractale de signaux issus d’encéphalogrammes a été utilisée afin de détecter des irrégularités typiques de la maladie de Parkinson. Nous les retrouvons aussi dans la description du réchauffement climatique, à travers la quantification des taux de CO2 et l’analyse de l’évolution temporelle de la température terrestre.

Comment mesurer la « taille » d’un objet quand il n’est pas qu’une simple ligne ou un carré ? Les mathématiciens utilisent une méthode astucieuse du « box counting ». Imaginez que vous tentez de couvrir un objet avec des petites boîtes.

schema pour l’algorithme de box counting
La méthode de box counting pour calculer la dimension fractale du littoral de la France métropolitaine : pavons le littoral avec des boîtes carrées de plus en plus petites. Le nombre de boîtes est noté N, le côté du carré a ; et la dimension fractale obtenue est D=1,14. Delisle et Jouadi, Fourni par l'auteur

Plus les boîtes sont petites, plus il vous faudra de boîtes pour couvrir l’objet. Le box counting utilise cette idée, voici son fonctionnement :

  • Utiliser des boîtes côté a pour couvrir l’objet.

  • Compter combien de boîtes N(a) couvrent l’objet.

  • Calculer la dimension D par la formule :

Le dripping, du geste de l’artiste à la perception du public

Durant sa période du dripping, Pollock perfectionna sa technique en jouant sur la complexité des couleurs utilisées et des effets lumineux produits dans ses toiles. Derrière ce perfectionnement artistique, l’artiste, sans le savoir, augmenta la dimension fractale de ses réalisations.

En quadrillant les toiles avec des boîtes de côté de plus en plus fin et en utilisant l’algorithme de box counting, les mathématiciens ont, entre autres, déterminé les dimensions fractales des toiles de Pollock : certaines boîtes seront emplies de couleurs, d’autres non et c’est en quelque sorte le ratio entre les deux qui permet d’établir la dimension. Ainsi, le box counting a permis d’établir que la toile Alchemy a une dimension fractale égale à 1,5 et que la toile Autumn Rhythm (Number 30) est de dimension 1,66.

Les mathématiciens se sont ainsi rendu compte que la dimension fractale des toiles de Pollock avait augmenté au fil de sa carrière.

Mais si l’artiste perfectionnait techniquement la méthode de dripping, il n’est pas certain que l’expérience esthétique du public en soit grandie. En effet, dans un sondage publié en 2005, il en est ressorti que les gens avaient une préférence pour ses peintures avec une dimension fractale allant de 1,3 à 1,5 – des valeurs qui s’approchent des fractales induites par la nature.

Ceci est peut être lié au fait que la reconnaissance d’objets de la nature dans les objets fractales produisait une meilleure expérience esthétique que les fractales de dimension plus élevée difficilement identifiables à des objets communs ou naturels, comme l’a montré, dès 1990, une étude sur la psychologie de la perception.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

26.05.2025 à 16:54

La désinformation sur l’alimentation, un problème de santé publique

Serge Hercberg, Professeur Emérite de Nutrition Université Sorbonne Paris Nord (Paris 13) - Praticien Hospitalier Département de Santé Publique, Hôpital Avicenne (AP-HP), Equipe de Recherche en Epidémiologie Nutritionnelle, U1153 Inserm,Inra,Cnam, Université Sorbonne Paris Nord

Chantal Julia, Maitre de Conférence Université Paris 13, Praticien Hospitalier, Hôpital Avicenne (AP-HP), Equipe de Recherche en Epidémiologie Nutritionnelle, U1153 Inserm,Inra,Cnam, Université Sorbonne Paris Nord

Emmanuelle Kesse-Guyot, Directrice de recherche en épidémiologie nutritionnelle, Inrae

Mathilde Touvier, Directrice de l'Equipe de Recherche en Epidémiologie Nutritionnelle, U1153 Inserm,Inrae, Cnam, Université Sorbonne Paris Nord, Université Paris Cité, Inserm

Médecine, environnement, questions de société… De nombreuses fausses informations circulent en permanence sur les réseaux sociaux. C’est aussi le cas en ce qui concerne l’alimentation.
Texte intégral (2532 mots)

Du citron glacé pour traiter le cancer, des aliments brûleurs de graisses, du curcuma pour prévenir les maladies cardiaques… les fausses informations concernant l’alimentation sont légion, souvent diffusées par des acteurs peu scrupuleux pour servir leurs intérêts. Au mépris des connaissances acquises grâce à la recherche scientifique.


Le ministre de la santé Yannick Neuder a annoncé en avril 2025 sa volonté de faire de la lutte contre la désinformation médicale une priorité de son ministère. On ne peut que se féliciter de cette décision qui vise à rétablir la rationalité scientifique face à la prolifération de fausses informations qui circulent aujourd’hui, notamment par l’intermédiaire des réseaux sociaux et des grandes plateformes numériques de partage de contenu.

Remise en cause de l’intérêt des vaccins, de certains traitements médicaux, discréditation des recommandations et des mesures scientifiquement étayées qui visent à lutter contre les comportements défavorables à la santé… La diffusion d’allégations remettant en cause les connaissances basées sur les recherches scientifiques peut avoir des conséquences en matière de prévention et de prise en charge des maladies au niveau individuel et collectif, comme le soulignent notamment des rapports de l’Organisation mondiale de la santé et du Parlement européen.

De ce point de vue, la nutrition est un terrain particulièrement propice pour la désinformation, en raison des dimensions affectives, émotionnelles, culturelles et sociales qu’elle comporte, lesquelles sont autant de portes d’entrée pour faciliter la pénétration des fausses informations.

Des enjeux économiques considérables

Le secteur de l’alimentation est au cœur de gigantesques enjeux économiques. Rien qu’en France, le chiffre d’affaires généré par les entreprises représentées par l’Association nationale des industries alimentaires (Ania) est estimé à 210 milliards d’euros par an, tandis que celui de la grande distribution s’élève à plus de 225 milliards d’euros par an.

Dans ce contexte, les grands acteurs économiques qui produisent et commercialisent des aliments souhaitent protéger leur rentabilité et leur croissance afin de maintenir ou d’augmenter leurs profits. Pour défendre leurs intérêts, certains d’entre eux développent des actions de lobbying visant à influencer les politiques publiques et contrer les réglementations qu’ils considèrent aller à l’encontre de leurs intérêts.

Les lobbys sont capables de pressions fortes, de natures diverses, se manifestant classiquement par des actions tendant à influencer directement le contenu d’un texte réglementaire ou législatif. Par exemple, parmi les différentes stratégies utilisées pour bloquer ou au moins retarder sa mise en place, on a pu voir à l’occasion du vote de la loi « Santé » de 2016, des modèles d’amendement établis par l’Ania fournis clés en main, copies conformes des documents officiels de l’Assemblée, à des parlementaires complaisants qui n’avaient qu’à y ajouter leur signature et les soutenir en séance en leur nom propre.

À ce titre, la bataille menée par les industriels agroalimentaires pour bloquer la mise en place du logo nutritionnel Nutri-Score en France est très emblématique. Elle a notamment été documentée par l’un des auteurs de ces lignes, ainsi que par l’organisation non gouvernementale le Bureau européen des unions de consommateurs (Beuc).

Un lobbying qui porte ses fruits

Le Beuc a publié en octobre 2023, un rapport – surnommé les « Nutri-Score Papers » – s’appuyant sur des informations très précises et documentées obtenues grâce à une requête faite auprès de la Commission européenne par une autre ONG, Foodwatch EU.

Cette démarche a permis d’avoir accès aux réunions (ainsi qu’aux détails de leurs procès-verbaux) qui ont eu lieu en 2022 entre deux directions générales de la Commission européenne (la direction générale de la santé et de la sécurité alimentaire, ou DG Santé, et la direction générale de l’agriculture et du développement rural, ou DG Agri) et diverses parties prenantes, parmi lesquelles la représentation permanente de l’Italie auprès de la Commission européenne associée à Federalimentare, qui défend les intérêts des industriels agroalimentaires.

Ce rapport met en évidence comment le lobbying mené a influé sur les projets de la Commission sur l’étiquetage des denrées alimentaires. Il a en particulier empêché le Nutri-Score d’être reconnu comme le logo unique et obligatoire pour l’Europe, alors même que son intérêt en matière de santé publique a été démontré par des travaux scientifiques très rigoureux menés notamment (mais pas uniquement) par notre équipe de recherche.

Les documents rendus publics par le Beuc montrent en détail l’usage fait de la désinformation. L’organisation Federalimentare (représentant les industriels agroalimentaires italiens) a par exemple affirmé que « le Nutri-Score ne repose pas sur des bases scientifiques ». Et ce, alors même que plus de 150 articles scientifiques publiés dans des revues internationales à comité de lecture ont démontré son intérêt et son efficacité. Cette structure a même suggéré que « la consommation de produits à base de cacao provenant de pays du Sud diminuerait à cause de leur classification par le Nutri-Score, ce qui augmenterait l’immigration en Europe ».

Il ne s’agit là que de deux exemples parmi les nombreuses fausses informations diffusées par les lobbyistes. Un travail de sape qui a fini par payer, puisqu’il a abouti au blocage de l’adoption obligatoire du Nutri-Score par les 27 pays européens.

Le secteur de l’alcool est aussi concerné par ces pratiques de lobbying exacerbé. Là encore, la façon dont les lobbies, en déployant de multiples stratégies, orientent les décisions publiques à leur avantage a été bien documentée.

De nombreuses sources de désinformation

Les fausses informations concernant l’alimentation circulent via de nombreux canaux : médias classiques, réseaux sociaux, plateformes numériques de partage de contenus (Youtube, etc.)… Elles se retrouvent aussi dans des endroits moins évidents tels que certains colloques pseudo scientifiques, ou même dans l’arène politique.

Les supermarchés ne sont pas en reste, et nombre d’étiquettes comportent des mentions marketing à tout le moins discutables destinées à orienter les décisions des consommateurs : pots de yaourts « aux fruits » qui affichent sur leur emballage de façon très visible de grandes quantités de fruits, alors que le produit n’en contient que quelques pour cent, emploi à outrance du terme « naturel » (dans la dénomination des produits, des ingrédients, des visuels utilisés sur l’emballage) comme argument de vente suggérant un bénéfice santé ou a minima l’innocuité du produit (par effet de halo).


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Certains industriels n’hésitent pas à tenter de détourner la réalité nutritionnelle d’un produit, notamment via la publicité : le jury de déontologie publicitaire a ainsi émis un rappel à l’ordre suite à la diffusion d’une publicité affirmant que « […] le sucre est une plante […] ». Une autre stratégie courante consiste à mettre en exergue un composant spécifique en occultant les éléments négatifs qu’il contient (axer la communication sur les probiotiques d’un yaourt liquide, quand le produit lui-même contient par ailleurs autant voire plus de sucres qu’un soda…).

Les fake news visent également à jeter le doute sur les travaux scientifiques qui soutiennent les recommandations et valident les mesures de santé publique.

Ainsi, la crédibilité des chercheurs académiques à l’origine des études validant le Nutri-Score (publiées dans des revues scientifiques internationales à comité de lecture) a été attaquée par certains lobbyistes au prétexte qu’ils auraient un « conflit d’intérêts pour avoir contribué au développement de l’outil ».

Autre stratégie parfois employée par les lobbies : le financement de travaux visant à « produire du doute » (une approche qui a été bien documentée dans le cas du tabac).

Qui diffuse ces fausses informations ?

Notre expérience de ces questions nous a appris que les profils des diffuseurs sont variés. Certains s’expriment à titre individuel : gourous, influenceurs ou coachs projettent ainsi dans leurs discours leurs opinions personnelles, liées à leurs croyances, leurs idéologies. Très souvent, ces déclarations sont également guidées par des intérêts économiques, l’accroissement de la visibilité sur les plateformes numériques permettant non seulement d’améliorer la monétisation des comptes concernés, mais aussi de recruter des clients qui achèteront livres, programmes, produits placés par des firmes contre rémunération, etc.

Ils sont à l’origine de fake news qui ont souvent très relayées : du citron glacé pour traiter le cancer au curcuma pour prévenir les maladies cardiaques, en passant par les brûleurs de graisses et autres compléments alimentaires aux prétendues multiples vertus jamais étayées par aucune étude scientifique de qualité.

Certains pourvoyeurs de désinformation peuvent être plus difficiles à détecter. C’est par exemple le cas de certains professionnels de santé qui n’hésitent pas à relayer leurs recommandations « faites maison », dépourvues de bases scientifiques et allant parfois à l’encontre des recommandations officielles.

Ainsi, alors que la recommandation des organismes d’expertise officiels français (Anses, Haut Conseil de la santé publique ou Santé publique France) est de ne pas dépasser 500 g de viande par semaine (en privilégiant la volaille), certains professionnels n’hésitent pas à recommander d’en consommer quotidiennement 200 g, ou de faire manger deux fois par jour de la viande rouge aux enfants et adolescents. Des informations dépourvues de scientificité, mais souvent largement relayées, notamment par les industriels du secteur…

Les acteurs économiques du champ de l’agroalimentaire interviennent aussi dans l’espace public soit très directement, soit via des « faux-nez » (collectifs, pseudo centres d’information, think tanks, influenceurs…).

Enfin, certains membres de la classe politique n’hésitent pas à relayer des éléments de langage empruntés aux lobbyistes du secteur agro-industriel pour défendre certains produits, firmes ou filières, motivés par des raisons personnelles ou électoralistes (via des arguments que l’on pourrait qualifier de « gastro-régionalistes » ou « gastro-nationalistes »…). Quitte à aller à l’encontre de mesures de santé publiques combattues par ces acteurs économiques.

Des conséquences sur la santé publique

En 2023, des chercheurs ont publié les résultats d’une méta-analyse portant sur 64 études ayant eu pour objet d’évaluer la qualité et la précision des informations nutritionnelles disponibles pour le public (principalement sur des sites Internet).

Soulignant les risques de biais de sélection lors de la mise en place de tels travaux d’évaluation, les auteurs de la méta-analyse estiment cependant qu’on peut considérer, d’après leurs résultats, que les informations nutritionnelles en ligne sont souvent inexactes et de mauvaise qualité. Selon eux, les consommateurs qui les utilisent risquent d’être mal informés. Il est donc nécessaire de prendre des mesures pour améliorer les connaissances du public, ainsi que la fiabilité des informations nutritionnelles en ligne.

La désinformation dans le domaine de la nutrition – et ses conséquences sur la santé des consommateurs – n’est pas un phénomène nouveau. Elle trouve cependant aujourd’hui une résonance particulière, en raison du développement des réseaux sociaux et des plateformes digitales qui facilitent une large diffusion des fake news, de la défiance vis à-à-vis de la science, des « experts », et de l’État, ainsi qu’en raison de l’importance des enjeux économiques qui sous-tendent les achats et les consommations alimentaires.

Comme dans le cas d’autres secteurs touchés par la désinformation (climat, environnement, vaccination, société, etc.), lutter contre les fake news nutritionnelles s’avère d’une extraordinaire complexité. Il donc est effectivement plus que temps que les personnes engagées dans ce combat bénéficient d’un soutien s’inscrivant dans une réelle « politique publique » !

The Conversation

Chantal Julia a reçu des financements de publics (Santé publique France, Ministère de la Santé, Joint Action prevent NCDs, IRESP...).

Emmanuelle Kesse-Guyot a reçu des financements publics (ANR, INRAE, Ademe, Ecophyto, FRM)

Mathilde Touvier a reçu des financements publics ou associatifs à but non lucratif pour ses recherches (ERC, ANR France 2030, INCa, Ministère de la Santé...).

Serge Hercberg ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

26.05.2025 à 16:54

Repenser l’État de droit pour le XXIᵉ siècle

Fabien Bottini, Professeur des Universités en droit public, Le Mans Université

La liste des droits et libertés comme leur articulation ont significativement évolué depuis 1789 et tout au long des XIXᵉ et XXᵉ siècles. Comment penser la hiérarchie des droits au regard des défis – notamment environnementaux – du XXIᵉ siècle ?
Texte intégral (2400 mots)
Les révolutionnaires de 1789 énoncent des droits fondamentaux dans la Déclaration des droits de l’homme et du citoyen. Il faut attendre 1870 pour que le justiciable puisse en contester la violation devant le juge. Fourni par l'auteur

La liste des droits et libertés comme leur articulation ont significativement évolué depuis 1789 et tout au long des XIXe et XXe siècles. À partir des années 1970, les droits économiques s’imposent au détriment des droits sociaux. Comment penser la hiérarchie des droits au regard des défis – notamment environnementaux – du XXIe siècle ?


Parce que « tout problème est une opportunité déguisée », comme l’explique Deepack Chopra, les critiques contre l’État de droit sont l’occasion de repenser sa finalité, de façon à l’adapter aux défis du XXIe siècle.

Trait caractéristique des démocraties libérales, l’État de droit subit en effet aujourd’hui le feu des régimes autoritaires ou « illibéraux » et d’une Amérique ploutocratique.

Or, s’il convient de le préserver, c’est parce qu’il permet une soumission effective des autorités publiques au droit qu’elles édictent, afin de prévenir leur arbitraire et d’assurer le respect des droits et libertés de chacun, sous le contrôle de juges indépendants du pouvoir politique et impartiaux.

Mais, ce n’est pas parce qu’il convient de défendre le principe de son maintien, qu’il faut faire l’économie d’une réflexion sur son évolution. Il paraît notamment nécessaire de repenser la relation des droits économiques (droit de propriété, libertés d’entreprendre, du commerce et de l’industrie, contractuelle…) et non économiques (droits politiques, sociaux, culturels et environnementaux) qu’il contribue à garantir, pour faciliter la grande bascule des activités carbonées vers les activités décarbonées, d’une façon qui ne laisse personne au bord du chemin, face au risque de dépassement des neuf limites planétaires.

La lente apparition de l’État de droit à partir de la IIIᵉ République

Les droits de l’homme (droits à la liberté individuelle, de propriété, à la sûreté, de résistance à l’oppression) devaient, en 1789, être la boussole éthique de l’action des gouvernants sous le contrôle des gouvernés, permis par l’exercice de droits du citoyen garantissant un certain nombre de libertés politiques (droits de vote et d’éligibilité mais aussi libertés d’opinion, d’expression, d’association…). Sous la IIIe République, les libertés publiques ont par la suite opéré la traduction juridique des droits hérités de la Révolution pour imposer leur respect à l’administration.

Car, alors que les femmes et les hommes de 1789 pensaient qu’il suffirait de rappeler à chacun l’étendue de ses droits dans un texte solennel pour que l’administration les respecte sous le contrôle des électeurs, il est apparu nécessaire, à partir des années 1870, d’ouvrir davantage au justiciable la possibilité de contester leur violation devant le juge.

La consécration de l’État de droit au XXᵉ siècle

Amorcée par des arrêts du Tribunal des conflits et du Conseil d’État au tournant du XXe siècle, cette évolution a servi de support à l’essor des droits sociaux (droit du travail, sécurité sociale…) et été confortée à la fin de la Seconde Guerre mondiale.

Dès 1946, cependant, le souvenir des lois liberticides votées sous Vichy a conduit le constituant à aller plus loin, en inaugurant sous la IVe République un contrôle de constitutionnalité des lois dont les modalités concrètes ont été renforcées lors de l’entrée en vigueur de la Constitution de 1958 portant Vᵉ République.

Mais ce n’est qu’avec la reconnaissance, par le Conseil constitutionnel, en 1971, du caractère constitutionnel du préambule de ce texte suprême (et par voie de conséquence de la Déclaration de 1789, du Préambule de 1946, puis de la Charte de l’environnement de 2004 auxquels il renvoie) que l’État de droit est devenu une réalité. Si cette évolution a été renforcée par l’ouverture à l’opposition du droit de le saisir en 1974, encore a-t-il fallu attendre 1990 pour que le juge constitutionnel en déduise que le respect des « droits fondamentaux » est garanti par la Constitution.

La nouvelle théorie des droits héritée des années 1970

La liste des droits et libertés et la façon de les articuler ont ainsi significativement évolué depuis 1789 et tout au long des XIXe et XXe siècles. Un changement majeur a eu lieu dans les années 1970, lorsque la rhétorique des droits fondamentaux héritée de la charte de l’ONU de 1945 a été utilisée pour étendre les droits des individus aux entreprises.

Car, si le droit français a toujours été animé par le souci de protéger la dignité humaine, l’État de droit hérité des années 1970 a, ce faisant, opéré un nouvel équilibre entre les droits économiques et non économiques. C’est la conséquence d’une hiérarchie « substantielle de la fondamentalité » apparue en pratique, de façon à affirmer la primauté des premiers sur les seconds à la suite des chocs pétroliers, dans le contexte de l’édification et de l’entretien d’un grand marché mondial et européen.

Car la garantie des droits économiques nécessaires au bon fonctionnement du marché a alors pris l’ascendant sur celle des droits non économiques, dans le sens où les premiers ont bénéficié d’une protection renforcée, conduisant à les faire prévaloir en cas de conflit sur les seconds, ces derniers étant en quelque sorte mis à leur service. C’est la conséquence de l’affirmation d’un ordre public concurrentiel ou économique faisant de l’objectif de bon fonctionnement du marché une priorité de l’action publique, sous le contrôle du juge.

C’est ainsi que les droits sociaux ont été transformés en « droits des pauvres » et « pauvres droits », alors que les droits environnementaux, tout en ayant le mérite d’exister dans les textes, ne jouaient que s’ils n’entravaient pas la croissance des activités marchandes, fussent-elles carbonées.

Rétrospectivement, cette hiérarchie implicite des droits fondamentaux a contribué à l’accroissement des inégalités, en favorisant la concentration des richesses entre les mains de quelques-uns qui ébranle de nos jours le pacte social de notre démocratie. Mais elle a également encouragé le développement d’activités économiques fossiles, à l’origine de l’effondrement du vivant.

Les droits humains pour repenser les finalités de l’État de droit

Depuis les années 1990, la rhétorique des droits fondamentaux héritée des années 1970 est toutefois concurrencée par celle des droits humains. S’il peut sembler anodin, ce nouveau glissement sémantique est potentiellement lourd de conséquences. Car, comme le passage des droits de l’homme aux libertés publiques puis des libertés publiques aux droits fondamentaux, ce changement lexical porte les germes d’une nouvelle théorie des droits et, à travers elle, d’un nouvel État de droit pour le XXIe siècle.

Le constituant français a d’ailleurs, de façon symbolique, refusé d’inscrire en 2008 l’expression « droits fondamentaux » dans la constitution pendant que la version française du Pacte pour l’avenir de l’ONU de septembre 2024 préfère désormais se référer aux droits humains. Or, outre qu’elle permet de mieux rendre compte de « l’égalité des sexes » que celle de droits de l’homme, nos dernières recherches montrent que l’expression pose les bases d’un nouveau rapport de l’espèce humaine avec la nature.

Car, alors que la rhétorique des droits fondamentaux avait, dans les années 1970, conduit à mettre l’accent sur les questions économiques, celle des droits humains tend à les « réencastrer » dans la réalité sociale et environnementale. Tandis que la première était fondée sur l’idée que la seule responsabilité sociale des entreprises était d’accroître leurs profits, la seconde défend au contraire le rôle qu’elles ont à jouer pour lutter contre les inégalités et réussir la transition.

Alors que la rhétorique des droits fondamentaux était fidèle à l’injonction de Descartes faite à l’Homme de se rendre « maître et possesseur de la nature » – dans la mesure où elle a accompagné une exploitation sans limites des ressources physiques de la planète –, celle des droits humains tend à reconnaître la personnalité juridique, sinon à la nature toute entière, du moins à certaines de ses incarnations (comme des animaux ou des fleuves). Tandis que la première se souciait avant tout des droits des générations actuelles, dans une perspective intragénérationnelle, la seconde les prend également en compte dans une perspective intergénérationnelle, pour préserver « « la capacité des générations futures et des autres peuples à satisfaire leurs propres besoins » …

La question se pose ainsi de savoir si la France et l’UE sauront résister à la nouvelle administration américaine pour continuer d’avancer dans l’élaboration de ce nouveau récit collectif, pour préserver l’idéal de liberté, d’égalité et de fraternité, d’une façon compatible avec les nouvelles menaces qui le mettent à l’épreuve. Ce n’est pas certain, mais ce n’est pas impossible non plus tant « l’histoire n’avance pas en lignes droites », comme le relevait Isaiah Berlin.

Les critiques faites à l’État de droit devraient ainsi se lire la lumière de ces enjeux, si l’on veut contribuer, via la liberté politique et les droits culturels, à la mise en place d’un nouvel équilibre entre les droits économiques, sociaux et environnementaux, qui permette de faciliter la grande bascule des activités carbonées vers celles de nature décarbonée, en ne laissant personne au bord du chemin.

The Conversation

Fabien Bottini est chargé de mission pour la Fondafip, le think-thank des Finances publiques, membre de l'Observatoire de l'éthique publique (OEP) et de la MSH Ange Guépin. Il a perçu ou perçoit des subventions de la part du LexFEIM et du Thémis-UM, laboratoires de recherche en droit, et de la Mission de recherche Droit & Justice. Il est par ailleurs titulaire de la chaire "Innovation" de l'Institut Universitaire de France et de la chaire "Neutralité Carbone 2040" de Le Mans Université qui financent également en partie ses travaux.

PDF

26.05.2025 à 16:53

Royaume-Uni : comment la religion des députés influence leur position sur la légalisation de l’aide à mourir

David Jeffery, Senior Lecturer in British Politics, University of Liverpool

Les députés ont récemment voté sur un projet de loi sur l'aide à mourir. Un vote où leur affiliation religieuse a joué un rôle non négligeable.
Texte intégral (2374 mots)
Le député travailliste John Healey prête serment sur une Bible. Compte Flickr du Parlement britannique, CC BY-NC-SA

Alors que le débat sur la fin de vie bat son plein en France, il est intéressant d’examiner le cas du Royaume-Uni, où le débat parlementaire est également en cours, les députés de la Chambre des Communes ayant ouvert la voie, par un vote tenu le 29 novembre 2024 – 330 voix pour et 275 contre — à l’adoption d’un texte autorisant l’aide médicale à mourir. Sur ce sujet éminemment sensible, les convictions religieuses des parlementaires entrent en ligne de compte au moins autant que leur appartenance politique, comme le montre cette analyse détaillée de leur vote du 29 novembre dernier.


Comme pour de nombreuses questions morales, il s’agit d’un vote libre – les députés n’ont pas à appliquer de consignes imposées par leurs partis respectifs. Après le vote du 29 novembre, les députés ont été nombreux à expliquer les raisons pour lesquelles ils ont voté en faveur ou non du texte, évoquant notamment leur propre expérience aux côtés d’un proche vivant ses derniers jours, leurs discussions avec leurs électeurs, l’expérience d’autres pays en matière de suicide assisté… et, aussi, leurs convictions religieuses (au Royaume-Uni, celles-ci sont connues pour chacun des 650 membres de la Chambre des Communes).

« Royaume-Uni : Vote historique des députés britanniques sur l’aide à mourir », France 24 (novembre 2024).

Lors de ce premier vote, des tendances se sont clairement dégagées en fonction de l’appartenance religieuse des députés :

  • Les députés sans religion (36,4 % du total) étaient beaucoup plus susceptibles de soutenir l’aide à mourir. Dans ce groupe, 76 % ont voté pour, tandis que 18 % seulement ont voté contre.

  • Les députés chrétiens (54,7 %) étaient, dans l’ensemble, plutôt enclins à s’opposer au projet de loi. 57 % d’entre eux ont voté contre, l’opposition la plus prononcée venant des catholiques, qui se sont opposés à 74 %.

  • Les députés musulmans (3,9 %) ont été encore plus nombreux à voter contre, 84 % d’entre eux s’y étant opposés.

  • Les députés juifs (2 %) et sikhs (1 %) étaient environ deux fois plus nombreux à soutenir le projet de loi qu’à s’y opposer.

  • Les députés hindous (0,9 %) étaient plus nombreux à s’y opposer qu’à le soutenir, avec la même marge. La seule députée bouddhiste, Suella Braverman, a voté contre.

Au-delà de leur propre appartenance ethnique, politique ou religieuse, les opinions de leurs électeurs ont également pu influencer le vote des députés. Pour étudier cette question, j’ai effectué une analyse de régression (une méthode statistique permettant de trouver une relation entre divers facteurs) qui incluait une série de variables relatives aux circonscriptions, telles que la proportion de résidents blancs et le pourcentage de chaque groupe religieux (ainsi que de ceux qui s’identifient comme non religieux).

J’ai également pris en compte le pourcentage d’électeurs non diplômés, de diplômés, de ceux qui déclarent une forme de handicap. Dans le modèle complet, qui intégrait toutes ces variables, aucune des variables religieuses ne s’est révélée statistiquement significative, ce qui suggère que le lobbying religieux local n’a pas eu d’effet mesurable sur le vote des députés.

Toutefois, il est intéressant de remarquer que les députés dont la circonscription compte une proportion plus élevée de personnes handicapées sont plus susceptibles de voter en faveur de l’aide à mourir. Il n’est pas clair que ce soit une relation de cause à effet, suggérant que leurs électeurs ont fait pression sur eux pour qu’ils soutiennent le projet de loi, ou s’il s’agit d’une corrélation entre le fait que les personnes handicapées sont plus susceptibles de vivre dans des circonscriptions du Parti travailliste.

Comment les députés ont voté l’aide à mourir en novembre 2024 ?

Caractéristiques Total Oui Non Abstention
Total 642 331 (52%) 276 (43%) 35 (5%)
Femme 261 143 (55%) 107 (41%) 11 (4.2%)
Minorité ethnique 90 30 (33%) 57 (63%) 3 (3.3%)
LGBT 71 49 (69%) 18 (25%) 4 (5.6%)
Partis politiques
Parti Travailliste 411 236 (57%) 155 (38%) 20 (4.9%)
Parti Conservateur 121 23 (19%) 93 (77%) 5 (4.1%)
Libéraux-démocrates 72 61 (85%) 11 (15%) 0 (0%)
Parti National écossais 9 0 (0%) 0 (0%) 9 (100%)
Parti pour l'Indépendance du Royaume-Uni 6 0 (0%) 6 (100%) 0 (0%)
Parti unioniste démocratique 5 0 (0%) 5 (100%) 0 (0%)
Reform UK 5 3 (60%) 2 (40%) 0 (0%)
Parti vert 4 4 (100%) 0 (0%) 0 (0%)
Plaid Cymru (centre gauche) 4 3 (75%) 1 (25%) 0 (0%)
Parti social-démocrate et travailliste 2 1 (50%) 0 (0%) 1 (50%)
Alliance 1 0 (0%) 1 (100%) 0 (0%)
Voix unioniste traditionnelle 1 0 (0%) 1 (100%) 0 (0%)
Parti unioniste d'Ulster 1 0 (0%) 1 (100%) 0 (0%)
Religion
Non religieux 234 179 (76%) 43 (18%) 12 (5.1%)
Chrétien 351 132 (38%) 199 (57%) 20 (5.7%)
Catholique 35 7 (20%) 26 (74%) 2 (5.7%)
Musulman 25 2 (8.0%) 21 (84%) 2 (8.0%)
Juif 13 8 (62%) 4 (31%) 1 (7.7%)
Sikh 12 8 (67%) 4 (33%) 0 (0%)
Hindou 6 2 (33%) 4 (67%) 0 (0%)
Bouddhiste 1 0 (0%) 1 (100%) 0 (0%)

Note : le décompte des voix diffère de celui donné par le site web du Parlement parce que j’ai inclus les scrutateurs des deux côtés et que j’ai considéré les députés qui ont voté à la fois oui et non comme des votes d’abstention.

  • Lors de ce premier vote, les femmes députées étaient légèrement plus nombreuses à voter en faveur de l’aide à mourir que contre. Les députés LGBT penchent fortement en faveur de la modification de la loi (69 % d’entre eux ont voté pour).

  • Les députés issus de minorités ethniques ont, quant à eux, fortement penché dans la direction opposée, 63 % d’entre eux ayant voté contre.

  • Comme on pouvait s’y attendre, compte tenu du soutien ouvert du premier ministre Keir Starmer à la mort assistée, les députés travaillistes ont soutenu le projet de loi, avec 57 % de votes favorables et 38 % de votes défavorables.

  • Les libéraux-démocrates l’ont également soutenu à une écrasante majorité (85 %), tandis que 77 % des députés conservateurs ont voté contre. Tous les partis unionistes d’Irlande du Nord, ainsi que le député unioniste indépendant, ont voté contre le projet de loi, sans aucune abstention.

  • Les députés de Reform UK étaient partagés, avec deux contre et trois pour.

Un phénomène intéressant s’est fait jour à la gauche de l’échiquier politique. Lors des élections générales de 2024, le Parti vert et les « indépendants de Gaza » s’étaient opposés au Parti travailliste. Dans ce vote libre, nous avons vu les contrastes sociaux entre ces deux groupes se manifester. Tous les députés verts ont soutenu l’aide à mourir, tandis que tous les indépendants pro-Gaza – et leur allié, l’ancien leader du parti travailliste Jeremy Corbyn – s’y sont opposés. Ce clivage fait écho à la distinction entre les « libéraux identitaires de conviction » et les « libéraux par nécessité » issus des minorités ethniques qu’ont établie Maria Sobolewska et Robert Ford dans Brexitland.

Ce dernier groupe s’aligne sur les libéraux de conviction sur les questions de discrimination pour des raisons personnelles, mais adopte souvent des positions opposées sur des questions sociétales telles que l’aide à mourir. Les débats tels que celui actuellement en cours sur cette dernière question mettent en évidence les tensions au sein de cette coalition.

Reconnaître la religion au sein du Parlement

La religion étant une affaire personnelle, il n’existe pas de base de données officielles qui enregistre l’appartenance des députés. Il est donc souvent impossible de vérifier la façon dont les opinions religieuses influencent le comportement électoral. Pour combler cette lacune, j’ai constitué un ensemble de données en utilisant une méthodologie en trois étapes pour déterminer l’appartenance religieuse des députés.

En effet, je vérifie d’abord si un député est membre d’un groupe religieux, tel que Christians in Parliament. Ensuite, si un député a publiquement fait part de ses convictions religieuses – par exemple, dans un discours ou une interview – il est également classé en conséquence.

Résultats : parmi les députés (à l’exclusion du président et des députés du Sinn Fein, qui ne siègent pas), 54,7 % (351) sont chrétiens, dont 5,5 % (35) sont catholiques ; 36,4 % (234) sont sans religion ; 3,9 % (25) sont musulmans ; 2 % (13) sont juifs ; 1,9 % (12) sont sikhs ; 0,9 % (6) sont hindous ; et 0,2 % (1) sont bouddhistes.

Toutefois, ces deux premières étapes ne concernent qu’une fraction des députés. Tous les députés sont tenus de prêter un serment d’allégeance à la Couronne lorsqu’ils entrent en fonctions. Ce serment peut être fait sur un texte religieux ou une affirmation non religieuse, et il est essentiel que les députés puissent choisir le texte sur lequel ils prêtent serment – ce qui fait de cette décision une indication significative et publiquement visible de leur croyance.

Cela nous amène à la troisième étape : le texte religieux (ou l’absence de texte) utilisé lors de la cérémonie de prestation de serment est considéré comme une source supplémentaire de preuves pour la classification.

Ces trois sources sont utilisées par ordre de priorité. Par exemple, Tim Farron est un membre chrétien du Parlement et a parlé ouvertement de sa foi, mais il a choisi d’affirmer sans utiliser de texte religieux. Malgré cela, il est classé comme chrétien sur la base des deux premiers critères.

Dans cette affaire, ce qui a été particulièrement intéressant, ce sont les différences de vote entre les groupes chrétiens. J’ai pu distinguer ces groupes parce que lorsque les députés prêtent serment, les catholiques demandent généralement des versions spécifiques de la Bible – comme la Nouvelle Bible de Jérusalem – alors que les autres peuvent simplement demander la Bible et se voient remettre la version King James. Le fait de distinguer les catholiques dans une catégorie à part permet de nuancer l’analyse de la composition religieuse du Parlement. Une répartition complète de la religion des députés, ainsi que les données utilisées pour ce projet, sont disponibles ici.

Nous serons bientôt en mesure de voir comment ces marqueurs interagissent avec le vote en troisième lecture.

The Conversation

David Jeffery ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

26.05.2025 à 16:53

L’impact de la politique commerciale des États-Unis sur les économies africaines

Julien Gourdon, Economiste, Agence Française de Développement (AFD)

Simon Azuélos, Analyste Afrique, Agence Française de Développement (AFD)

La politique de Washington en matière de droits de douane a des effets indéniables sur les pays d’Afrique, même si leur dépendance vis-à-vis du marché états-unien n’est généralement pas très élevée.
Texte intégral (1931 mots)

Les droits de douane promulgués par l’administration Trump vont affecter de façons variées les pays africains. Décryptage.


Les régimes tarifaires introduits par Donald Trump à l’encontre de très nombreux pays vont bouleverser le système financier mondial ainsi que d’innombrables relations commerciales, entraînant de profondes distorsions sur les marchés et un ralentissement généralisé de la croissance.

Ce développement aura nécessairement un impact sur les pays les plus pauvres, notamment sur 39 pays à faible revenu d’Afrique qui bénéficiaient d’un accès en franchise de droits aux marchés états-uniens depuis 2000 en vertu de la loi sur la croissance et les opportunités en Afrique (African Growth and Opportunity Act, AGOA).

Cependant, le risque pour les économies africaines viendra davantage de la volatilité des prix des matières premières, qui pourrait mettre en péril leur équilibre extérieur et des chocs sur les taux souverains africains.

Augmentation des barrières tarifaires pour les exportations africaines

Le 8 avril 2025, les États-Unis ont imposé aux pays africains des droits de douane élevés, allant de 10 % à 50 % (pour le Lesotho) sous le scénario « reciprocal tariff » (droits de douane réciproques)

Le lendemain, 9 avril, l’administration Trump a annoncé mettre en pause ce scénario et avoir adopté, pour tous les exportateurs, un taux de 10 %, dit « universal tariff » (droits de douane universels).

Les droits de douane moyens imposés aux pays africains étaient de 3,7 % en 2024 (en tenant compte de leurs paniers d’exportations, qui diffèrent d’un pays à l’autre). Ils seront de 10 % pour chaque pays en cas de mise en œuvre du scénario universal tariff, et de 30 % en moyenne si c’est le scénario reciprocal tariff qui est finalement appliqué.

L’augmentation de ces tarifs sera en fait bien plus importante si l’on considère que 34 pays du continent bénéficient d’un accès privilégié (zéro tarif sur une vaste quantité de biens) au marché des États-Unis via l’AGOA, et que 35 pays profitent du Système généralisé des préférences (SGP) des États-Unis, résultant en un tarif moyen pour les exportations africaines de 1,3 % : les hausses seront donc encore plus conséquentes, que ce soit sous le scénario universal ou sous le scénario reciprocal tariff.

La dépendance relativement faible du continent au marché des États-Unis minimise l’impact

Cependant, les États-Unis représentent un marché d’exportation relativement restreint pour la plupart des pays du continent. 5,8 % seulement des exportations africaines sont à destination de ce marché (Figure 1) et, pour vingt-cinq pays, la part de ce marché dans leurs exportations totales est inférieure à 2 %.

Figure 1 : Tarifs pour les pays africains sur le marché états-unien

Source : Auteurs, sur la base de World Integrated Trade Solution (World Bank).

Trente-deux pays représentent moins de 4 % des exportations africaines totales vers les États-Unis. Les principaux exportateurs vers les États-Unis sont l’Afrique du Sud, le Nigeria, le Ghana, l’Angola et la Côte d’Ivoire.

Si l’on considère à la fois le changement de droits de douane et la dépendance au marché américain, 12 pays du continent seront plus particulièrement touchés (Figure 2) : le Lesotho, Madagascar, le Botswana, l’Afrique du Sud, la Côte d’Ivoire, le Nigeria, le Malawi, Djibouti, le Ghana, le Kenya, le Sénégal et l’Éthiopie.

Figure 2 : Exposition des pays africains aux nouveaux tarifs américains

Source : Auteurs, sur la base de World Integrated Trade Solution (World Bank). Note : la taille des bulles est fonction du montant des exportations du pays vers les États-Unis.

Notons que l’énergie et les minerais sont exemptés des nouveaux droits de douane, de sorte que les principaux exportateurs de pétrole, de gaz et de produits miniers ne seront pas très affectés. Il s’agit notamment de l’Angola, du Tchad, de la RDC, du Ghana et du Nigeria. Mais pour quelques-uns, l’impact pourrait être sévère, en particulier ceux qui dépendent des États-Unis comme marché d’exportation.

Pour le Lesotho, Maurice et Madagascar, qui exportent des vêtements, le choc subi est particulièrement dévastateur car ce sont les États-Unis qui ont permis cette croissance en exemptant les intrants de pays tiers (les tissus) des droits de douane. Le Kenya est également un grand exportateur de vêtements, mais avec un droit de douane de 20 %, il est désormais relativement plus compétitif.

Figure 3 : Type de biens exportés vers les États-Unis et vers le reste du monde

Les États-Unis sont également une destination d’exportation importante pour l’Afrique du Sud, mais elle sera mieux placée pour surmonter le choc, grâce à son économie plus diversifiée. La Côte d’Ivoire, premier producteur mondial de cacao, est frappée d’un droit de 21 % sous le scénario « reciprocal tariff ». L’Éthiopie, avant d’être suspendue du programme AGOA pour des raisons politiques, avait connu une explosion de ses exportations textiles vers les États-Unis.

Alternatives sur le marché international

Si, dans l’ensemble, le commerce mondial pourrait connaître un ralentissement, certains pays africains et secteurs compétitifs à l’échelle mondiale peuvent se tourner vers de nouveaux marchés pour mieux résister aux changements de politique et aux autres risques liés à la chaîne d’approvisionnement. En fin de compte, ces droits de douane pousseront les nations africaines à former de nouvelles alliances ainsi qu’à approfondir les échanges commerciaux établis avec l’UE et avec la Chine, l’Inde et les pays du Golfe.

La Chine, en particulier, a tout à gagner, elle qui l’an dernier a supprimé les droits de douane sur les marchandises en provenance de 33 pays africains. Ces chocs extérieurs rappellent l’urgence de renforcer l’intégration économique du continent au travers de la Zone de libre-échange continentale africaine (ZLECAf), qui n’est pas seulement un projet politique au niveau continental, mais bien une nécessité stratégique.

Si la plupart des pays ne sont que très peu impactés du fait de leur faible exposition, une dizaine de pays, en particulier ceux qui avaient développé des industries autres que les produits pétroliers et minerais – exemptés de ces droits de douane – seront touchés plus fortement. Cependant, l’effet négatif pour les économies du continent pourrait se situer ailleurs…

Un risque accru de volatilité des prix qui pourrait mettre en péril l’écosystème commercial africain

Le contexte actuel de guerre commerciale entre la Chine et les États-Unis entraîne un risque de ralentissement de la demande pour les matières premières africaines de la part de la Chine (les prix de référence des métaux ont chuté brutalement au début du mois d’avril) et une volatilité accrue des prix des matières premières, ce qui affectera les recettes d’exportation des pays africains.

Avant ce conflit commercial, le ralentissement de la croissance économique et l’offre abondante de pétrole depuis 2024 avaient déjà provoqué une chute des prix mondiaux des matières premières, avec un recul dans les prévisions de 12 % en 2025 puis de 5 % en 2026, marquant la fin de l’envolée des prix liée à la reprise économique après la crise Covid et l’invasion russe de l’Ukraine.

Si les tensions commerciales s’intensifient ou si l’incertitude s’aggrave, la demande globale de matières premières risque de s’affaiblir encore davantage, et les prix de baisser.

Figure 4 : Évolution des prix des produits de base

Source : Commodity Markets (World Bank)

Déjà confrontés à des coûts d’emprunt élevés et à un accès limité aux financements extérieurs, les pays d’Afrique subsaharienne doivent mobiliser chaque année plus de 70 milliards de dollars de financements extérieurs bruts pour couvrir leurs besoins, soit environ 6 % de leur PIB régional. La hausse des tensions commerciales risque d’aggraver ces défis, en accentuant l’aversion pour le risque des investisseurs et en rendant plus difficile l’accès aux marchés financiers internationaux.

Choc sur les taux souverains africains

La montée de l’aversion pour le risque a déclenché une forte vente des obligations souveraines africaines, provoquant une hausse généralisée des spreads souverains. Les spreads des obligations souveraines africaines ont augmenté en moyenne d’environ 100 points de base en quelques semaines. Cette hausse du coût du risque rend le refinancement externe plus difficile pour les pays africains, malgré des tentatives de stabilisation des marchés après l’annonce d’un arrêt partiel des nouveaux tarifs le 9 avril.

Les primes de risque plus élevées devraient persister au-delà du choc immédiat, dans un contexte de durcissement des conditions financières mondiales, de ralentissement de la croissance globale et de volatilité accrue des marchés des matières premières. Ce nouvel environnement fragilise particulièrement les économies d’Afrique subsaharienne qui dépendent des marchés internationaux pour leur financement.

Effet des nouveaux tarifs américains sur la projection de croissance

Après plusieurs années de crises successives, l’Afrique était bien engagée dans une reprise progressive. Ce dynamisme reposait sur la reprise des investissements publics, le rebond des exportations de matières premières et la diversification économique en cours.

Toutefois, le durcissement des conditions financières mondiales, la hausse des coûts d’emprunt, le ralentissement de la demande extérieure et la baisse de certains prix de matières premières ont rapidement assombri les perspectives. En attestent les projections FMI pour 2025 et 2026 sorties ce mois-ci, en nette baisse relativement aux projections d’octobre 2024, ainsi le FMI a abaissé sa prévision de croissance pour l’Afrique en 2025, de 4,2 % à 3,8 %, en raison de ces incertitudes accrues.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

26.05.2025 à 16:53

Avenir énergétique de la France : le texte du gouvernement est-il à la hauteur des enjeux ?

Marc Fontecave, Professeur, titulaire de la chaire de chimie des processus biologiques au Collège de France, membre de l'Académie des sciences, Collège de France

Yves Bréchet, Professeur à Monash University (Australie) et membre de l'Académie des sciences, Monash University

Que penser de la nouvelle programmation pluriannuelle de l’énergie (PPE) ? Pour l’Académie des sciences, le texte souffre de plusieurs incohérences.
Texte intégral (3101 mots)

Que penser de la programmation pluriannuelle de l’énergie (PPE) dévoilée en mars 2025 ? Pour l’Académie des sciences, qui a livré un avis sur la question, le texte souffre de plusieurs incohérences. En misant sur la surproduction, une telle politique pourrait entraîner une volatilité accrue des prix de l’électricité, accélérer la dégradation des capacités nucléaires, en cas de sous-utilisation, et enfin affecter la stabilité des réseaux électriques sur le territoire.


C’était un texte attendu de longue date. La programmation pluriannuelle de l’énergie (PPE), qui doit fixer les objectifs de la politique énergétique nationale à l’horizon 2035, a été rendue publique en mars 2025. Il s’agit d’une version révisée, faisant suite à une première version soumise à la consultation publique organisée à la fin de l’année 2024.

Ce document se donne notamment l’ambition de transformer notre système énergétique pour réduire sa dépendance vis-à-vis des ressources carbonées fossiles tout en garantissant la sécurité d’approvisionnement. Est-il à la hauteur des enjeux climatiques et énergétiques ?

Après avoir procédé à son analyse rigoureuse, l’Académie des sciences a récemment diffusé un avis sur cette nouvelle PPE assorti de recommandations. Nous en livrons ici les principaux messages.

Nucléaire et barrages, un bon point de départ

Commençons par rappeler quelques spécificités du mix énergétique français. L’électricité constitue 26 % de la consommation d’énergie totale des Français. Comme l’a montré le dernier bilan électrique de RTE, l’intensité carbone de notre production électrique, soit 21,3 g équivalent CO2 par kilowatt-heure (kWh) en 2024, est l’une des plus faibles du monde.

Cette production remarquablement décarbonée, nous la devons à des choix de politique énergétique anciens, dictés notamment par une exigence de souveraineté énergétique. Ce sont eux qui ont doté la France d’un parc nucléaire et de barrages hydrauliques. Bas carbone et pilotables, ces infrastructures fournissent plus de 80 % de notre électricité.

Le barrage de Monteynard en Isère. David Monniaux/Wikipedia, CC BY-SA

Depuis, ces sources historiques ont été complétées par des productions éoliennes et solaires, ce qui conduit à une part de la production d’électricité d'origine renouvelable qui atteignait 28 % en 2024. Même s’il s’agit d’un excellent point de départ, ce n’est pas le point d’arrivée d’une trajectoire de politique climatique.

Une telle trajectoire doit viser à diminuer notre dépendance vis-à-vis des ressources fossiles. Elles représentent aujourd’hui 58 % de notre consommation d’énergie finale et nous coûtent chaque année en moyenne environ 60 milliards d’euros.


À lire aussi : Climat : le casse-tête de la « stratégie nationale bas carbone »


Électrification et défossilisation, un défi à court terme

Nous consommons du pétrole, du gaz et du charbon pour les transports, le chauffage et l’industrie. Il faut bien comprendre qu’il n’est pas possible, même en diminuant notre consommation totale, de remplacer complètement et à court terme ces sources, même si on peut espérer y substituer – en partie – des combustibles alternatifs renouvelables (en grande partie issus de la biomasse : bois, biogaz, biocarburants…), comme le soulignait un autre avis de l’Académie des sciences en janvier 2024.

Dans ces conditions, la seule issue réside dans l’électrification de plusieurs secteurs. D’abord celui des transports, au travers des véhicules électriques, mais également de l’habitat, en déployant davantage de pompes à chaleur, et enfin dans l’industrie, en y développant l’hydrogène vert et l’acier vert et les fours électriques. Ceci constitue donc aujourd’hui un axe clé de toute politique énergétique, en France, en Europe et dans le monde.

En parallèle, il est nécessaire de développer les politiques de sobriété énergétique. Il s’agit d’optimiser les dépenses énergétiques industrielles, les rendements des convertisseurs d’énergie, d’améliorer l’isolation des bâtiments et d’alléger les transports au sol et aériens. C’est ce double effort de sobriété énergétique et d’électrification de notre économie qui nous permettra de remplir nos objectifs de sortie progressive des énergies fossiles.

Évidemment, une telle augmentation à venir de la consommation électrique, tant absolue que relative, doit être assurée par augmentation de la production d’électricité, toujours bas carbone. Mais il y a quelques règles à respecter de façon rigoureuse.

La plus importante sans doute est que, dans un monde sans capacités de stockage d’électricité à grande échelle, comme c’est le cas aujourd’hui, il faut disposer d’un socle significatif de capacités de production à la fois pilotables (dont le niveau de production peut être modulé en fonction de la demande) et dotées de mécanismes d’inertie suffisants(fournis par des volants d'inertie, qui aident à stabiliser le réseau après une interruption de la production. Cela tient à la capacité des rotors à continuer pendant un certain temps à tourner à la bonne fréquence et à convertir l'énergie cinétique de rotation en électricité.)

Aujourd’hui, ces mécanismes permettent le meilleur contrôle de la fréquence des réseaux électriques, en particulier en sortie de centrales thermiques et nucléaires.

Il faut donc limiter la part des sources d’énergie intermittentes, sous peine d’instabilités. Ou en tout cas, ne l'accroître qu’à un rythme permettant le développement de moyens de stockage électrique en complément, pour que ces ressources soient pilotables et sûres pour la stabilité du réseau électrique.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


En 2021, une étude conjointe de RTE et de l’AIE identifiait les conditions permettant d’intégrer davantage de sources d’énergies intermittentes au mix électrique : la disponibilité de capacités pilotables pour assurer à tout moment une puissance au moins égale à la puissance demandées (éventuellement à l'aide de réserves opérationnelles), le renforcement des réseaux électriques et enfin la disponibilité de capacités de stockage à toutes les échelles de temps. Aujourd’hui, aucune n’est satisfaite.

Dans ce contexte, une course non maîtrisée à l’installation de capacités intermittentes pourrait conduire à des difficultés croissantes de contrôle de la stabilité du système électrique.


À lire aussi : Blackout dans le sud de l’Europe : une instabilité rare du réseau électrique


Les problèmes pointés par l’Académie des sciences

Dans son avis sur le texte final de programmation pluriannuelle de l’énergie (PPE), proposé par le gouvernement en mars 2025, l’Académie des sciences a donc sonné l’alerte. D’une certaine façon, elle rejoint l’avis public du haut-commissaire à l’énergie atomique, rendu public un mois plus tôt.

Si l’Académie se félicite de voir enfin disparaître de la politique énergétique française la perspective de la fermeture de réacteurs nucléaires en parfait état de fonctionnement, elle s’étonne de voir, pour l’horizon 2035, une addition massive de production électrique – de l’ordre de 200 TWh – à une production qui atteint déjà 540 TWh.

Le premier problème, c’est que cet objectif de production s’appuie sur une hypothèse d’augmentation équivalente de la consommation électrique.

Or, cette hypothèse ne prend pas en compte le fait bien établi, comme le montre le graphe ci-dessous, que, contrairement aux espoirs d’électrification de la société, la consommation électrique de la France diminue globalement depuis 2017. La tendance est la même dans les autres grands pays européens. Cette consommation atteignait 449 TWh en 2024, et rien n’indique un renversement fulgurant à venir de cette tendance pour les prochaines années.

Évolution de la consommation électrique en France. RTE, Fourni par l'auteur

Cette baisse de la consommation tient à plusieurs facteurs :

  • le premier est l’effort de sobriété que s’imposent les ménages et les secteurs industriels, confrontés à un prix de l’électricité excessif ;

  • le deuxième est lié à un retour de la désindustrialisation, qui conduit à une baisse de la consommation d'électricité de l'industrie ;

  • le troisième tient à la difficulté, économique mais aussi technologique, que pose l’électrification des usages. Le déploiement des voitures électriques ne progresse que lentement, l’hydrogène issu de l’électrolyse de l’eau est toujours trop inefficace en termes de rendements et trop cher, les e-carburants ne sont pas accessibles à des coûts raisonnables, le secteur sidérurgique est en grande difficulté et a mis en pause les projets de production d’acier vert (produit par hydrogénation ou électrolyse des oxydes de fer)…

Si une certaine surcapacité a des vertus, notamment car elle permet d’exporter de l’électricité – comme nous l’avons fait à hauteur de 100 TWh en 2024 pour une facture de 5 milliards d’euros, rien ne justifie d’aller beaucoup plus loin. Une surcapacité excessive conduirait par ailleurs à une gestion plus contrainte de l’équilibre entre l’offre et la demande. De plus, une telle sous-utilisation des équipements contribuerait à augmenter les coûts de production au kWh.

L’Académie des sciences soulève dans son avis un second problème posé par le texte de la PPE3. Celui-ci tient au fait que l’énergie additionnelle visée à l’horizon 2035 sera exclusivement fournie par des énergies renouvelables variables et non pilotables : l’éolien pour une centaine de TWh et le solaire pour une centaine de TWh également.

On comprend bien que l’enjeu est de permettre à la France de montrer à la Commission européenne qu’elle respecte les engagements communs de construire un système électrique reposant à 42,5 % sur des énergies renouvelables.

Mais atteindre un tel niveau sous des délais si courts aura plusieurs conséquences délétères.

  • Tout d’abord, une volatilité accrue des prix de l’électricité, avec des périodes de plus en plus fréquentes de prix très élevés – ou à l'inverse, de prix négatifs. Cette dernière situation survient, sur les marchés de gros, lorsque l'offre excède la demande dans des proportions trop importantes, ce qui oblige les producteurs à payer pour que leur électricité soit consommée, souvent pour éviter d'arrêter et de redémarrer des centrales, une procédure complexe et coûteuse.

  • La nécessité, pour assurer l’équilibre entre offre et demande, d’une modulation excessive de la production nucléaire. Ceci entraînera des contraintes sur la gestion du parc électronucléaire et un sous-emploi de ce parc, ce qui est coûteux au plan économique et induit des risques de dégradation des réacteurs.

  • Enfin, cela entraînera des tensions sur les réseaux électriques, qu’il faudra adapter. La variabilité de la production d'ENR est source d'incertitudes quant aux adaptations à mettre en place. Ceci ajoutera des coûts supplémentaires considérables au fonctionnement du système énergétique.

Ne pas « mettre la charrue avant les bœufs »

Construire une politique énergétique rationnelle nécessite une réflexion à long terme qui doit intégrer non seulement la production d’électricité mais également son stockage, son transport, sa distribution et sa consommation pour les différents usages.

Une telle politique doit donc, pour éviter des surproductions excessives très coûteuses, mieux estimer les besoins réels des consommateurs et les contraintes nouvelles en termes de réseaux et de stockage électriques. Ceci doit passer par des évaluations rigoureuses.

Pour cela, elle doit également mieux prendre en compte les difficultés objectives de l’électrification de la société et admettre la nécessité de mener des recherches pour la réussir, sans se voiler la face sur les échelles de temps nécessaires.

Il importe de ne pas « mettre la charrue avant les bœufs ». Assurons-nous d’abord de la pérennité de notre parc électronucléaire, qui est à la fois décarboné et pilotable. Et ne développons les énergies renouvelables (qui peuvent être, en effet, déployées plus rapidement) qu’à la mesure des besoins réels de consommation, au rythme de notre capacité à moderniser le réseau électrique pour en assurer la stabilité et à assurer l’équilibre entre sources variables et sources pilotables. Ceci devra d’ailleurs être complété par des capacités de stockage qui restent à développer.


Le colloque « Les grands enjeux de l'énergie », co-organisé par l'Académie des sciences et l'Académie des technologies, se tiendra les 20 et 21 juin 2025 en partenariat avec The Conversation et Le Point. Inscription gratuite en ligne.

The Conversation

Marc Fontecave est membre du comité de prospective en énergie de l'Académie des sciences. Il est également l'auteur de l'avis de l'Académie des sciences sur la PPE3.

Yves Brechet est membre du comité de prospective en énergie de l'Académie des sciences.

PDF
50 / 50
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Lava
La revue des médias
Le Grand Continent
Le Monde Diplo
Le Nouvel Obs
Lundi Matin
Mouais
Multitudes
Politis
Regards
Smolny
Socialter
The Conversation
UPMagazine
Usbek & Rica
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
Contretemps
A Contretemps
Alter-éditions
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
Philo Mag
Terrestres
Vie des Idées
 
  ARTS
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
 
Fiabilité 3/5
Slate
Ulyces
 
Fiabilité 1/5
Contre-Attaque
Issues
Korii
Positivr
Regain
🌓