03.06.2025 à 12:44
Kevin Parthenay, Professeur des Universités en science politique, membre de l'Institut Universitaire de France (IUF), Université de Tours
Rafael Mesquita, Professeur Associé à l’Université Fédérale du Pernambuco, Brésil
À la veille de la 3e Conférence des Nations unies sur les océans (Unoc 3), où en est la gouvernance marine ? Se pencher sur l’histoire de la diplomatie des océans permet de mieux comprendre la nature des enjeux actuels : Nice doit être l’occasion de consolider un nouveau droit international des océans.
Le 9 juin 2025, la Conférence des Nations unies sur les océans (Unoc) s’ouvrira à Nice (Alpes-Maritimes). Il s’agit de la troisième conférence du nom, après celle de New York en 2017 puis de Lisbonne en 2022. Organisée conjointement par la France et par le Costa Rica, elle rassemblera 150 États et près de 30 000 personnes autour de la « gestion durable de l’océan ».
Ce qui est présenté comme un moment fort pour les océans s’inscrit en réalité dans un changement de dynamique profond de la gouvernance marine, qui a été lancé il y a déjà plusieurs décennies. Jadis pensée pour protéger les intérêts marins des États, la gouvernance des océans doit désormais tenir compte des enjeux climatiques et environnementaux des océans.
Ce « moment politique » et médiatique ne devra ni occulter ni se substituer à la véritable urgence, qui est d’aboutir à des évolutions du droit international qui s’applique aux océans. Sans quoi, le sommet risque de n’être qu’un nouveau théâtre de belles déclarations vaines.
Pour comprendre ce qui se joue, il convient de débuter par une courte rétrospective historique de la gouvernance marine.
La gouvernance des océans a radicalement changé au cours des dernières décennies. Auparavant centrée sur les intérêts des États et reposant sur un droit international consolidé dans les années 1980, elle a évolué, depuis la fin de la guerre froide, vers une approche multilatérale qui mêle un large spectre d’acteurs (organisations internationales, ONG, entreprises, etc.).
Cette gouvernance est progressivement passée d’un système d’obligations concernant les différents espaces marins et leur régime de souveraineté associé (mers territoriales, zones économiques exclusives (ZEE) ou encore haute mer) à un système prenant en compte la « santé des océans », où il s’agit de les gérer dans une optique de développement durable.
Pour mieux comprendre ce qui se joue à Nice, il faut comprendre comment s’est opérée cette bascule. Les années 1990 ont été le théâtre de nombreuses déclarations, sommets et autres objectifs globaux. Leur efficacité, comme on le verra plus bas, s’est toutefois montrée limitée. Ceci explique pourquoi on observe aujourd’hui un retour vers une approche davantage fondée sur le droit international, comme en témoignent par exemple les négociations autour du traité international sur la pollution du plastique.
À lire aussi : Traité mondial contre la pollution plastique : en coulisses, le regard des scientifiques français présents
L’émergence du droit de la mer remonte à la Conférence de La Haye en 1930. Aujourd’hui, c’est essentiellement autour de la Convention des Nations unies sur le droit de la mer (CNUDM) de 1982 que la gouvernance marine s’est progressivement structurée.
L’Unoc 3 en est le prolongement direct. En effet, les réflexions sur la gestion durable des océans découlent des limites de ce texte fondateur, souvent présenté comme la « Constitution des mers ».
Adoptée en décembre 1982 lors de la Convention de Montego Bay (Jamaïque), la CNUDM est entrée en vigueur en novembre 1994, à l’issue d’un long processus de négociations internationales qui a permis à 60 États de ratifier le texte. Les discussions portaient au départ sur les intérêts des pays en développement, en particulier des pays côtiers, dans un contexte de crise du multilatéralisme, une dimension que les États-Unis sont parvenus à infléchir, et cela sans avoir jamais ratifié la Convention. Celle-ci constitue depuis un pilier central de la gouvernance marine.
Elle a créé des institutions nouvelles, comme l’Autorité des fonds marins (International Seabed Authority), dont le rôle est d’encadrer l’exploitation des ressources minérales des fonds marins dans les zones au-delà des juridictions nationales. La CNUDM est à l’origine de la quasi-totalité de la jurisprudence internationale sur la question.
Elle a délimité les espaces maritimes et encadré leur exploitation, mais de nouveaux enjeux sont rapidement apparus. D’abord du fait des onze années de latence entre son adoption et sa mise en œuvre, délai qui a eu pour effet de vider la Convention de beaucoup de sa substance. L’obsolescence du texte tient également aux nouveaux enjeux liés à l’usage des mers, en particulier les progrès technologiques liés à la pêche et à l’exploitation des fonds marins.
Le début des années 1990 a marqué un tournant dans l’ordre juridique maritime traditionnel. La gestion des mers et des océans a pu être inscrite dans une perspective environnementale, sous l’impulsion de grandes conférences et déclarations internationale telles que la déclaration de Rio (1992), la Déclaration du millénaire (2005) et le Sommet Rio+20 (2012). Il en a résulté l’Agenda 2030 et les Objectifs du développement durable (ODD), 17 objectifs visant à protéger la planète (l’objectif 14 concerne directement l’océan) et la population mondiale à l’horizon 2030.
À lire aussi : Un pacte mondial pour l’environnement, pour quoi faire ?
La Conférence des Nations unies sur l’environnement et le développement (CNUED) à Rio de Janeiro (Brésil) en 1992 a inauguré l’ère du « développement durable ». Elle a permis de faire le lien entre les questions environnementales et maritimes, notamment grâce aux découvertes scientifiques réalisées dans la décennie précédente.
Entre 2008 et 2015, les questions environnementales ont pris une place plus importante, avec l’adoption régulière de résolutions portant l’environnement et sur le climat.
Depuis 2015, deux thèmes sont devenus récurrents dans l’agenda international : la biodiversité et l’utilisation durable des océans (ODD 14). Dans ce contexte, les enjeux liés aux océans intègrent désormais leur acidification, la pollution plastique et le déclin de la biodiversité marine.
La résolution de l’Assemblée générale des Nations unies sur les océans et le droit de la mer (Oceans and the Law of the Seas, OLOS) est particulièrement utile pour comprendre cette évolution. Rédigée chaque année depuis 1984, elle couvre tous les aspects du régime maritime des Nations unies et permet de refléter les nouveaux enjeux et préoccupations.
Certains termes environnementaux étaient au départ absents du texte, mais sont devenus plus visibles depuis les années 2000.
Mais cette évolution se reflète aussi dans le choix des mots.
Tandis que les résolutions OLOS des années 1984 à 1995 étaient surtout orientées vers la mise en œuvre du traité et l’exploitation économique des ressources marines, celles des années plus récentes se caractérisent par l’usage de termes liés à la durabilité, aux écosystèmes et aux enjeux maritimes.
La prise de conscience des enjeux liés aux océans et de leur lien avec le climat a progressivement fait des océans une « dernière frontière » (final frontier) planétaire en termes de connaissances.
La nature des acteurs impliqués dans les questions océaniques a également changé. D’un monopole détenu par le droit international et par les praticiens du droit, l’extension de l’agenda océanique a bénéficié d’une orientation plus « environnementaliste » portée par les communautés scientifiques et les ONG écologistes.
L’efficacité de la gouvernance marine, jusqu’ici surtout fondée sur des mesures déclaratives non contraignantes (à l’image des ODD), reste toutefois limitée. Aujourd’hui semble ainsi s’être amorcé un nouveau cycle de consolidation juridique vers un « nouveau droit des océans ».
Son enjeu est de compléter le droit international de la mer à travers, par exemple :
l’adoption de l’accord sur la conservation et sur l’usage de la biodiversité marine au-delà des juridictions nationales (mieux connu sous le nom d’accord BBNJ) visant à protéger les ressources marines dans la haute mer ;
la négociation d’un traité sur la pollution (marine) par les plastiques, en chantier, qui n’est pas encore achevée ;
l’accord sur la subvention des pêches adopté à l’OMC pour préserver les stocks de poissons (mais qui peine encore à être pleinement respecté) ;
ou encore l’adoption d’un Code minier par l’Autorité des fonds marins, destiné à encadrer l’exploitation minière des fonds marins.
Parmi ces accords, le BBNJ constitue probablement le plus ambitieux. Le processus de négociation, qui a débuté de manière informelle en 2004, visait à combler les lacunes de la CNUDM et à le compléter par un instrument sur la biodiversité marine en haute mer (c’est-à-dire, dans les zones situées au-delà des juridictions nationales).
L’accord fait écho à deux préoccupations majeures pour les États : la souveraineté et la répartition équitable des ressources.
Adopté en 2023, cet accord historique doit encore être ratifié par la plupart des États. À ce jour, seuls 29 États ont ratifié ce traité (dont la France, en février 2025, ndlr) alors que 60 sont nécessaires pour son entrée en vigueur.
Le processus BBNJ se situe donc à la croisée des chemins. Par conséquent, la priorité aujourd’hui n’est pas de prendre de nouveaux engagements ou de perdre du temps dans des déclarations alambiquées de haut niveau.
La quête effrénée de minéraux critiques, dans le contexte de la rivalité sino-américaine, a par exemple encouragé Donald Trump à signer en avril 2025 un décret présidentiel permettant l’exploitation minière du sol marin. Or, cette décision défie les règles établies par l’Autorité des fonds marins sur ces ressources en haute mer.
À l’heure où l’unilatéralisme des États-Unis mène une politique du fait accompli, cette troisième Conférence mondiale sur les océans (Unoc 3) doit surtout consolider les obligations existantes concernant la protection et la durabilité des océans, dans le cadre du multilatéralisme.
Kevin Parthenay est membre de l'Institut Universitaire de France (IUF).
Rafael Mesquita ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
03.06.2025 à 11:14
Mickael Naassila, Professeur de physiologie, Directeur du Groupe de Recherche sur l'Alcool & les Pharmacodépendances GRAP - INSERM UMR 1247, Université de Picardie Jules Verne (UPJV)
Une étude prétend que consommer du champagne ou encore utiliser son ordinateur réduirait le risque d’arrêt cardiaque soudain. Mais elle présente des biais méthodologiques majeurs ! Ses soi-disant résultats ne doivent donc pas être pris en compte.
Il y a des études scientifiques qui font sourire, d’autres qui interrogent, et certaines qui, bien qu’habillées du vernis de la rigueur, diffusent des conclusions aussi fragiles que les bulles d’un verre de champagne.
C’est le cas d’un article récemment publié dans le Canadian Journal of Cardiology qui conclut, entre autres, que la consommation de champagne et/ou de vin blanc pourrait protéger contre l’arrêt cardiaque soudain.
Ce n’est pas une blague, c’est le résultat d’une étude sérieuse… du moins en apparence.
À lire aussi : Le « French paradox » démonté : non, une consommation modérée d’alcool n’a pas d’effet protecteur
L’étude, conduite par une équipe chinoise, repose sur l’analyse des données de la UK Biobank, une vaste base d’information médicale et comportementale rassemblée auprès de plus de 500 000 volontaires britanniques).
Les chercheurs ont sélectionné 125 « facteurs de risque modifiables » (comme la consommation d’alcool, le temps passé sur l’ordinateur ou les sentiments d’irritabilité) et ont évalué leur lien avec la survenue d’un arrêt cardiaque soudain, sur une période de près de quatorze ans.
Pourquoi 125 ? Pourquoi pas 300 ? Ou 28 859, qui correspond au nombre initial de variables ? On ne saura jamais. Ce choix arbitraire, filtré par des critères aussi opaques qu’un vin trop vieux, a permis de faire ressortir que les buveurs de champagne ou de vin blanc et les amateurs d’ordinateurs seraient mieux protégés des arrêts cardiaques.
Le tout repose sur une approche dite exposomique, qui vise à explorer sans a priori un grand nombre de facteurs environnementaux et comportementaux.
À lire aussi : « L’envers des mots » : Exposome
Pour aller plus loin, les auteurs ont utilisé une méthode sophistiquée – la randomisation mendélienne –, censée permettre d’inférer un lien de causalité entre certains comportements et les arrêts cardiaques.
Le résultat : 56 facteurs seraient associés au risque d’arrêt cardiaque, dont 9 considérés comme causaux. Parmi les facteurs mis en avant comme protecteurs : la consommation de champagne ou de vin blanc, la consommation de fruits secs, ou encore le temps passé sur un ordinateur.
Au passage, six autres facteurs sont présentés comme ayant un lien délétère : le sentiment de ras-le-bol, la quantité et le taux élevés de masse grasse mesurés au bras, l’indice de masse corporelle (IMC), la pression artérielle systolique et un niveau d’éducation inférieur.
La randomisation mendélienne est une méthode puissante, souvent présentée comme un « essai clinique naturel » fondé sur la génétique. L’idée est la suivante : certaines variantes génétiques influencent nos comportements ou traits biologiques (comme l’indice de masse corporelle) et, en les étudiant, on peut tenter d’estimer l’effet causal de ces comportements sur la santé, sans les biais habituels des études observationnelles.
À lire aussi : Voici comment les lois de la génétique nous aident à prévenir les maladies chroniques
Mais cette méthode repose sur trois hypothèses très fortes, qui doivent être absolument vérifiées pour pouvoir conclure :
Les gènes choisis doivent être fortement liés au comportement étudié (ex. : boire du champagne).
Ils ne doivent pas être associés à d’autres facteurs (pas de « confusion »). Or, il est peu probable que les buveurs de champagne aient exactement les mêmes conditions de vie que les autres.
Ils doivent influencer l’arrêt cardiaque seulement via la consommation de champagne, et non par d’autres biais sociétaux ou comportementaux (pléiotropie horizontale).
Chaque mardi, le plein d’infos santé : nutrition, bien-être, nouveaux traitements… Abonnez-vous gratuitement dès aujourd’hui.
Une étude récente réalisée par la Société française d’alcoologie a, par exemple, montré que la consommation d’alcool a un lien causal démontré par la randomisation mendélienne sur de nombreuses pathologies : les cancers de la cavité buccale, de l’oropharynx, de l’œsophage, le cancer colorectal, le carcinome hépatocellulaire et le mélanome cutané, ainsi que sur les maladies cardiovasculaires telles que l’hypertension, la fibrillation atriale (un trouble du rythme cardiaque qui accélère le cœur et le fait battre de manière irrégulière), l’infarctus du myocarde et les maladies vasculaires.
Dans l’étude publiée dans le Canadian Journal of Cardiology, plusieurs de ces hypothèses sont probablement faussées. Par exemple, les gènes supposés influencer la consommation de champagne ou de vin blanc pourraient tout aussi bien refléter un statut socio-économique élevé ou des préférences culturelles qui, eux-mêmes, sont liés au risque de maladies cardiovasculaires. C’est ce qu’on appelle la pléiotropie, un biais bien connu en génétique, (également évoqué plus haut dans l’article, ndlr).
L’étude repose en grande partie sur des données autodéclarées (consommation d’alcool, sentiments de ras-le-bol, usage de l’ordinateur), ce qui apporte un niveau de subjectivité supplémentaire. À cela s’ajoute une absence totale de prise en compte des changements dans le temps : boire du champagne à 55 ans n’implique pas qu’on en boira encore à 68, l’âge moyen des arrêts cardiaques dans cette cohorte.
Les résultats montrent un effet protecteur du champagne et de l’ordinateur. Sauf que… surprise ! Les méthodes de sensibilité, qui permettent de juger de la robustesse des résultats (randomisation mendélienne et médiane pondérée), ne trouvent souvent aucune significativité, voire un effet inversé.
La robustesse des résultats étant remise en cause, la prudence doit être de mise. Car les conclusions ne tiennent plus debout quand on change un peu les calculs et les hypothèses de départ. Cela révèle ainsi que ces résultats peuvent être influencés par des biais ou par des incertitudes cachées.
Le plus spectaculaire dans l’étude, ce n’est pas tant le champagne que les chiffres avancés : selon les auteurs, jusqu’à 63 % des arrêts cardiaques pourraient être évités si les facteurs de risque étaient corrigés. Ce chiffre impressionnant repose sur un calcul appelé « fraction de risque attribuable », qui suppose que l’on peut modifier les comportements sans que cela ne change rien d’autre dans la vie des personnes. Une hypothèse très contestable : améliorer son alimentation modifie aussi souvent le poids, le sommeil ou l’humeur.
Plus grave encore : seuls 9 des 56 facteurs identifiés seraient réellement causaux, selon les auteurs eux-mêmes. En d’autres termes, un lien de cause à effet ne serait avéré que pour 9 facteurs sur 56. Il est donc méthodologiquement incohérent de calculer une fraction de risque globale sur la base de données aussi incertaines.
Le problème ici n’est pas l’utilisation des données massives ni des outils statistiques modernes. C’est la surinterprétation des résultats, l’usage approximatif des méthodes et la communication d’un message qui frôle le sensationnalisme scientifique.
En faisant croire qu’un verre de champagne ou quelques heures d’écran pourraient sauver des vies, on détourne l’attention des véritables leviers de prévention : l’arrêt du tabac, la réduction de l’hypertension, la lutte contre les inégalités sociales et l’accès aux soins.
Le risque est de promouvoir une vision naïve de la prévention centrée sur des comportements individuels anodins, au détriment des politiques de santé publique ambitieuses.
Il est essentiel de rester critique face aux résultats trop beaux pour être vrais, surtout lorsqu’ils concernent des sujets graves comme l’arrêt cardiaque. La recherche épidémiologique a tout à gagner à la transparence méthodologique, à la prudence dans les interprétations, et à l’humilité dans la communication des résultats.
À lire aussi : Comprendre l’épidémiologie
Le champagne et le vin blanc ne sont pas des médicaments. Et une étude, même statistiquement sophistiquée, ne vaut que par la solidité de ses hypothèses.
Si vous voulez vraiment réduire votre risque cardiovasculaire, préférez une marche quotidienne à un verre de bulles, même si c’est moins festif.
Mickael Naassila est Président de la Société Française d'Alcoologie (SFA) et de la Société Européenne de Recherche Biomédicale sur l'Alcoolisme (ESBRA); Vice-président de la Fédération Française d'Addictologie (FFA) et vice-président junior de la Société Internationale de recherche Biomédicale sur l''Alcoolisme (ISBRA). Il est membre de l'institut de Psychiatrie, co-responsable du GDR de Psychiatrie-Addictions et responsable du Réseau National de Recherche en Alcoologie REUNRA et due projet AlcoolConsoScience
03.06.2025 à 11:14
Simone Burin-Chu, Enseignante-chercheuse contractuelle, Université d'Artois
Farole Bossede, Enseignante chercheure contractuelle, Université d'Artois
Appli, jeux vidéo actifs, montres intelligentes, plateformes… les outils numériques consacrés à l’activité physique ont-ils fait leurs preuves pour nous motiver à bouger davantage ? Et conviennent-ils à tous les publics, depuis les enfants jusqu’aux personnes âgées ? On fait le point.
L’activité physique est largement reconnue comme bénéfique pour la santé. À l’inverse, l’inactivité physique représente un facteur de risque majeur pour le développement de maladies non transmissibles. Face à ce constat, l’Organisation mondiale de la santé (OMS) a établi des recommandations.
Les adultes devraient pratiquer entre 150 et 300 minutes d’exercice aérobie d’intensité modérée (comme la marche rapide), ou entre 75 et 150 minutes d’activité soutenue par semaine. Pour les personnes âgées, ces recommandations incluent également des exercices d’équilibre tandis que, pour les enfants, 60 minutes d’activité physique quotidienne sont préconisées. Pourtant, une grande partie de la population ne parvient pas à atteindre ces niveaux de pratique.
À lire aussi : Activité physique et santé : aménager nos espaces de vie pour contrer notre tendance au moindre effort
Les outils numériques semblent constituer un levier prometteur pour l’adoption d’un mode de vie plus actif. Mais quels sont ces outils, et dans quelle mesure permettent-ils d’encourager la pratique d’une activité physique ?
Peuvent-ils constituer un moyen efficace d’engagement et de motivation, ou se heurtent-ils à des limites en termes d’accessibilité, d’usabilité ou de durabilité de leurs effets ?
L’engagement reflète l’implication d’un individu dans un domaine, tandis que la motivation est l’énergie qui le pousse à agir, qu’elle soit intrinsèque (plaisir personnel, bien-être) ou extrinsèque (influencée par des récompenses).
Dans le domaine des activités physiques et sportives, des études montrent que la motivation impacte les émotions, la vitalité et les performances des pratiquants. Celle-ci constitue un facteur clé de réussite, en lien avec la théorie de l’autodétermination, qui repose sur trois besoins psychologiques fondamentaux : l’autonomie, le lien social et le sentiment de compétence.
Engagement et motivation sont donc essentiels pour maintenir une pratique régulière et dépendent d’un ensemble de facteurs psychologiques, sociaux et environnementaux. À long terme, un mode de vie actif repose sur l’adoption de stratégies adaptées qui tiennent compte de ces différents déterminants.
Les outils numériques ont profondément transformé notre quotidien. Appliqués à l’activité physique, ils présentent plusieurs avantages, tels que la mesure et l’enregistrement des performances, le suivi des progrès, le partage des données avec d’autres pratiquants ou encore la gamification, c’est-à-dire l’intégration d’éléments de jeu à des contextes non ludiques, ce qui rend la pratique plus attractive.
Les objets connectés, notamment les montres intelligentes, développées par des marques comme Fitbit, Apple ou Garmin, sont de plus en plus populaires parmi les pratiquants.
Chaque mardi, le plein d’infos santé : nutrition, bien-être, nouveaux traitements… Abonnez-vous gratuitement dès aujourd’hui.
Ces dispositifs permettent de mesurer le nombre de pas, la fréquence cardiaque ou les calories brûlées, tout en encourageant l’atteinte d’objectifs quotidiens. Ils offrent également une vision claire de l’évolution des performances et renforce la motivation à poursuivre l’effort.
Avec plusieurs millions de téléchargements à travers le monde, les applications mobiles consacrées à l’activité physique sont devenues des outils incontournables pour encourager une pratique régulière.
Des plateformes telles que Strava, Fitbit, Nike Training Club ou MyFitness, proposent des programmes personnalisés adaptés aux objectifs des utilisateurs, qu’il s’agisse de perte de poids, de gain musculaire ou d’amélioration de l’endurance.
Certaines de ces applications incluent des fonctionnalités de suivi des progrès, des défis entre pratiquants et des rappels pour maintenir la régularité de la pratique. Ce type de gamification transforme l’effort physique en un défi motivant, tout en générant un sentiment d’accomplissement.
Les jeux vidéo actifs, ou exergames, s’avèrent particulièrement pertinents pour les enfants et les adolescents, en combinant exercice physique et jeu vidéo. Qu’il s’agisse d’exercices aérobiques, de renforcement ou d’équilibre, les consoles, comme la Nintendo Wii ou Switch, mais aussi la Xbox et la PlayStation, encouragent le mouvement de façon ludique.
Ces technologies sollicitent également certaines fonctions cognitives (attention, contrôle exécutif), ce qui peut présenter un intérêt chez les personnes âgées.
À lire aussi : Pour booster son cerveau, quelles activités physiques privilégier après 60 ans ?
Quant à la pratique de l’activité physique par le biais de visioconférences, elle a connu son essor durant la crise sanitaire, et est restée largement utilisée après la fin du confinement.
Ce mode d’entraînement à distance, accessible via des plateformes, comme Zoom, Teams ou Google Meet, permet de lever certains freins à la pratique, notamment chez les individus vivant dans zones géographiques éloignées ou confrontées à des limitations physiques, liées à l’âge ou à une pathologie, qui restreignent leurs déplacements.
Si ces outils ouvrent de nouvelles perspectives, notamment pour les groupes vulnérables, ils peuvent aussi présenter des limites, comme le renforcement de l’isolement, en remplaçant les activités de groupe par des pratiques individuelles.
Les enjeux financiers représentent également une barrière. Les outils plus performants étant souvent coûteux, ils risquent d’accentuer les inégalités d’accès. L’ergonomie peut aussi poser des freins, notamment pour les personnes âgées ou en situation de handicap, si les interfaces ne sont pas suffisamment adaptées.
Une complexité excessive peut en fait décourager les débutants et limiter l’adoption de ces outils par certaines populations. Et il reste à déterminer si les comportements peuvent vraiment être impactés par leur utilisation.
Le changement de comportement en matière d’activité physique désigne un processus graduel par lequel une personne modifie ses habitudes pour adopter une pratique régulière. Selon le modèle dit transthéorique du changement (développé par Prochaska et Di Clemente), outre la motivation et l’engagement, le soutien social et l’accessibilité représentent également des facteurs clés.
Une étude a montré que les applications pour l’activité physique intègrent des techniques de changement de comportement, telles que des instructions pour la réalisation des exercices, la fixation d’objectifs, la planification du soutien ou du changement social, ainsi que le feedback sur les performances. Ces outils semblent avoir des effets plus intéressants chez les néo-pratiquants, en augmentant leur motivation à débuter la pratique.
Concernant les preuves scientifiques relatives aux effets de ces technologies, une méta-analyse a révélé des augmentations significatives du niveau d’activité physique chez les participants soumis à des interventions basées sur des applications pour smartphones, par rapport aux groupes contrôles bénéficiant des séances classiques.
Ces résultats encourageants ont également été observés dans un essai contrôlé randomisé, où les applications mobiles ont considérablement augmenté le nombre moyen de pas quotidiens. En revanche, ces effets n’ont été étudiés que sur le court terme. Cette limite fréquemment relevée dans la littérature scientifique empêche d’évaluer pleinement leur potentiel à générer des changements de comportement durables. Par ailleurs, certaines recherches s’appuient sur des échantillons de petite taille, ce qui restreint la généralisation des résultats.
Si ces technologies suscitent un intérêt croissant – en grande partie grâce à leurs fonctionnalités et leur dimension ludique –, elles présentent à la fois des avantages et des limites, sur le plan pratique comme sur le plan scientifique.
Néanmoins, dans un contexte où l’inactivité physique atteint des niveaux préoccupants, toute solution susceptible de favoriser l’activité physique mérite une attention particulière.
À ce stade des connaissances, il apparaît pertinent de considérer ces outils numériques comme des moyens complémentaires pouvant contribuer à l’adoption d’un mode de vie plus actif.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
03.06.2025 à 08:20
Service Environnement, The Conversation France
La réglementation française a évolué concernant la réutilisation des eaux de pluie et des eaux grises à des fins d’usage non potable, domestique et non domestique. L’enjeu de ces textes, nous expliquent Julie Mendret (université de Montpellier) et Thomas Harmand (Aix-Marseille Université) : valoriser ces eaux « non conventionnelles » pour économiser et limiter la pression sur les ressources en eau.
L’eau de pluie est précieuse, tant au plan écologique qu’économique : jardins, chasses d’eau, lavage des voitures… Jusqu’à peu, leur réutilisation était strictement encadrée par un arrêté de 2008, qui n’autorisait leur usage que dans plusieurs cas très précis (évacuation des excrétas, lavage des sols ou encore arrosage des espaces verts à certaines conditions).
Ce cadre juridique a évolué en 2023 et 2024 : les usages non domestiques de l’eau de pluie sont désormais autorisés, et un nouveau cadre réglementaire s’applique à ses usages domestiques. Par exemple, il est maintenant permis de laver son linge, d’arroser des jardins potagers ou de laver son véhicule à son domicile. Il faut toutefois en passer par une déclaration en mairie – et pour une déclaration supplémentaire au préfet pour le lavage du linge ou l’alimentation des fontaines décoratives non destinées à la consommation humaine. Dans ce cas, les eaux de pluie utilisées doivent aussi atteindre des objectifs de qualité précis.
Autre nouveauté législative : il est désormais possible d’utiliser ces eaux dans les établissements de santé, thermaux ou encore scolaires, dans les mêmes conditions de déclaration que précédemment.
Au-delà des eaux de pluie, les nouveaux textes de loi autorisent aussi la réutilisation des eaux grises (qui proviennent des éviers, lavabos, douches, baignoires et machines à laver et ne contiennent pas de matières fécales, ou encore qui proviennent des piscines à usage collectif). Les conditions sont toutefois plus strictes que pour les eaux de pluie : la procédure minimale est ici une déclaration préfectorale.
Les usages sont théoriquement plus limités : au niveau domestique, il s’agit de l’alimentation des fontaines décoratives non destinées à la consommation humaine, de l’évacuation des excrétas, du nettoyage des surfaces extérieures, ainsi que de l’arrosage des espaces verts à l’échelle du bâtiment. Le lavage du linge, le nettoyage des sols en intérieur et l’arrosage des jardins potagers font toutefois l’objet d’une procédure dérogatoire, et peuvent être autorisés à titre expérimental. L’évaluation de ces expérimentations aura lieu en 2035, et leur généralisation éventuelle sera décidée en conséquence.
Pour les établissements recevant du public sensible, la procédure est encore plus stricte pour la réutilisation des eaux grises ou de piscines, où il faut obtenir une autorisation.
Les contraintes de surveillance diffèrent également. Pour les usages soumis à des exigences de qualité, un suivi sanitaire est requis. Il est à effectuer jusqu’à six fois par an. On le devine, il sera plus difficile de mettre en œuvre ce type de valorisation dans ces établissements.
Ces textes représentent malgré tout une avancée : les sources d’eaux non conventionnelles sont désormais identifiées par la réglementation, et peuvent être intégrées à la gestion de l’eau.
Cet article a été édité par le service Environnement de The Conversation à partir de la version longue écrite par Julie Mendret (Maître de conférences, HDR, Université de Montpellier) et Thomas Harmand (Doctorant en droit de l'eau, Aix-Marseille Université).
02.06.2025 à 17:03
Adam Simpson, Senior Lecturer, International Studies, University of South Australia
Le nouveau président, un historien ouvertement nationaliste largement aligné sur Donald Trump, refuse l’entrée de l’Ukraine dans l’UE et l’OTAN, critique Bruxelles sur de nombreux dossiers et est opposé au droit à l’avortement.
C’est peu dire que le résultat du second tour de l’élection présidentielle polonaise a contrarié, en Pologne et partout ailleurs sur le Vieux continent, les tenants du camp pro-européen.
Historien de formation, Karol Nawrocki, connu pour son nationalisme intransigeant et pour son alignement sur Donald Trump, a battu de justesse le maire libéral et pro-UE de Varsovie, Rafal Trzaskowski, avec 50,89 % des suffrages contre 49,11 %.
Le président polonais a peu de pouvoirs exécutifs, mais il peut opposer son veto à l’adoption de nouvelles lois. Cela signifie que les conséquences de la victoire de Nawrocki seront ressenties avec acuité, tant en Pologne que dans le reste de l’Europe.
Nawrocki, qui s’est fait élire en tant qu’indépendant mais qui sera soutenu par le parti conservateur Droit et Justice (PiS), fera sans aucun doute tout son possible pour empêcher le premier ministre libéral Donald Tusk et la coalition formée autour du parti de celui-ci, la Plate-forme civique, de mettre son programme en œuvre.
Le blocage législatif promis à la Pologne pour les prochaines années pourrait bien voir Droit et Justice revenir au gouvernement lors des élections législatives de 2027, et remettre le pays sur la voie anti-démocratiques que le parti avait empruntée lors de son dernier passage au pouvoir, de 2015 à 2023. Durant ces huit années, le PiS avait notamment affaibli l’indépendance du pouvoir judiciaire polonais en prenant le contrôle des nominations aux plus hautes fonctions judiciaires et à la Cour suprême.
Au-delà de la Pologne elle-même, la victoire de Nawrocki a donné un coup de fouet aux forces pro-Donald Trump, antilibérales et anti-UE à travers le continent. C’est une mauvaise nouvelle pour l’UE et pour l’Ukraine.
Pendant la majeure partie de la période qui a suivi la Seconde Guerre mondiale, la Pologne n’a eu qu’une influence limitée au niveau européen. Ce n’est plus le cas aujourd’hui. L’économie polonaise est en plein essor depuis l’adhésion à l’UE en 2004. Elle consacre près de 5 % de son produit intérieur brut à la défense, soit près du double de ce qu’elle dépensait en 2022, au moment de l’invasion massive de l’Ukraine par la Russie.
La Pologne possède aujourd’hui une plus grande armée que le Royaume-Uni, que la France ou encore que l’Allemagne. Et son PIB par habitant en parité de pouvoir d’achat vient de dépasser celui du Japon.
Ajoutée au Brexit, cette progression a entraîné un déplacement du centre de gravité de l’UE vers l’est, en direction de la Pologne. Puissance militaire et économique montante de 37 millions d’habitants, la Pologne contribuera à façonner l’avenir de l’Europe.
L’influence dont la Pologne bénéficie aujourd’hui en Europe est illustrée de façon éclatante par le rôle central qui est le sien dans l’appui de l’UE à l’Ukraine contre la Russie. On l’a encore constaté lors du récent sommet de la « Coalition des volontaires » à Kiev, où Donald Tusk, aux côtés des dirigeants des principales puissances européennes – la France, l’Allemagne et le Royaume-Uni —, s’est engagé à rehausser le niveau de soutien de l’Union à l’Ukraine et à son président Volodymyr Zelensky.
Ce soutien inconditionnel de la Pologne à l’Ukraine est désormais menacé, car Nawrocki a eu des propos très durs à l’encontre des réfugiés ukrainiens arrivés dans son pays et s’oppose à l’intégration de l’Ukraine à l’UE et à l’OTAN.
Pendant sa campagne, Nawrocki a reçu le soutien de l’administration Trump. Lors de la récente Conservative Political Action Conference, tenue en Pologne, Kristi Noem, la secrétaire à la sécurité intérieure des États-Unis, a déclaré :
« Nous avons chez nous un leader fort, Donald Trump. Mais vous avez la possibilité d’avoir un leader tout aussi fort si vous faites de Karol le leader de votre pays. »
Trump a d’ailleurs accueilli Nawrocki dans le Bureau ovale alors que celui-ci n’était qu’un simple candidat à la présidence. Il s’agit là d’un écart important par rapport au protocole diplomatique standard des États-Unis, qui consiste à ne pas se mêler des élections à l’étranger.
Nawrocki n’est pas aussi favorable à la Russie que la plupart des autres dirigeants internationaux estampillés « MAGA », mais cela est dû en grande partie à la géographie de la Pologne et à l’histoire de ses relations avec la Russie. La Pologne a été envahie à plusieurs reprises par les troupes russes ou soviétiques dans ses plaines orientales. Elle a des frontières communes avec l’Ukraine ainsi qu’avec le Bélarus, État client de la Russie, et avec la Russie elle-même à travers l’enclave fortement militarisée de Kaliningrad, située sur la mer Baltique.
J’ai fait l’expérience de l’impact que peut avoir sur la Pologne la proximité de ces frontières lors d’un terrain en 2023, quand j’ai effectué un voyage en voiture de Varsovie à Vilnius, la capitale lituanienne, en passant par le corridor de Suwalki.
Cette frontière stratégiquement importante entre la Pologne et la Lituanie, longue de 100 kilomètres, relie les États baltes au reste de l’OTAN et de l’UE au sud. Elle est considérée comme un point d’ignition potentiel si la Russie venait à occuper ce corridor afin d’isoler les États baltes.
À lire aussi : Kaliningrad au cœur de la confrontation Russie-OTAN
Du fait de ce contexte géopolitique, les conservateurs nationalistes polonais sont nettement moins pro-russes que ceux de Hongrie ou de Slovaquie. Nawrocki, par exemple, n’est pas favorable à l’arrêt de l’approvisionnement en armes de l’Ukraine.
Il n’en demeure pas moins que son accession à la présidence Nawrocki ne constitue pas une bonne nouvelle pour Kiev. Pendant la campagne, Nawrocki a déclaré que Zelensky « traite mal la Pologne », reprenant ainsi le type de formules que Trump lui-même aime à employer.
L’importance de l’élection s’est traduite par un taux de participation record de près de 73 %.
L’alternative qui se présentait aux électeurs polonais entre Nawrocki et Trzaskowski était extrêmement tranchée.
Trzaskowski souhaitait une libéralisation des lois polonaises sur l’avortement – l’IVG avait de facto été interdite en Pologne sous le gouvernement du PiS – et l’introduction de partenariats civils pour les couples LGBTQ+. Nawrocki s’oppose à de telles mesures et à ces changements et mettra très probablement son veto à toute tentative de loi allant dans ce sens.
Un sondage Ipsos effectué à la sortie des urnes a mis en évidence les divisions sociales qui traversent aujourd’hui le pays.
Comme lors d’autres élections récentes dans le monde, les femmes et les personnes ayant un niveau d’éducation élevé ont majoritairement voté pour le candidat progressiste (Trzaskowski), tandis que la plupart des hommes et des personnes ayant un niveau d’éducation moins élevé ont voté pour le candidat conservateur (Nawrocki).
Après le succès surprise du candidat à la présidence libéral et pro-UE aux élections roumaines il y a quinze jours, les forces pro-UE espéraient un résultat similaire en Pologne. Ces espoirs ont été déçus : les libéraux du continent devront désormais s’engager dans une relation difficile avec ce dirigeant trumpiste de droite qui jouera un rôle majeur au sein d’un pays devenu, à bien des égards, le nouveau cœur battant de l’Europe.
Adam Simpson ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
02.06.2025 à 16:02
Ralph Hertwig, Director, Center for Adaptive Rationality, Max Planck Institute for Human Development
Stephan Lewandowsky, Chair of Cognitive Psychology, University of Bristol
La psychologie sociale explique pourquoi le risque d’effondrement démocratique n’est pas suffisamment pris au sérieux par les populations qui vivent en démocratie depuis longtemps. Quels outils mobiliser pour amener à une prise de conscience ?
La chute du mur de Berlin en 1989 a ouvert la voie à la démocratisation de nombreux pays d’Europe de l’Est et a triomphalement inauguré l’ère de la démocratie libérale mondiale que certains universitaires ont célébrée comme « la fin de l’histoire ». L’idée était que l’histoire politique de l’humanité aurait suivi une progression inéluctable, culminant avec la démocratie libérale occidentale, perçue comme le point final d’une forme sécurisée de gouvernement. Malheureusement, les événements se sont déroulés quelque peu différemment.
Les 20 dernières années n’ont pas suivi la trajectoire du progrès énoncé, encore moins marqué « la fin de l’histoire ». Le succès électoral croissant des partis d’extrême droite dans de nombreux pays occidentaux, de la France à la Finlande, des Pays-Bas à l’Allemagne, a transformé « la fin de l’histoire » en un possible écroulement de la démocratie.
Qu’est-ce qui pousse autant d’Européens à se détourner d’un système politique qui a permis de reconstruire le continent après la Seconde Guerre mondiale et de le transformer en marché unique le plus prospère au monde ?
Les raisons sont multiples : crises économiques, inégalités croissantes, impact négatif des médias sociaux sur le comportement politique, violations des normes démocratiques par les élites. Mais il existe un autre facteur qui est rarement discuté : le pouvoir de l’expérience personnelle.
Au cours des deux dernières décennies, les spécialistes du comportement ont largement exploré la manière dont nos actions sont guidées par nos expériences. La douleur, le plaisir, les récompenses, les pertes, les informations et les connaissances acquises au cours d’événements vécus nous aident à évaluer nos actions passées et à guider nos choix futurs.
Une expérience positive associée à une option donnée augmente la probabilité que celle-ci soit à nouveau choisie ; une expérience négative a l’effet inverse. Cartographier les expériences des individus – en particulier face aux risques de la vie – peut nous éclairer sur des comportements déroutants, comme le fait de construire des habitations sur des zones inondables, en région sismique ou au pied d’un volcan actif.
La dernière éruption violente du Vésuve, la « bombe à retardement » de l’Europe, date d’il y a 81 ans. Le Vésuve est considéré comme l’un des volcans les plus dangereux au monde. Pourtant, quelque 700 000 habitants vivent dans la « zone rouge » à ses pieds, semblant ignorer les avertissements alarmants des volcanologues.
Pour comprendre cette relative indifférence face à un possible Armageddon, il faut analyser l’expérience individuelle et collective face à ce risque. La plupart des habitants de la zone rouge n’ont jamais vécu personnellement l’éruption du Vésuve. Leur expérience quotidienne leur donne probablement le sentiment rassurant que « tout va bien ».
De nombreuses études psychologiques ont confirmé comment ce type de comportement peut émerger. Notre expérience tend à sous-estimer la probabilité et l’impact des événements rares pour la simple raison qu’ils sont rares.
Les crises exceptionnelles, mais dont la portée est désastreuse, en particulier sur le marché financier, ont été appelés « cygnes noirs ». Les négliger a contribué à une réglementation bancaire insuffisante et à des effondrements majeurs comme la crise financière mondiale de 2008.
Les populations d’Europe occidentale vivent dans des démocraties prospères depuis plus de 70 ans. Elles ont été épargnées, jusqu’à présent, par les prises de pouvoir autoritaires, et par ce fait, sous-estiment le risque d’un effondrement démocratique.
Paradoxalement, le succès même des systèmes démocratiques peut semer les graines de leur propre destruction. C’est un phénomène comparable au paradoxe de la prévention des maladies : lorsque les mesures préventives, comme les vaccins infantiles, sont efficaces, la perception de leur nécessité diminue, entraînant une méfiance quant à la vaccination.
Une autre connexion inquiétante existe entre l’érosion d’un système démocratique et les expériences vécues par ses citoyens. L’histoire a montré que les démocraties ne s’effondrent pas brutalement, mais périssent lentement, coup par coup, jusqu’à atteindre un point de basculement.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Le public ne perçoit généralement pas un risque pour la démocratie lorsqu’un dirigeant politique rompt avec une convention. Mais lorsque les violations répétées des normes démocratiques par les élites sont tolérées, que les transgressions rhétoriques s’intensifient, et qu’un flot de mensonges et de manipulations devient « normal », le fait que le public ne sanctionne pas ces signes précoces dans les urnes, peut avoir des conséquences dramatiques.
Tout comme une centrale nucléaire peut sembler fonctionner en toute sécurité jusqu’à ce que la dernière soupape de sécurité lâche, une démocratie peut sembler stable jusqu’à basculer dans l’autocratie.
Un moyen de contrer ces problèmes peut être de simuler l’expérience des risques, même si ce n’est que par procuration. Par exemple, les centres de formation aux catastrophes au Japon miment l’expérience d’un tremblement de terre d’une manière bien plus réaliste que toute alerte sous forme de graphiques.
Nous soutenons qu’il est aussi possible de simuler ce que l’on ressent sous un régime autoritaire. L’Europe accueille des centaines de milliers d’immigrés qui ont subi le joug des autocraties et qui peuvent être invités dans les salles de classe pour partager leur vécu. Les expériences détaillées vécues par procuration sont susceptibles de s’avérer très persuasives.
De même, est-il possible pour tout à chacun de mieux comprendre ce que signifiait être un prisonnier politique en visitant des lieux tels que l’ancienne prison de la Stasi, Hohenschönhausen à Berlin, en particulier lorsque le guide est un ancien détenu. Il existe de nombreuses autres façons de reproduire les traits caractéristiques de l’oppression et de l’autoritarisme, permettant ainsi d’informer ceux qui ont eu la chance de ne jamais les avoir endurés.
L’absence persistante d’événements à risque peut être séduisante et trompeuse. Mais nous ne sommes pas condamnés par ce que nous n’avons pas encore vécu. Nous pouvons également utiliser le pouvoir positif de ces expériences afin de protéger et d’apprécier nos systèmes démocratiques.
Ralph Hertwig remercie la Fondation Volkswagen pour son soutien financier (subvention "Récupérer l'autonomie individuelle et le discours démocratique en ligne : Comment rééquilibrer la prise de décision humaine et algorithmique") et de la Commission européenne (subvention Horizon 2020 101094752 SoMe4Dem).
Stephan Lewandowsky remercie le Conseil européen de la recherche (ERC) pour son soutien financier dans le cadre du programme de recherche et d'innovation Horizon 2020 de l'Union européenne (convention de subvention avancée n° 101020961 PRODEMINFO), la Fondation Humboldt pour une bourse de recherche, la Fondation Volkswagen (subvention ``Reclaiming individual autonomy and democratic discourse online : Comment rééquilibrer la prise de décision humaine et algorithmique"), et la Commission européenne (subventions Horizon 2020 964728 JITSUVAX et 101094752 SoMe4Dem). Il est également financé par Jigsaw (un incubateur technologique créé par Google) et par UK Research and Innovation (par l'intermédiaire du centre d'excellence REPHRAIN et de la subvention de remplacement Horizon de l'UE numéro 10049415).
02.06.2025 à 16:02
Carla Bader, Assistant Professor en Management et Stratégie, IÉSEG School of Management
Maximiliano Marzetti, Associate Professor of Law, IESEG School of Management, Univ. Lille, CNRS, UMR 9221 - LEM - Lille Économie Management, IÉSEG School of Management
Avec la réforme « Omnibus », l’Union européenne opère un retour en arrière sur le dispositif du devoir de vigilance. Pour quelles leçons de sa mise en application dans certaines entreprises françaises pionnières ? L’abrogation de la loi française 2017-339, votée à la suite du drame du Rana Plaza en 2013, obligeant les entreprises à prendre en compte les risques sociaux et environnementaux sur l’ensemble de leurs filiales, sera-t-elle envisagée ?
Le 26 février dernier, la Commission européenne présente un paquet de mesures de simplification baptisé « Omnibus ». Elles ont pour effet de reporter, voire supprimer l’application des obligations de vigilance et de reporting pour les entreprises, tout en modifiant leur champ d’application. Cette procédure Omnibus est critiquée pour son calendrier précipité, son manque de débat, l’exclusion des acteurs de la société civile… et un retour en arrière dans la création de normes sociales et environnementales.
Les lois sur le devoir de vigilance sont votées en réaction au scandale du Rana Plaza. En 2013, cet immeuble au Bangladesh abritant des ateliers de textile, sous-traitants de grandes marques comme H&M, s’effondre et entraîne la mort de plus de 1 000 salariés. La France réagit en 2017 avec une loi pionnière. La directive européenne du 13 juin 2024 étend ce concept à l’ensemble de ses États membres. Elle impose aux entreprises – d’au moins 5 000 salariés en France et de plus de 10 000 salariés dans l’Hexagone ayant leur siège social ailleurs dans le monde – de repenser leur approche des risques sociaux, environnementaux et de gouvernance.
Ce dispositif s’étend aux activités de leurs filiales et de leurs partenaires commerciaux. Une façon de responsabiliser les entreprises à tracer tous leurs sous-traitants. Pour mieux comprendre comment les entreprises françaises vivent ces évolutions, nous avons interrogé des managers de terrain dans des secteurs d’activité divers : responsables de conformité, dirigeants en responsabilité sociale et environnementale (RSE) et de contrôle qualité.
Pour les entreprises interrogées, se conformer à la loi implique des ressources importantes et des capacités organisationnelles solides. Elles attestent de la nécessité à former leurs équipes et développer des systèmes de contrôle performants. C’est pourquoi les départements de conformité jouent un rôle clé, avec divers départements tels le développement durable, les directions d’achats et les équipes de qualité.
Face à une incertitude juridique s’ajoute la complexité des chaînes d’approvisionnement mondiales ; de facto, une grande difficulté dans l’établissement des cartographies de risques. La traçabilité et la transparence deviennent difficiles à assurer, notamment au-delà du premier niveau de sous-traitance où l’identification des partenaires est beaucoup moins aisée. Un dirigeant en RSE dans une entreprise de production et distribution d’articles de sport, questionne la complexité pour connaître les impacts de ses partenaires, fournisseurs ou sous-traitants :
« Si nous sommes capables d’identifier les impacts de notre activité, il n’est pas aussi évident de le faire pour les impacts sectoriels de nos partenaires. Quelle est notre connaissance des impacts du secteur de transport, du e-commerce, des services de prestations informatiques ? »
Si certains fournisseurs sont réticents à partager les informations de leurs partenaires, l’application du devoir de vigilance est caduque pour certaines parties de la chaîne de valeur. Les entreprises n’ont pas d’autres choix que de renégocier leurs contrats avec des clauses spécifiques en matière d’éthique et de conformité ; des négociations souvent longues et potentiellement conflictuelles. Les audits environnementaux, en particulier, sont difficiles à mener en raison de réglementations différentes dans les pays comme le traitement de l’eau et la gestion des déchets par exemple :
« On peut demander des matières recyclées/recyclables à nos fournisseurs, mais comment gèrent-ils leurs déchets si au local ils ne sont pas assujettis à des exigences particulières de traitement des eaux ? », se demande un responsable conformité du secteur de la grande distribution
Pour les groupes opérant dans des secteurs d’activités très différents – tels Elo, Aedo, Engie, LVMH et d’autres –, la demande d’une cartographie unique, censée regrouper tous les risques identifiés, est souvent perçue comme ambiguë, voire inadaptée. Il leur est difficile de produire un document unique à la fois pertinent, opérationnel et fidèle à la diversité de leurs métiers et de leurs chaînes de valeur. Les managers rencontrés soulignent le caractère itératif et évolutif de ce processus, ainsi que l’importance d’ajuster en permanence les pratiques en fonction de la réévaluation continue des risques.
Abonnez-vous dès aujourd’hui !
Chaque lundi, des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH, marketing, finance…).
Le retour d’expérience des professionnels interviewés confirme un bilan positif. Les activités de conformité s’alignant sur des objectifs organisationnels plus larges, notamment les initiatives de RSE, créent souvent un chevauchement significatif entre les rapports extrafinanciers et les obligations du devoir de vigilance. Résultat ? Un effet de levier. Les entreprises s’appuient sur des outils de suivi des risques environnementaux et sociaux ainsi que sur des données extra-financières pour établir leur plan de vigilance et harmoniser leur reporting de durabilité.
Certaines entreprises, comme Air Liquide et Orange, se distinguent même par des plans de vigilance exemplaires, récompensés par le prix du Meilleur Plan de vigilance des entreprises du CAC40. Air Liquide a été saluée pour son approche globale et la transparence de la cartographie des risques, l’évaluation régulière de ses sous-traitants, ses actions de prévention ciblées et son mécanisme d’alerte développé en collaboration avec les syndicats. Orange, de son côté, a intégré la vigilance dans les formations de ses employés. Cette valorisation illustre l’importance de stratégies de vigilance solides, fondées sur la transparence, la gouvernance et le dialogue.
Le rôle des ONG dans la mise en œuvre du devoir de vigilance est à la fois essentiel et source de tensions. En France, de nombreux managers reconnaissent que, si les organisations non gouvernementales jouent un rôle clé en matière de défense des droits humains et de l’environnement, leur approche est parfois perçue comme trop dogmatique. Certaines ONG se positionnent en gardiennes absolues des normes éthiques, ce qui freine la possibilité d’un travail réellement collaboratif avec les entreprises.
Sur le dialogue avec les ONG, un responsable RSE dans le secteur du BTP déclare : « Très peu d’ONG collaborent avec nous, et c’est vraiment dommage. Les ONG nous reprochent de faire du profit, mais elles oublient souvent que c’est justement grâce à ce profit qu’on peut investir dans des solutions durables ou dans des outils techniques pour mesurer notre impact environnemental. Il y a quand même quelque chose de vertueux dans le profit – ce n’est pas le diable. »
Les attentes sont souvent mal alignées : les ONG méconnaissent parfois les contraintes opérationnelles, juridiques et économiques auxquelles sont confrontées les entreprises, rendant les échanges difficiles et parfois peu productifs. Une coopération plus ouverte entre entreprises et ONG serait pourtant cruciale.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
02.06.2025 à 16:01
Guillaume Desagulier, Professeur de linguistique anglaise, Université Bordeaux Montaigne
Les agents conversationnels tels que ChatGPT facilitent parfois notre quotidien en prenant en charge des tâches rébarbatives. Mais ces robots intelligents ont un coût. Leur bilan carbone et hydrique désastreux est désormais bien connu. Un autre aspect très préoccupant l’est moins : l’intelligence artificielle pollue les écrits et perturbe l’écosystème langagier, au risque de compliquer l’étude du langage.
Une étude publiée en 2023 révèle que l’utilisation de l’intelligence artificielle (IA) dans les publications scientifiques a augmenté significativement depuis le lancement de ChatGPT (version 3.5). Ce phénomène dépasse le cadre académique et imprègne une part substantielle des contenus numériques, notamment l’encyclopédie participative Wikipedia ou la plate-forme éditoriale états-unienne Medium.
Le problème réside d’abord dans le fait que ces textes sont parfois inexacts, car l’IA a tendance à inventer des réponses lorsqu’elles ne figurent pas dans sa base d’entraînement. Il réside aussi dans leur style impersonnel et uniformisé.
La contamination textuelle par l’IA menace les espaces numériques où la production de contenu est massive et peu régulée (réseaux sociaux, forums en ligne, plates-formes de commerce…). Les avis clients, les articles de blog, les travaux d’étudiants, les cours d’enseignants sont également des terrains privilégiés où l’IA peut discrètement infiltrer des contenus générés et finalement publiés.
La tendance est telle qu’on est en droit de parler de pollution textuelle. Les linguistes ont de bonnes raisons de s’en inquiéter. Dans un futur proche, la proportion de données en langues naturelles sur le Web pourrait diminuer au point d’être éclipsée par des textes générés par l’IA. Une telle contamination faussera les analyses linguistiques et conduira à des représentations biaisées des usages réels du langage humain. Au mieux, elle ajoutera une couche de complexité supplémentaire à la composition des échantillons linguistiques que les linguistes devront démêler.
À lire aussi : L’IA au travail : un gain de confort qui pourrait vous coûter cher
Cette contamination n’est pas immédiatement détectable pour l’œil peu entraîné. Avec l’habitude, cependant, on se rend compte que la langue de ChatGPT est truffée de tics de langage révélateurs de son origine algorithmique. Il abuse aussi bien d’adjectifs emphatiques, tels que « crucial », « essentiel », « important » ou « fascinant », que d’expressions vagues (« de nombreux… », « généralement… »), et répond très souvent par des listes à puces ou numérotées. Il est possible d’influer sur le style de l’agent conversationnel, mais c’est le comportement par défaut qui prévaut dans la plupart des usages.
Un article de Forbes publié en décembre 2024 met en lumière l’impact de l’IA générative sur notre vocabulaire et les risques pour la diversité linguistique. Parce qu’elle n’emploie que peu d’expressions locales et d’idiomes régionaux, l’IA favoriserait l’homogénéisation de la langue. Si vous demandez à un modèle d’IA d’écrire un texte en anglais, le vocabulaire employé sera probablement plus proche d’un anglais global standard et évitera des expressions typiques des différentes régions anglophones.
L’IA pourrait aussi simplifier considérablement le vocabulaire humain, en privilégiant certains mots au détriment d’autres, ce qui conduirait notamment à une simplification progressive de la syntaxe et de la grammaire. Comptez le nombre d’occurrences des adjectifs « nuancé » et « complexe » dans les sorties de l’agent conversationnel et comparez ce chiffre à votre propre usage pour vous en rendre compte.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
La linguistique étudie le langage comme faculté qui sous-tend l’acquisition et l’usage des langues. En analysant les occurrences linguistiques dans les langues naturelles, les chercheurs tentent de comprendre le fonctionnement des langues, qu’il s’agisse de ce qui les distingue, de ce qui les unit ou de ce qui en fait des créations humaines. La linguistique de corpus se donne pour tâche de collecter d’importants corpus textuels pour modéliser l’émergence et l’évolution des phénomènes lexicaux et grammaticaux.
Les théories linguistiques s’appuient sur des productions de locuteurs natifs, c’est-à-dire de personnes qui ont acquis une langue depuis leur enfance et la maîtrisent intuitivement. Des échantillons de ces productions sont rassemblés dans des bases de données appelées corpus. L’IA menace aujourd’hui la constitution et l’exploitation de ces ressources indispensables.
Pour le français, des bases comme Frantext (qui rassemble plus de 5 000 textes littéraires) ou le French Treebank (qui contient plus de 21 500 phrases minutieusement analysées) offrent des contenus soigneusement vérifiés. Cependant, la situation est préoccupante pour les corpus collectant automatiquement des textes en ligne. Ces bases, comme frTenTen ou frWaC, qui aspirent continuellement le contenu du Web francophone, risquent d’être contaminées par des textes générés par l’IA. À terme, les écrits authentiquement humains pourraient devenir minoritaires.
Les corpus linguistiques sont traditionnellement constitués de productions spontanées où les locuteurs ignorent que leur langue sera analysée, condition sine qua non pour garantir l’authenticité des données. L’augmentation des textes générés par l’IA remet en question cette conception traditionnelle des corpus comme archives de l’usage authentique de la langue.
Alors que les frontières entre la langue produite par l’homme et celle générée par la machine deviennent de plus en plus floues, plusieurs questions se posent : quel statut donner aux textes générés par l’IA ? Comment les distinguer des productions humaines ? Quelles implications pour notre compréhension du langage et son évolution ? Comment endiguer la contamination potentielle des données destinées à l’étude linguistique ?
On peut parfois avoir l’illusion de converser avec un humain, comme dans le film « Her » (2013), mais c’est une illusion. L’IA, alimentée par nos instructions (les fameux « prompts »), manipule des millions de données pour générer des suites de mots probables, sans réelle compréhension humaine. Notre IA actuelle n’a pas la richesse d’une voix humaine. Son style est reconnaissable parce que moyen. C’est le style de beaucoup de monde, donc de personne.
À partir d’expressions issues d’innombrables textes, l’IA calcule une langue moyenne. Le processus commence par un vaste corpus de données textuelles qui rassemble un large éventail de styles linguistiques, de sujets et de contextes. Au fur et à mesure l’IA s’entraîne et affine sa « compréhension » de la langue (par compréhension, il faut entendre la connaissance du voisinage des mots) mais en atténue ce qui rend chaque manière de parler unique. L’IA prédit les mots les plus courants et perd ainsi l’originalité de chaque voix.
Bien que ChatGPT puisse imiter des accents et des dialectes (avec un risque de caricature), et changer de style sur demande, quel est l’intérêt d’étudier une imitation sans lien fiable avec des expériences humaines authentiques ? Quel sens y a-t-il à généraliser à partir d’une langue artificielle, fruit d’une généralisation déshumanisée ?
Parce que la linguistique relève des sciences humaines et que les phénomènes grammaticaux que nous étudions sont intrinsèquement humains, notre mission de linguistes exige d’étudier des textes authentiquement humains, connectés à des expériences humaines et des contextes sociaux. Contrairement aux sciences exactes, nous valorisons autant les régularités que les irrégularités langagières. Prenons l’exemple révélateur de l’expression « après que » : normalement suivie de l’indicatif, selon les livres de grammaire, mais fréquemment employée avec le subjonctif dans l’usage courant. Ces écarts à la norme illustrent parfaitement la nature sociale et humaine du langage.
La contamination des ensembles de données linguistiques par du contenu généré par l’IA pose de grands défis méthodologiques. Le danger le plus insidieux dans ce scénario est l’émergence de ce que l’on pourrait appeler un « ouroboros linguistique » : un cycle d’auto-consommation dans lequel les grands modèles de langage apprennent à partir de textes qu’ils ont eux-mêmes produits.
Cette boucle d’autorenforcement pourrait conduire à une distorsion progressive de ce que nous considérons comme le langage naturel, puisque chaque génération de modèles d’IA apprend des artefacts et des biais de ses prédécesseurs et les amplifie.
Il pourrait en résulter un éloignement progressif des modèles de langage humain authentique, ce qui créerait une sorte de « vallée de l’étrange » linguistique où le texte généré par l’IA deviendrait simultanément plus répandu et moins représentatif d’une communication humaine authentique.
Guillaume Desagulier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
02.06.2025 à 16:00
Camille Mazé-Lambrechts, Directrice de recherche en science politique au CNRS, titulaire de la chaire Outre-mer et Changements globaux du CEVIPOF (Sciences Po), fondatrice du réseau de recherche international Apolimer, Officier de réserve Marine nationale CESM/Stratpol, Sciences Po
Jordan Hairabedian, Enseignant en climat, biodiversité et transformations socio-environnementales, Sciences Po
Mathieu Rateau, Assistant researcher en politiques environnementales., Sciences Po
Une ombre nommée Donald Trump devrait planer sur la troisième Conférence des Nations unies sur l’océan (Unoc 3), qui va se dérouler à Nice (Alpes-Maritimes), en juin 2025. Dès son premier mandat et depuis son retour en janvier dernier à la Maison Blanche, Trump a altéré les positions des États-Unis. Celles-ci ont influencé négativement les engagements pour la biodiversité ailleurs dans le monde. Y compris en Europe, quoi qu’indirectement.
Le climat n’est pas le seul enjeu international à souffrir des décisions prises par le président américain Donald Trump, qui vont à l’encontre du consensus scientifique mondial sur l’environnement.
De fait, celui-ci a déjà retiré les États-Unis de l’accord de Paris sur le climat, a fait disparaître l’expression même de « changement climatique » des sites de l’administration, a rétropédalé sur des mesures telles que l’interdiction des pailles en plastique et continue de soutenir les hydrocarbures et leur exploitation. De telles politiques vont à l’encontre des besoins des populations, tels que définis par la campagne One Planet, One Ocean, One Health, par exemple.
De telles décisions affectent la transition socio-écologique globale dans son ensemble, y compris en dehors des États-Unis. L’action internationale pour préserver la biodiversité devrait donc également en pâtir. Une question cruciale alors que va débuter la troisième Conférence des Nations unies pour l’océan (Unoc 3) et que les tensions se renforcent sur les arbitrages à réaliser entre climat, biodiversité, économie et autres enjeux de société.
Nous aborderons ici deux cas d’étude pour comprendre comment les politiques trumpiennes peuvent influencer le reste du monde en matière de multilatéralisme pour la biodiversité : d’abord la COP 16 biodiversité, à Cali (Colombie), qui s’est récemment conclue à Rome en février 2025, puis le Pacte vert pour l’Europe, ensemble de textes qui doivent permettre à l’Union européenne (UE) d’atteindre la neutralité carbone à l’horizon 2050 et d’établir un vaste réseau de zones protégées, sur terre et en mer (30 %).
La COP 16 sur la biodiversité, qui s’est tenue à Cali (Colombie) du 21 octobre au 1er novembre 2024, avait pour objectif d’accélérer la mise en œuvre du Cadre mondial de la biodiversité de Kunming-Montréal. Celui-ci est l’équivalent de l’accord de Paris sur le climat.
Il prévoit notamment la conservation de 30 % des zones terrestres, des eaux intérieures et des zones côtières et marines, la restauration de 30 % des écosystèmes dégradés, tout en finançant l’action biodiversité à l’international. Ce dernier point fut le principal point de tension lors des négociations lors de la COP 16.
Les États-Unis ne sont pas membres de la Convention sur la diversité biologique (CDB), adoptée en 1992 lors du Sommet de la Terre à Rio, qui est l’un des textes fondateurs de la diplomatie internationale en matière de biodiversité. Mais ils influencent les discussions par leur poids économique et politique.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
L’élection de Trump, survenue peu après la COP 16, et son retrait renouvelé de l’accord de Paris accompagné de politiques pro-fossiles ont rapidement assombri les perspectives de coopération internationale. Ce revirement a affaibli la confiance dans les engagements multilatéraux et a rendu plus difficile la mobilisation de fonds pour la préservation de l’environnement et la conservation de la biodiversité.
À lire aussi : La COP16 de Cali peut-elle enrayer l’effondrement de la biodiversité ?
Malgré ce contexte international préoccupant, la COP 16 a pu aboutir à des avancées notables pour donner davantage de place au lien entre biodiversité et changement climatique, laissant espérer une appréhension plus transversale de la protection de l’environnement. De fait, la deuxième partie des négociations, en février 2025, a permis d’aboutir à un accord sur les financements.
La stratégie adoptée, qui doit être déployée sur cinq ans, est supposée permettre de débloquer les 200 milliards de dollars nécessaires à la mise en œuvre du Cadre mondial de la biodiversité. Toutefois, comme certaines des cibles de ce cadre doivent être atteintes d’ici 2030, le risque est que le délai soit trop court pour permettre la mobilisation des ressources nécessaires.
En parallèle, une décision historique a permis la création d’un organe de représentation permanent des peuples autochtones ainsi que la reconnaissance du rôle des communautés afro-descendantes, afin que leurs positions soient mieux prises en compte dans les négociations. La contribution des peuples autochtones à la conservation de la biodiversité est effectivement reconnue par la CDB, bien que son ampleur soit discutée.
La COP 16 a également permis des progrès en termes de protection des océans. Une décision y a ainsi défini des procédures pour décrire les zones marines d’importance écologique et biologique (en anglais, EBSA, pour Ecologically or Biologically Significant Marine Areas).
Ceci constitue l’aboutissement de 14 ans de négociations et ouvre la voie à la création d’aires protégées en haute mer et à des synergies potentielles avec le Traité de la haute mer (Biodiversity Beyond National Jurisdiction, BBNJ).
Ce traité reste bien plus significatif que l’EBSA, ce dernier n’ayant pas de dimension contraignante. Le problème reste qu’à ce jour, seuls 29 États ont ratifié cet accord alors qu’il en nécessite 60. La perspective d’une ratification de l’accord BBNJ par les États-Unis sous la présidence de Donald Trump semble bien improbable, d’autant plus depuis la signature d’un décret en avril 2025 pour autoriser l’exploitation minière des grands fonds marins en haute mer, au-delà des zones économiques exclusives.
Le vent des politiques trumpistes souffle jusque sur les côtes du continent européen. Depuis le premier mandat de Donald Trump entre 2016 et 2020 et ses décisions anti-environnementales, l’Europe a, elle aussi, ajusté ses politiques en matière d’action environnementale.
Annoncé en 2019 pour la décennie 2020-2030, le Pacte vert européen (Green Deal) a récemment cherché à se réinventer face aux décisions américaines. Dès les élections européennes de juin 2024, le Parlement s’est renforcé à sa droite et à son extrême droite, motivant une évolution de ses politiques internes.
Ainsi, en réaction au culte des énergies fossiles outre-Atlantique, l’Union européenne a récemment développé certaines dimensions du Green Deal destinées à mettre la focale sur les technologies bas carbone en Europe. En février 2025, le Pacte pour une industrie propre (Clean Industrial Deal) a ainsi été présenté, en cohérence avec le rapport Draghi de septembre 2024. Ce dernier s’inscrivait dans une logique libérale en faveur d’une stratégie de dérégulation.
Cela étant, les solutions présentées comme contribuant à la réduction des émissions de gaz à effet de serre dans le Pacte pour une industrie propre n’ont pas toujours des effets bénéfiques en matière de biodiversité. Les bioénergies, les technologies de stockage du carbone ou encore l’hydroénergie présentent des externalités négatives – c’est-à-dire, des effets indésirables – notables pour le vivant.
Il est intéressant de noter qu’à l’inverse, très peu d’actions en faveur de la biodiversité nuisent à l’action climatique, comme le montre le schéma ci-dessus. C’est ce qu’ont démontré le Giec et la Plateforme intergouvernementale scientifique et politique sur la biodiversité et les services écosystémiques (IPBES) (l’instance onusienne équivalente pour la biodiversité), dans leur rapport commun de 2021, une première.
En parallèle, ces volontés de dérégulation ont contribué à détricoter plusieurs mesures environnementales clés pour l’UE. Or, ces ajustements risquent de compromettre les efforts de protection de la biodiversité tout au long des chaînes de valeur économique :
les réglementations relatives aux critères environnement-social-gouvernance (ESG) vont être simplifiées, ce qui devrait marquer un net recul en matière de transparence et d’incitation à l’action pour les entreprises ;
la directive qui impose aux entreprises la publication d’informations sur la durabilité (CSRD), bien qu’elle conserve la biodiversité dans son périmètre ainsi que l’approche en double matérialité, a vu son impact réduit par l’exclusion de 80 % des organisations initialement concernées et par plusieurs reports d’application ;
même la taxonomie environnementale de l’UE, outil clé pour classifier des activités économiques ayant un impact favorable sur l’environnement, a vu son périmètre revu à la baisse, ce qui limitera les effets incitatifs qu’elle devait avoir sur la transition écologique pour orienter les financements.
Enfin, la directive sur le devoir de vigilance (CSDDD) a été édulcorée en adoptant la vision allemande. Les impacts socio-environnementaux devront être analysés uniquement au niveau des sous-traitants directs. Cela exclut du périmètre des maillons critiques comme les exploitations agricoles, qui sont les plus en lien avec la biodiversité.
Malgré ces renoncements, plusieurs politiques publiques importantes pour la biodiversité ont pu être maintenues.
C’est notamment le cas de la Stratégie biodiversité 2030 de l’UE, de la loi sur la restauration de la nature et de la loi contre la déforestation importée (bien que reportée d’un an dans son application).
Un paquet spécifique sur l’adaptation est également attendu d’ici fin 2025 dans le cadre du Programme Horizon Europe 2025, dont la consultation publique s’est récemment terminée.
Ainsi, l’action pour le climat et la biodiversité est à la croisée des chemins. Plus que jamais, il appartient à la communauté internationale de défendre un cadre de gouvernance robuste fondé sur la science et la solidarité pour que la préservation de la biodiversité ne soit pas sacrifiée sur l’autel de la rentabilité immédiate.
Au-delà des déclarations d’intention, il faut mettre en place cette gouvernance de façon efficace, à travers des mesures politiques, des outils de protection et de surveillance adaptés, et surtout, à travers l’adaptation du droit. Une telle transdisciplinarité se révèle ici déterminante pour la solidarité écologique. En ce sens, l’Unoc est une bonne occasion, pour l’UE, de rester unie et forte face à la volonté de Trump de débuter l’exploration et l’exploitation des grands fonds marins.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
02.06.2025 à 15:56
Kevan Gafaïti, Enseignant à Sciences Po Paris en Middle East Studies, Président-fondateur de l'Institut des Relations Internationales et de Géopolitique, doctorant en science politique - relations internationales au Centre Thucydide, Université Paris-Panthéon-Assas
Des discussions directes sont en cours entre les représentants de l’administration Trump et ceux de l’Iran. Objectif : aboutir à un accord encadrant le programme nucléaire iranien et permettant à Washington de s’assurer que Téhéran ne pourra jamais se doter de l’arme atomique. En contrepartie, l’Iran obtiendrait la levée des sanctions économiques dont il fait l’objet. Mais après les nombreuses tractations passées et l’échec de l’accord de Vienne signé en 2015 et que Trump avait quitté lors de son premier mandat, la plus grande prudence est de mise.
« Je veux que l’Iran soit un pays merveilleux, grand et heureux, mais ils ne peuvent pas avoir d’arme nucléaire », déclarait en avril dernier Donald Trump, détonant avec son ton usuellement très véhément à l’encontre de la République islamique d’Iran, qu’il qualifiait, il y a quelques années encore, de « plus grand État sponsorisant le terrorisme ».
Si Trump se montre aujourd’hui plus avenant envers Téhéran, cela s’explique par un contexte international qui semblait difficile à imaginer il y a peu : Iraniens et Américains négocient de manière bilatérale et directe – et ce, à l’initiative du locataire de la Maison Blanche. Le déroulement de ces discussions – dont l’objectif annoncé est de parvenir à un accord encadrant le programme nucléaire iranien en contrepartie de la levée de sanctions économiques américaines – renforce chaque jour la possibilité d’une entente entre ces deux États systémiquement opposés depuis 1979.
La prudence est cependant de mise, tous les scénarios restant possibles – d’un accord approfondi à un échec des négociations et une confrontation ouverte au Moyen-Orient.
Depuis le début de l’année 2025, des discussions directes et bilatérales entre les États-Unis et l’Iran sur le programme nucléaire de ce dernier ont été annoncées en grande pompe, mais leur contenu est et reste complètement opaque.
Menées en avril à Mascate, capitale du sultanat d’Oman, sous l’égide du ministre omanais des affaires étrangères Badr bin Hamad al-Busaidi, ces négociations ont connu plusieurs séquences, à Rome puis de nouveau à Oman, un quatrième round prévu pour le 3 mai ayant finalement été reporté.
Si aucun communiqué officiel ni image n’a filtré, des déclarations de part et d’autre laissent entrevoir une désescalade réelle et des avancées tangibles. Le vice-président américain J. D. Vance a, par exemple, déclaré le 7 mai que les négociations étaient « sur la bonne voie ».
La médiation discrète, mais efficace, d’Oman a ainsi permis de rétablir des canaux de communication (à l’image de l’accord de Vienne, ou JCPOA de 2015, dont les négociations secrètes entre Iraniens et Américains s’étaient également déroulées à Mascate).
Washington exige un arrêt net de l’enrichissement de l’uranium, estimant que le niveau actuel est trop élevé. Téhéran souligne, pour sa part, son droit à un nucléaire civil. Malgré des divergences de fond, les deux parties partagent désormais un langage commun : celui du compromis pragmatique. Le ministre iranien des affaires étrangères Abbas Araghchi qualifie de « constructifs » ces échanges bilatéraux, tandis que le Guide suprême Ali Khamenei, plus circonspect, estime que certaines exigences américaines restent « excessives et scandaleuses ».
Le caractère fastidieux des négociations ne saurait masquer le fait que le dialogue se poursuit, avec une fréquence inédite depuis 2018 et la sortie américaine du JCPOA, ce qui dévoile un infléchissement stratégique majeur de part et d’autre. Dans cette séquence encore incertaine, le choix d’Oman, acteur patient et neutre, symbolise une volonté commune d’éviter la rupture et d’explorer les marges d’un possible accord.
Malgré des tensions persistantes et la difficulté de déceler précisément les points d’achoppement dans ces discussions, les négociations entre les États-Unis et l’Iran ont progressé vers ce qui pourrait être un accord-cadre bilatéral, en dehors du cadre du Conseil de sécurité des Nations unies ou du P5+1 (le groupe des cinq membres permaments du Conseil de sécurité + l’Allemagne). Donald Trump a même annoncé le 15 mai que l’Iran aurait « en quelque sorte » accepté les termes d’un futur accord.
Après des échanges d’ordre politique à Oman, Téhéran et Washington sont, selon Mascate, convenus de s’entendre sur des aspects techniques du programme nucléaire iranien. Sur une base régulière quasi hebdomadaire, les négociateurs américains et iraniens se retrouvent ainsi à Rome et à Mascate pour former des groupes de travail et établir un cadre général de discussions.
Le contenu précis d’un potentiel accord reste cependant difficile à déterminer, tant les parties elles-mêmes sont encore en phase de tractation, sans qu’aucune information officielle et substantielle ne filtre. Il est cependant possible d’avancer que s’il y avait un nouvel accord, ce dernier serait bien différent du JCPOA de 2015, tant la situation présente est distincte de celle d’il y a dix ans.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Depuis la constatation de l’obsolescence de l’accord de Vienne causée par le retrait américain de 2018, l’Iran enrichit son uranium à environ 60 % selon l’AIEA (ce qui est techniquement proche de l’enrichissement à 90 % nécessaire pour fabriquer une arme nucléaire). Pourtant, Téhéran n’a jamais explicitement affirmé vouloir développer une arme atomique, arguant même d’une fatwa du Guide suprême Khamenei qualifiant une telle arme de « contre-islamique » par nature. Les États-Unis, pour leur part, semblent chercher à conclure rapidement un accord, Trump espérant obtenir « son deal » après avoir fait échouer celui négocié par l’administration Obama.
Les demandes américaines se cantonnent au seul domaine nucléaire (écartant d’office d’autres sujets, comme la politique régionale de Téhéran ou son programme balistique) sans vouloir s’encombrer d’un accord aussi technique que celui de 2015, long de plusieurs centaines de pages : Donald Trump déclarait ainsi à la mi-mai qu’il n’avait « pas besoin de 30 pages de détail. Cela tient en une phrase : ils ne peuvent pas avoir d’arme nucléaire. »
Bien que des avancées notables dans ces négociations se fassent jour (le principe même que Téhéran et Washington renouent le dialogue est positif en soi), de réels défis restent à surmonter avant la conclusion d’un accord nucléaire durable. Aux divergences et voix dissonantes au sein même des deux États impliqués s’ajoutent des tensions régionales, Israël et les monarchies arabes du golfe Persique étant réfractaires, à des degrés divers, à un accord Téhéran-Washington.
Côté iranien, le Guide suprême Ali Khamenei estime que certaines exigences américaines sont « dépourvues de sens » et fait preuve d’un lourd scepticisme quant à l’issue des pourparlers. Le ministre iranien des affaires étrangères a ainsi récemment rappelé que l’enrichissement de l’uranium iranien était un droit « non négociable ».
Côté états-unien, bien que l’administration Trump puisse conclure un accord exécutif sans l’aval du Congrès, le pouvoir législatif est un paramètre incontournable dans ces négociations avec l’Iran. Alors que la perspective des élections de mi-mandat, traditionnellement défavorables au parti présidentiel, commence à peser sur les équilibres politiques, le Congrès a exprimé le 8 mai 2025, par une résolution non contraignante, une opposition significative menaçant la pérennité de tout accord. Bien que majoritaires à la Chambre des représentants et au Sénat, les élus républicains restent usuellement farouchement opposés à tout rapprochement ou accord avec l’Iran, qui pourrait être perçu comme une forme de faiblesse à leurs yeux. Par ailleurs, des groupes de pression pro-israéliens tels que l’AIPAC (American Israel Public Affairs Committee) ou le CUFI (Christians United for Israel) pèsent de tout leur poids pour s’opposer à un tel rapprochement.
À lire aussi : Le sionisme chrétien, une influence majeure sur la nouvelle administration Trump
Côté Moyen-Orient enfin, Israël se cantonne à un réflexe pavlovien, affirmant depuis des décennies que l’Iran serait sur le point d’obtenir l’arme nucléaire, ce qui constituerait une menace existentielle à son encontre. Tel-Aviv s’est maintes fois dit prêt à lancer une action militaire unilatérale contre les installations nucléaires iraniennes, quitte à justement déclencher une escalade incontrôlable. Benyamin Nétanyahou, reçu à Washington par le président Trump début avril, n’a pas fait varier sa ligne sur ce sujet.
Les monarchies arabes du golfe Persique suivent également ce dossier de près et ont adopté une position plus mesurée qu’il y a dix ans : elles cherchent à s’assurer du parrainage politique de Washington et de sa protection contre toute menace réelle ou potentielle, iranienne ou infra-étatique. Ces mêmes États arabes du golfe Persique renouvellent par ailleurs un dialogue fourni avec l’Iran.
Si l’Union européenne a longtemps incarné un médiateur diplomatique central dans les négociations nucléaires avec l’Iran, elle semble aujourd’hui complètement délaissée. Avec l’échec du JCPOA et son incapacité à maintenir des relations économiques (malgré INSTEX, mécanisme de troc avec l’Iran lancé par les Européens), l’UE a malheureusement perdu en crédibilité aux yeux de Téhéran, l’alignement de facto sur les sanctions extraterritoriales américaines dès mai 2018 achevant la confiance iranienne.
Les négociations de Vienne, pourtant lancées dès 2021 par l’administration Biden et auxquelles les diplomates européens continuent de participer, n’ont jamais abouti à un résultat concret et rien ne semble indiquer une évolution à cet endroit. Pis encore, l’auteur a relevé au cours d’entretiens avec des diplomates des pays européens signataires du JCPOA qu’ils n’étaient ni informés ni consultés par leurs homologues transatlantiques, qui les laissent complètement dans l’ignorance quant au lancement et au déroulé de leurs négociations bilatérales.
Cette marginalisation est aujourd’hui diplomatique et serait demain économique en cas d’accord : la perspective d’une levée des sanctions américaines primaires (c’est-à-dire visant uniquement les entités américaines) s’accompagnerait d’un maintien voire d’un durcissement des sanctions secondaires (s’appliquant de facto aux entités non américaines, donc européennes). Le marché iranien (90 millions de consommateurs férus de produits occidentaux) serait alors ouvert exclusivement aux États-Unis, laissant les Européens complètement hors jeu. Cela serait le produit non pas d’un désintérêt européen pour la question, mais le signe d’une perte de crédibilité stratégique et économique de Bruxelles. Sans bouclier bancaire crédible et levier politique autonome et sincère, les Européens (et la France au premier rang) sont durablement exclus du « Grand Jeu » iranien.
Kevan Gafaïti ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
02.06.2025 à 15:56
Devi Veytia, Dr, École normale supérieure (ENS) – PSL
Adrien Comte, Chargé de recherche, Institut de recherche pour le développement (IRD)
Frédérique Viard, Directrice de recherche en biologie marine, Université de Montpellier
Jean-Pierre Gattuso, Research Professor, CNRS, Iddri, Sorbonne Université
Laurent Bopp, Research Professor, CNRS, École normale supérieure (ENS) – PSL
Marie Bonnin, Research Director in marine environmental law, Institut de recherche pour le développement (IRD)
Yunne Shin, Chercheuse en écologie marine, Institut de recherche pour le développement (IRD)
Dans quelques jours, la troisième Conférence des Nations unies sur l’océan (Unoc 3) se tiendra en France, à Nice (Alpes-Maritimes). Elle réunira des dirigeants, des décideurs, des scientifiques et des parties prenantes du monde entier dans le but « d’accélérer l’action et de mobiliser tous les acteurs pour conserver et utiliser durablement l’océan », avec à la clé, peut-être, un « accord de Nice » qui serait constitué d’une déclaration politique négociée à l’ONU et de déclarations volontaires — c’est, du moins, l’objectif des organisateurs, la France et le Costa Rica.
Pour soutenir ces décisions, des informations scientifiques sont indispensables – quel est le statut des recherches dans le monde et, en France, pour exploiter les solutions que l’océan peut offrir face à la crise climatique ?
La France joue un rôle essentiel pour progresser vers l’objectif de conserver et utiliser durablement l’océan, puisqu’avec la deuxième plus grande zone économique exclusive du monde, elle détient une grande partie du pouvoir d’orientation concernant l’utilisation des ressources océaniques.
Cependant, remplir un mandat aussi nécessaire qu’ambitieux d’accélération et de mobilisation de l’action ne sera pas simple. Les discussions de l’Unoc 3 se dérouleront dans un contexte où l’océan est confronté à des défis sans précédent dans l’histoire de l’humanité, notamment en raison des impacts de plus en plus prégnants du changement climatique.
Ces effets se manifestent avec une intensité croissante dans toutes les régions du monde, de la surface aux eaux les plus profondes de l’océan Austral autour du continent antarctique aux zones côtières densément peuplées où les risques climatiques s’accumulent, affectant notamment les pêcheries.
Les options fondées sur l’océan pour atténuer le changement climatique (par exemple en utilisant des énergies renouvelables marines qui limitent l’émission de gaz à effet de serre) et s’adapter à ses impacts (par exemple en construisant des digues) sont essentielles.
Pour optimiser leur déploiement, une synthèse exhaustive et objective des données scientifiques est indispensable. En effet, une évaluation incomplète des preuves disponibles pourrait en effet conduire à des conclusions biaisées, mettant en avant certaines options comme particulièrement adaptées tout en négligeant leurs effets secondaires ou des lacunes critiques dans les connaissances.
Au milieu de ce maelström de défis, quelle est la contribution de la France à la recherche et au déploiement d’options fondées sur l’océan ?
Grâce à une étude de 45 000 articles publiés entre 1934 à 2023, nous montrons que les chercheurs français publient une part importante des recherches scientifiques mondiales sur les options d’adaptation, mais qu’il reste néanmoins de nombreux leviers d’actions.
Par exemple, l’expertise scientifique française pourrait être développée au service de recherches sur l’adaptation des petits États insulaires en développement, qui sont particulièrement vulnérables au changement climatique. Par ailleurs, il conviendrait d’amplifier les recherches sur les options d’atténuation, par exemple dans le domaine des énergies marines renouvelables.
L’océan couvre 70 % de la surface de la Terre et a absorbé 30 % des émissions humaines de dioxyde de carbone. Pourtant, jusqu’à récemment, il était négligé dans la lutte contre le changement climatique.
Aujourd’hui, de nombreuses options fondées sur l’océan émergent dans les dialogues entre scientifiques, décideurs politiques et citoyens. Ces « options fondées sur l’océan » concernent des actions qui :
atténuent le changement climatique et ses effets en utilisant les écosystèmes océaniques et côtiers pour réduire les émissions de gaz à effet de serre atmosphériques ; il s’agit ici par exemple d’interventions utilisant l’océan pour la production d’énergie renouvelable ;
soutiennent l’adaptation des communautés et des écosystèmes côtiers aux impacts toujours croissants du changement climatique ; la gestion des pêches et la restauration des écosystèmes mais aussi la construction d’infrastructures protégeant les côtes des submersions font partie de ces options.
L’un des rôles clés de la science est de fournir une synthèse impartiale des données scientifiques pour éclairer les décisions. Cependant, l’explosion du nombre de publications scientifiques rend de plus en plus difficile, voire impossible, de réaliser ces évaluations de manière exhaustive.
C’est là qu’interviennent l’intelligence artificielle (IA) et les grands modèles de langage, qui ont déjà un succès notable, depuis les robots conversationnels aux algorithmes de recherche sur Internet.
Dans un travail de recherche en cours d’évaluation, nous avons étendu ces nouvelles applications de l’IA à l’interface science-politique, en utilisant un grand modèle de langage pour analyser la contribution de la France dans le paysage de la recherche sur les options fondées sur l’océan. Grâce à ce modèle, nous avons classé environ 45 000 articles scientifiques et dédiés aux options fondées sur l’océan.
Au niveau mondial, nous constatons que la recherche est inégalement répartie puisque 80 % des articles portent sur les options d’atténuation. Les auteurs de travaux de recherche affiliés à la France jouent ici un rôle important, car ils sont parmi les principaux contributeurs des travaux dédiés aux options d’adaptation.
Cette priorité de la recherche sur l’adaptation est également présente dans les travaux des chercheurs affiliés à des institutions de petits États insulaires en développement, qui présentent un risque élevé de dangers côtiers exacerbés par le changement climatique, avec les évènements climatiques extrêmes et l’élévation du niveau de la mer.
L’impact de la recherche française s’étend bien au-delà de ses frontières, suscitant l’intérêt via les réseaux sociaux et les médias traditionnels à travers l’Europe, l’Amérique du Nord et l’Australie.
À mesure que l’accès à l’information et aux plateformes de diffusion accroît la portée et l’influence de l’opinion publique dans l’élaboration des politiques, il devient crucial non seulement de communiquer, mais aussi d’impliquer d’autres acteurs afin de traduire la science en dispositions réglementaires et, à terme, en actions concrètes.
Cette évolution, de l’idée à l’action, est une progression classique dans le cycle de vie d’une intervention. D’abord, un problème ou un impact potentiel est identifié, ce qui motive la recherche scientifique à en étudier les causes et à développer des solutions pour y répondre. Une fois cette étape franchie, l’intervention peut être intégrée dans la législation, incitant ainsi les parties prenantes à agir. Mais ce processus est-il applicable aux options fondées sur l’océan, ou y a-t-il des obstacles supplémentaires à considérer ?
Nous avons étudié cette situation en France pour deux options technologiques prêtes à être déployées et d’ores et déjà mises en œuvre : les énergies marines renouvelables, proposées pour atténuer le changement climatique, et les infrastructures construites et technologies d’adaptation sociétales face à la montée du niveau des mers.
Concernant les énergies marines renouvelables – une intervention jugée efficace à l’atténuation du changement climatique et dont les risques sont bien documentés et modérés –, le déploiement en France semble lent au regard du reste du monde (ligne en pointillé dans la figure ci-dessous).
En revanche, les leviers d’actions en faveur des infrastructures d’adaptation sociétales semblent plus mobilisés face aux pressions croissantes exercées par les risques climatiques côtiers.
Ainsi, nous constatons qu’à mesure que l’élévation du niveau de la mer s’accentue et, par conséquent, entraîne un besoin croissant de protections côtières, la recherche, la législation et l’action (représentée par le nombre de communes françaises exposées aux risques côtiers bénéficiant d’un plan de prévention des risques naturels (PPRN)) augmentent également, en particulier après 2010.
En résumé, concernant les énergies marines renouvelables, la France accuse un certain retard dans le passage de l’idée à l’action par rapport au reste du monde. Cela pourrait s’expliquer par une priorité accordée à d’autres mesures d’atténuation (par exemple, l’énergie nucléaire). Cependant, nous ne devrions pas nous limiter à une ou à quelques options dans l’objectif d’accroître notre potentiel d’atténuation global. La France a la possibilité d’investir davantage dans les recherches et actions d’atténuation.
La France affiche un très bon bilan en matière de recherche et de mise en œuvre d’options d’adaptation au changement climatique. Par ailleurs, sur ce type d’options, nous avons constaté un besoin global de recherche dans les pays en développement exposés aux risques côtiers — ce qui pourrait ouvrir de nouvelles opportunités, pour les institutions de recherche françaises, en termes de soutien à la recherche et de renforcement de leurs capacités dans ces domaines.
Alors que nous approchons de l’Unoc 3 – un moment critique pour la prise de décision – une chose est claire : il n’y a pas une seule solution mais des choix sont nécessaires ; il est donc essentiel de trouver les moyens d’évaluer et de synthétiser rapidement les preuves scientifiques pour éclairer nos actions d’aujourd’hui, ainsi que proposer de nouvelles pistes de recherche en amont des actions innovantes de demain.
Devi Veytia a reçu des financements du Programme Prioritaire de Recherche (PPR) « Océan et Climat », porté par le CNRS et l’Ifremer.
Frédérique Viard a reçu des financements de l'Agence Nationale de la Recherche (ANR) et de l'Europe (programme Horizon Europe).
Jean-Pierre Gattuso a reçu des financements de Comission européenne, Fondation Prince Albert II de Monaco.
Laurent Bopp est Membre du Conseil Scientifique de la Plateforme Ocean-Climat. Il a reçu des financements de recherche dans le cadre de projet de mécennat de la société Chanel et de de Schmidt Sciences.
Marie Bonnin a reçu des financements de l'Agence Nationale de la Recherche (ANR) et de l'Europe (programme Horizon Europe).
Yunne Shin a reçu des financements de l'Europe (programme Horizon Europe)
Adrien Comte ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
02.06.2025 à 15:54
Dorian Vancoppenolle, Doctorant en Sciences de l'Éducation et de la Formation, Université Lumière Lyon 2
Alors que les lycéens reçoivent leurs résultats sur Parcoursup, les étudiants qui envisagent de changer de voie se connectent de nouveau à la plateforme. Près d’un sur cinq choisit désormais de se réorienter après une première année dans l’enseignement supérieur. Un record qui soulève des questions cruciales sur les dynamiques de réussite, d’inégalités et d’orientation.
Depuis les années 1960, la massification scolaire a permis un accès élargi au baccalauréat, puis aux études supérieures, sans toutefois mettre fin aux inégalités : celles-ci se recomposent à travers la hiérarchisation des parcours, la segmentation des filières ou encore des effets d’orientation différenciée selon l’origine sociale et le genre.
L’accès aux études supérieures est plus large, mais inégal selon les filières, ce qui limite l’effet redistributif de la massification. Le système éducatif français tend ainsi à reproduire, voire à produire, des inégalités sociales, culturelles et scolaires tout au long des parcours, malgré l’idéal méritocratique affiché par les pouvoirs publics.
À lire aussi : Le mérite est-il encore un idéal démocratique ?
Aujourd’hui, l’un des effets les plus visibles de ces tensions réside dans les trajectoires étudiantes après le bac, en particulier lors de la première année, marquée par un taux de réorientation important.
Conséquence indirecte de la massification scolaire, la réorientation n’est pas nécessairement un aveu d’échec. Elle devient une étape de redéfinition des trajectoires, révélant à la fois les aspirations des jeunes et les limites d’un système qui, tout en se démocratisant, continue de reproduire des inégalités sociales.
Dans un contexte marqué par les réformes du bac, de l’accès aux études de santé et de la refonte du diplôme universitaire de technologie (DUT) en bachelor universitaire de technologie (BUT), ces constats interrogent : pourquoi tant de jeunes entament-ils une réorientation après une seule année, et quelles en sont les conséquences ?
Notre analyse porte sur les données Parcoursup entre 2018 et 2023, en se concentrant sur les étudiants qui se sont réinscrits après une première année dans le supérieur. Seuls les parcours passés par la plateforme sont pris en compte, ce qui exclut les formations hors Parcoursup, comme certaines écoles privées ou classes préparatoires internes, en raison de l’absence de données disponibles.
Contrairement à l’idée reçue selon laquelle une réorientation serait synonyme de rupture totale, les données montrent que la plupart des étudiants restent dans un univers disciplinaire proche de leur formation d’origine. Celles et ceux qui commencent une licence de sciences humaines et sociales, de droit ou de sciences expérimentales poursuivent souvent dans ces mêmes domaines ou dans des filières voisines. La logique dominante n’est donc pas celle du grand saut, mais plutôt celle de l’ajustement progressif.
Certaines formations font néanmoins figure de points de départ majeurs. C’est le cas de la filière santé, qu’elle s’appelle « première année commune aux études de santé (Paces) » ou « parcours accès santé spécifique (Pass) » : chaque année, une partie importante des étudiants s’en détourne après la première année, en se réorientant vers des licences scientifiques, des diplômes du secteur sanitaire et social ou, plus rarement, vers les filières juridiques ou littéraires. Malgré sa réforme, le Pass reste ainsi un espace de réajustement des parcours très fréquent.
À l’inverse, d’autres filières apparaissent comme des points d’arrivée privilégiés. Les brevets de technicien supérieur (BTS), en particulier, accueillent chaque année un grand nombre d’étudiants venus d’horizons très divers : université, santé, sciences humaines, etc.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Enfin, certains domaines, comme les licences Arts, Lettres, Langues ou Droit, Économie, Gestion, connaissent des flux relativement stables : les réorientations y restent internes, comme si les étudiants cherchaient moins à changer de cap qu’à modifier leur angle d’approche (contenus, options, établissements, etc.).
En somme, nous pouvons affirmer que les trajectoires étudiantes se complexifient. Derrière ces mouvements, il ne faut pas voir un simple signe d’instabilité : les réorientations dessinent de nouvelles manières de construire un projet, par essais, par détours et par réajustements.
Les titulaires d’un bac général sont surreprésentés parmi les étudiants en réorientation après une première année dans l’enseignement supérieur : ils représentaient 73 % des candidats acceptant une nouvelle proposition en 2023, contre 68 % en 2019. À l’inverse, la part des bacheliers technologiques et professionnels parmi les étudiants en réorientation a reculé entre 2019 et 2023, passant respectivement de 22 % à 19 % et de 10 % à 8 %. À des fins de contextualisation, les titulaires d’un bac général représentaient 54 % des diplômés du bac en 2022, contre 20 % pour les technologiques et 26 % pour les professionnels, ce qui indique une plus forte réorientation des généralistes.
Cette dynamique peut refléter une plus grande flexibilité des parcours ou, à l’inverse, des obstacles spécifiques freinant la mobilité académique des autres bacs.
Durant la même période, une logique semblable se retrouve du côté des catégories sociales : les enfants de cadres et professions intellectuelles supérieures passent de 30 % à 32 % du public en réorientation, tandis que les enfants d’ouvriers reculent de 14 % à 11 %. Ces chiffres sont à mettre en regard de leur poids dans la population (21,7 % pour les cadres, 18,6 % pour les ouvriers) et parmi les bacheliers : un quart des titulaires du bac sont issus d’un milieu de cadres. Leur surreprésentation en réorientation s’inscrit donc dans une continuité sociale.
La réussite scolaire précédente a aussi une influence : les réorientés sans mention au bac représentaient 47 % du public en 2018, contre 33 % en 2023. Dans le même temps, la part des mentions « assez bien » augmente, devenant même majoritaire en 2022 (36 %). Cette évolution suit celle du système d’évaluation, qui est marqué par l’essor du contrôle continu.
Enfin, le sexe administratif révèle des disparités genrées : en 2023, 59 % des réorientés sont des filles contre 41 % de garçons, en hausse par rapport à 57 % et 43 % en 2018. Ces écarts sont cohérents avec les taux d’obtention du bac (93 % des filles contre 88 % des garçons en 2022), mais aussi avec des stratégies différenciées de choix d’orientation selon le genre.
Comment l’expliquer ? La réorientation mobilise des ressources inégalement distribuées : compréhension des mécanismes d’affectation, capacité à formuler des vœux stratégiques, anticipation des calendriers, accès à un accompagnement souvent familial ou encore confiance en sa légitimité à changer de voie. Autant d’éléments qui prolongent la critique d’un système scolaire méritocratique en apparence, mais inégalitaire dans les faits.
L’évolution des usages de Parcoursup montre une chose : les étudiants utilisent de plus en plus la première année pour « tester », voire réajuster, leur orientation. Ce n’est pas un mal en soi : expérimenter, essayer, se tromper fait partie de la vie étudiante. Mais, cela suppose que les institutions suivent, avec des capacités d’accueil adaptées, un accompagnement renforcé, et surtout une équité entre les primo-entrants et les réorientés.
Or, sur ces points, les politiques publiques accusent un retard : les réorientations ne sont ni anticipées ni outillées, et les étudiants les plus fragiles restent ceux qui en payent le prix.
Les lycéens et les étudiants souhaitant se réorienter en première année d’études supérieures passent par la même plateforme. Ce phénomène complexifie la gestion des places, car les candidats peuvent postuler tout en restant inscrits dans leur formation actuelle. Pensée comme un outil d’accès à l’enseignement supérieur, Parcoursup joue désormais aussi un rôle central et parfois flou dans les réorientations.
La réorientation ne peut pas être considérée comme un échec, c’est souvent la preuve d’un ajustement lucide. Encore faut-il que les outils suivent, et que les logiques d’exclusion ne se perpétuent pas. Plutôt que de juger les étudiants qui changent de voie, il est temps de reconnaître qu’au vu de l’évolution du système éducatif, la première année d’études est devenue un moment d’exploration souvent nécessaire.
Il s’agit maintenant collectivement de faire en sorte qu’elle ne devienne pas une fabrique de tri social. Cela suppose d’adapter les bourses, logements, et dispositifs d’aide aux étudiants déjà inscrits dans le supérieur. C’est une manière de réduire les inégalités de « mobilité scolaire ».
Dorian Vancoppenolle ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
02.06.2025 à 14:52
Simon Chadwick, Professor of AfroEurasian Sport, EM Lyon Business School
Paul Widdop, Associate Professor of Sport Business, Manchester Metropolitan University
Ronnie Das, Associate Professor in Data Science, Sports Analytics and AI, The University of Western Australia
La finale masculine de la Ligue des champions 2025 de l’UEFA s’est terminée par un triomphe du Paris Saint-Germain sur l’Inter de Milan (5-0). PSG et Inter, deux équipes stars de football. Paris et Milan, deux villes emblématiques de la mode. Fonds qatari Qatar Sports Investments et fonds états-unien Oaktree, deux propriétaires richissimes.
Quelle qu’ait été l’équipe gagnante, l’UEFA loue le succès de son nouveau format, impliquant plus d’équipes, plus de matchs et plus de fans. Bien sûr, tout le monde n’est pas d’accord avec ce nouveau format. Mais en résultats commerciaux, il ne fait aucun doute que la Ligue des champions continue de générer d’énormes sommes d’argent pour toutes les personnes impliquées.
Grâce aux droits de diffusion lucratifs, aux accords de sponsoring et à la vente de billets, les sommes distribuées aux clubs à l’issue de la compétition de cette saison sont exorbitantes : plus de 2,4 milliards d’euros de prix en jeu, contre 2 milliards d’euros l’an dernier.
En atteignant la finale, le Paris Saint-Germain (PSG) a déjà gagné 138 millions d’euros, et l’Inter Milan 137,39 millions d’euros.
Le PSG a reçu une récompense supplémentaire de 6,46 millions d’euros, tandis que la victoire devrait également générer environ 35,58 millions d’euros de revenus futurs en participant à des tournois comme la Supercoupe d’Europe.
La qualification pour la finale a également stimulé la valeur de la marque des clubs et l’engagement des fans. Dans les dernières étapes du tournoi, l’Inter Milan a connu une énorme croissance de son nombre de followers sur les réseaux sociaux.
Mais malgré tous les chiffres importants figurant sur les relevés de revenus et les comptes de médias sociaux, la finale de cette année a une dimension culturelle qui est difficile à mesurer uniquement en chiffres.
Paris et Milan sont toutes deux des capitales mondiales de la mode, abritant des créateurs célèbres et des marques convoitées dans le monde entier. Le PSG et l’Inter Milan ont pour mission d’imiter ces marques, avec un football attrayant qui apporte prestige et héritage.
Certains parallèles peuvent être établis entre le style des équipes et les deux villes rivales. Le PSG, par exemple, en se concentrant sur la construction d’une équipe remplie de jeunes talents locaux, a réussi à refléter la sophistication et la flamboyance de Paris.
À lire aussi : Derrière la rivalité des clubs de football, celle (de l’ego) de leurs présidents
Les partenariats de l’équipe avec Jordan et Dior positionnent le club comme un réceptacle pour l’image mondiale de la ville : audacieuse, luxueuse, cosmopolite.
L’Inter de Milan, quant à elle, bien qu’elle manque de joueurs de renom, incarne une approche italienne classique, disciplinée et défensive du football – historiquement appelée catenaccio, et pouvant se traduire par « verrou ». Un accord parfait avec le style vif et distinctif des maisons de couture basées à Milan.
Cette identité n’est pas enracinée dans la flamboyance, mais dans le raffinement et la rigueur – à l’image de la confection précise de Prada et Armani. Si le PSG est l’emblème du luxe mondial, l’Inter est le modèle de la culture du design italien, moins performatif, mais plus exigeant.
Ensemble, le PSG et l’Inter sont les ambassadeurs de l’identité urbaine pour ces villes. Paris et Milan cherchent à exercer une influence bien au-delà de leurs frontières, une stratégie de soft power non seulement à travers l’architecture ou le tourisme, mais aussi à travers la performance esthétique du sport.
De cette façon, le football devient le théâtre d’une compétition symbolique entre les villes, où l’identité civique est canalisée à travers des images symboliques et matérielles telles que des kits, des campagnes et des fans internationaux. Dans cette finale, il y a un choc d’ambition urbaine, un jeu de soft power entre deux des métropoles les plus soucieuses de leur image en Europe.
Sur le plan géopolitique, les enjeux sont nombreux. La deuxième participation du PSG à une finale de la Ligue des champions est d’une importance capitale pour les propriétaires qataris du club. Le président Nasser al-Khelaïfi a passé des années à investir dans des joueurs vedettes étrangers pour aider à construire l’image de l’État du Golfe. Ces dernières saisons, le club a changé de stratégie vers la signature de jeunes talents locaux.
Cela a permis au PSG de se positionner comme un club parisien tout en renforçant les relations qatariennes avec le gouvernement français. C’est particulièrement important à l’heure actuelle car, à partir de la saison prochaine, le PSG aura un rival local. L’année dernière, LVMH a acquis le Paris FC, qui semble prêt à se battre avec son rival local pour le titre de club le plus en vue de la capitale.
Pour sa part, l’Inter a récemment changé de propriétaire, en passant des mains de la famille Zhang à celles du fonds d’investissement Oaktree. Acquis par une entreprise chinoise en 2016, le club a connu des difficultés – malgré une autre finale de Ligue des champions en 2023 – alors que la tentative de révolution du football chinois a échoué.
En mai 2024, le club a été racheté par un fonds d’investissement américain. Ces dernières années, il s’agit d’une tendance dans le football européen selon laquelle le capital-investissement américain a triomphé des investissements soutenus par les États.
Tout cela met en place une autre bataille de football classique de notre époque. Alors que 450 millions de personnes regardent une finale de la Ligue des champions, le ballon rond est devenu un choc d’idéologies autant qu’il s’agit de stars, de villes et de mode.
Simon Chadwick teaches for UEFA's Academy and is a Programme Lead for the European Club Association.
Paul Widdop et Ronnie Das ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
02.06.2025 à 12:46
Sophie Renault, Professeur des Universités en Sciences de Gestion et du Management, Université d’Orléans
Adoptés par de nombreuses marques, les visuels de figurines sous starter pack ont rapidement envahi les réseaux sociaux. Derrière cette stratégie virale en apparence efficace se cache une communication mimétique, simplificatrice qui s’est rapidement trouvée en situation d’essoufflement. Une tendance qui en dit long sur les dérives de la communication à l’ère de l’instantanéité.
En avril 2025, il était difficile d’échapper à la vague des « starter packs ». Les réseaux sociaux LinkedIn, Instagram ou bien encore Facebook ont été submergés par des visuels, tous construits selon le même schéma : une figurine numérique, enfermée dans un blister plastique, entourée d’accessoires miniatures et nommée selon un profil type : « Consultante dynamique », « Manager HPI », « RH en télétravail »… Le tout génère immédiatement un effet de connivence : l’on s’identifie, on like, on partage.
Le plus souvent généré par intelligence artificielle, le starter pack reprend l’idée d’associer une série d’objets représentatifs à un profil type, en l’inscrivant dans l’esthétique du jouet. De madame et monsieur Tout-le-Monde aux personnalités publiques comme Élodie Gossuin ou Alexia Laroche-Joubert, en passant par différentes organisations, tous ont contribué à populariser le format starter pack. France Travail, l’Afpa, Basic Fit, Lidl, Paul, Vichy, Michelin ou bien encore Extrême Ice Cream… nombreuses sont les organisations ayant décliné leur univers sous forme de figurines stylisées.
Le format séduit, car il est immédiatement lisible, amusant, propice à l’interaction. Il permet aussi aux acteurs institutionnels ou marchands d’adopter un ton plus léger, plus complice.
Mais cette efficacité visuelle repose sur une logique de standardisation, voire de blanding. In fine, ce qui fait la force du starter pack, c’est-à-dire sa clarté formelle et sa facilité de mise en œuvre, est aussi ce qui a rapidement causé sa perte.
En quelques semaines à peine, la mécanique se retourne contre elle-même. Les publications se ressemblent, les accessoires deviennent interchangeables, les profils sont redondants. L’œil se lasse, l’attention baisse, l’effet de surprise disparaît.
La tendance se banalise au point de susciter l’ironie et la lassitude des internautes. Ce rapide essoufflement est typique des feux de paille numériques, où la viralité repose sur l’imitation, jusqu’à l’overdose.
Mais ici, l’enjeu est plus profond : il interroge la stratégie des marques elles-mêmes. Car en reprenant ce format sans en questionner les limites, elles contribuent à une communication mimétique, standardisée, où l’unicité du message est sacrifiée au profit de la visibilité à très court voire ultra court terme.
À lire aussi : Marketing sur les réseaux sociaux : à chaque produit son influenceur…
Au-delà de la redondance visuelle, le format pose problème dans ce qu’il représente : il réduit une personne, un métier ou un style de vie à une série d’attributs figés. La mise en perspective des métiers en tension par France Travail est de ce point de vue symptomatique. Enfermés dans leur « starter pack », un agriculteur avec fourche, tracteur et pot à lait ou bien encore l’aide de cuisine avec une poêle et un faitout. La caricature n’est pas seulement visuelle. L’humour masque mal la simplification excessive. Et cette simplification est d’autant plus problématique que nombre des organisations qui ont surfé sur cette tendance se veulent inclusives.
Le choix esthétique du blister plastique n’est pas anodin. Il évoque l’univers de l’objet standardisé, du produit prêt à consommer, de la figurine figée. Cette symbolique plastique, ludique en apparence, entre en dissonance avec les discours actuels sur la responsabilité des marques, la durabilité ou bien encore l’authenticité.
Abonnez-vous dès aujourd’hui !
Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).
Autre élément sujet à polémiques : la plupart de ces visuels sont générés par intelligence artificielle (IA). La promesse de gain de temps et d’efficacité graphique masque une réalité moins reluisante : production massive de contenus à faible valeur ajoutée, mais dont l’empreinte carbone est croissante. La multiplication d’images par IA interroge profondément à l’heure où la sobriété numérique devient un objectif affiché par les organisations. Combien de « prompts » avant d’obtenir le starter pack espéré ?
Face à cette standardisation accélérée, une contre-tendance artisanale a vu le jour. En écho à l’initiative du dessinateur français Patouret, plusieurs illustrateurs ont lancé le hashtag #StarterPackNoAI pour proposer des versions dessinées à la main de ces figurines, revendiquant une démarche 100 % humaine et incarnée.
Une manière de remettre de la singularité dans un format devenu générique et de rappeler que la créativité n’a pas à être automatisée pour être pertinente.
Beaucoup d’organisations ont ainsi, au travers de ce choix de communication, ouvert la voie aux critiques. Citons les commentaires suscités par la mise en perspective des métiers en tension par France Travail :
« Pas ouf d’utiliser cette trend polluante, terriblement gourmande en ressources naturelles et un véritable pied-de-nez aux artistes alors que des graphistes inscrits [à France Travail] seraient ravis de rejoindre les équipes de Com’ en DR [direction régionale], DT [direction territoriale], DG [direction générale]… […] Surfer sur les tendances de ce genre, pour moi, c’est remettre en question le sérieux de l’institution. Encore une fois, il y a des graphistes qui cherchent du taf, et ça n’a jamais dérangé différentes strates de France Travail de faire appel à des prestataires… »
ou bien encore un laconique :
« Pas de RSE à FT [France Travail], juste “greenwashing et trendsurfing”. »
Le succès éclair du starter pack en dit long sur les tensions qui traversent aujourd’hui la communication des marques.
Tiraillées entre la nécessité de produire vite, de suivre les tendances, d’être vues, et la volonté de construire du sens, elles cèdent trop souvent à l’appel de formats prêts à l’emploi, esthétiques mais creux.
Le starter pack aura été un joli emballage pour peu de messages. Un outil de communication qui amuse un instant, mais ne construit ni confiance ni engagement durable. Ce n’est pas un nouveau langage, c’est un symptôme : celui d’une communication fascinée par l’effet, mais en perte de sens.
Sophie Renault ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
02.06.2025 à 12:46
Clara Letierce, Enseignante-Chercheure en Management Stratégique, Burgundy School of Business
Anne-Sophie Dubey, Maîtresse de conférences en Théorie des organisations (Cnam), PhD Sciences de gestion/Éthique des affaires (Polytechnique Paris), MSc Philosophie et Politiques publiques (LSE), Conservatoire national des arts et métiers (CNAM)
Caroline Mattelin-Pierrard, Maître de conférences en sciences de gestion et du management, Université Savoie Mont Blanc
Matthieu Battistelli, Maitre de conférences en sciences de gestion, IAE Savoie Mont Blanc
Dans l’entreprise libérée, le rôle de décideur se partage au sein des équipes. Alors, sans chef pour trancher, qui ose prendre des décisions difficiles ? L’entreprise libérée donne-t-elle du courage ? Oui, à condition qu’elle équilibre autonomie individuelle et préservation du collectif, et fasse du courage une pratique partagée au quotidien.
En mars dernier, Jean-François Zobrist, à la tête de la fonderie d’Hallencourt de 1983 à 2009, est mort. Ce dirigeant d’entreprise singulier a mis en place son concept de « l’entreprise libérée ». Ses mantras : la confiance plus que le contrôle, l’homme est bon alors faisons-lui confiance.
Traditionnellement, le manager incarne un nœud de pouvoir et porte, souvent seul, les responsabilités des décisions. Dans l’entreprise libérée, ce rôle de décideur se partage au sein des équipes. Alors, sans chef pour trancher, qui prend la responsabilité de dire à ses collègues quand ils ne sont « plus dans le coup », que l’entreprise perd en efficacité, qu’un recrutement ne fonctionne pas. En résumé, qui ose dire et prendre des décisions difficiles ?
Les entreprises libérées semblent exiger davantage de courage. Comment créer un environnement favorable à ces actions courageuses ? Ou, dis autrement, comment permettent-elles de construire des organisations encourageantes ? Longtemps perçu comme une vertu individuelle au sens d’Aristote, le courage au travail mérite d’être repensé collectivement. En nous inspirant de la philosophie néo-aristotélicienne et de travaux récents en sciences de gestion, nous avons étudié trois entreprises – FlexJob, Innovaflow et Fly The Nest – assimilées entreprise libérée pour comprendre ce qui permet aux salariés d’oser être, dire et agir, tout en préservant le ciment du collectif.
Les salariés participent activement aux choix moraux et à leur incarnation dans le déploiement stratégique de l’entreprise. Ils vont parfois jusqu’à refuser des projets incompatibles avec leurs valeurs communes.
« L’éthique, c’est se dire : “On se fait suffisamment confiance dans la collaboration, on vient se nourrir l’un l’autre.” On ne se met pas en mode : “Je viens prendre ce que j’ai à prendre et je me casse.” Donc il y a ce côté-là entre nous. Et ça se décline aussi sur l’éthique professionnelle avec les clients. » (Innovaflow)
Ces discussions sont complexes, car elles font appel aux valeurs et expériences personnelles. Elles exposent les vulnérabilités de chacun. Il ne s’agit pas seulement d’oser, mais de savoir quand et comment le faire pour préserver le collectif en limitant les tensions. Autrement dit, les décisions courageuses doivent intégrer leur impact émotionnel sur le collectif. Les salariés doivent discerner quand et où partager leurs arguments. Les questions financières et salariales, par exemple, peuvent en fait devenir éthiques au regard des enjeux émotionnels qu’elles provoquent.
« En sachant que la [question de l’argent] va faire vivre des émotions parce qu’on est des humains et que l’argent, c’est un sujet tabou qui cristallise plein de choses… […] il y a une logique de performance, de développement de l’activité, de justice… Le salaire n’est pas forcément toujours juste vis-à-vis d’autres dans la boite par rapport à qui apporte effectivement plus. » (FlexJob)
Pour encourager ces délibérations, ces entreprises mettent en place des dispositifs pour « outiller » le courage :
« Je prends l’exemple du plan de charge d’une personne qui a onze jours, une personne qui a deux jours. Si la règle c’est de tous viser sept ou huit jours, on s’appuie sur cette règle et probablement qu’il n’y aura même pas besoin de le dire. […] Tu n’as même plus besoin de gérer les tensions. Mais pour ça, il faut créer les conditions. » (Flexjob)
« On a remis à jour notre process de décision en se disant : “Déjà, c’est quoi, une décision très stratégique, une décision moyennement stratégique ?” Et à chaque fois, il y a un process différent. Et on donne la possibilité de faire à l’écrit ou à l’oral. Certains ont dit :“Moi, j’ai besoin d’avoir du temps avant de décider.” Donc on a dit : “D’abord, tu envoies un message à l’écrit et après, on décide à l’oral.” Donc, de séparer des temps. » (Fly The Nest)
Plutôt que de subir les règles imposées par des normes financières ou sociales, les entreprises libérées développent une approche évolutive de leurs pratiques, ce qui demande du courage. Chez FlexJob, l’un des principes fondateurs est la capacité permanente à questionner et modifier les règles existantes. Chaque processus, chaque outil de gestion peut être revu et amélioré si le collectif estime qu’il ne correspond plus aux besoins de l’entreprise.
Abonnez-vous dès aujourd’hui !
Chaque lundi, des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH, marketing, finance…).
« Nous avons commencé à compter notre temps de travail. Nous, on veut travailler idéalement 32 heures par semaine. Tous les mois, mon cercle va demander aux gens : “Est-ce que vous vous situez à peu près à 32 heures par semaine ?” […] Voilà, c’est des petites choses, c’est du test, mais pour encourager l’individu qui essaie de gérer beaucoup trop de choses, à faire ce qui est bon pour elle et l’organisation. » (Fly The Nest)
Si l’entreprise libérée se veut un espace propice au courage, elle soulève aussi tensions et paradoxes :
1. Trop de bienveillance empêche-t-elle le courage ?
La culture de la bienveillance, souvent mise en avant dans ces entreprises, peut paradoxalement freiner l’expression d’un courage authentique. Les employés peuvent hésiter à exprimer un désaccord par peur de heurter le collectif.
« Moi, j’ai encore du mal à faire des feedbacks, j’ai encore du mal à le faire, parce que je suis de nature très empathique, parce que je déteste le conflit. » (Fly The Nest)
2. L’autonomie est-elle oppressive ?
Le collectif peut instaurer des normes implicites de comportement qui restreignent la liberté individuelle. Si chaque individu est responsable de ses actes, la pression sociale peut ainsi devenir un substitut à la hiérarchie traditionnelle ou à la règle. Ce phénomène est documenté dans certaines entreprises libérées, où l’adhésion aux valeurs communes devient une injonction difficile à questionner.
3. Le courage du désaccord est-il réellement encouragé ?
L’un des piliers des entreprises libérées est la prise de décision collective. Le désaccord est souvent sous-exploité dans ces entreprises. Le mécanisme d’objection, bien que prévu, n’est pas facilement utilisé, par peur de dégrader la relation à l’autre et de se voir exclu du collectif (c’est ce que l’on nomme le « dilemme relationnel »).
« Je propose d’essayer non pas de définir des règles plus claires pour qu’il y ait moins de conflits, mais au contraire de définir des zones communes plus grandes pour qu’il y ait plus de conflits, et régler systématiquement ces conflits pour qu’on s’habitue à se dire les choses et qu’on crée la confiance, en “s’affrontant” sur des choses un peu plus triviales, pour être capables de dire quand ça ne va pas. » (Fly The Nest)
Au-delà de son outillage, le courage au travail se nourrit de mécanismes de distanciation critique. Incarnée par des rituels et des moments de recul, elle introduit une culture du courage permettant aux salariés de partager librement leurs doutes et d’être soutenus dans leurs prises de décision. Cette régulation collective prévient les risques de dérives individualistes et/ou sectaires, identifiés comme des dangers dans les entreprises libérées.
Le courage n’est pas qu’un état d’esprit : il repose sur des dispositifs organisationnels aidant les individus à gérer leurs craintes des répercussions négatives de leurs actes. Plutôt que d’évacuer à tout prix les émotions, il s’agit de les interroger pour y réagir dans la juste mesure, dans la lignée de la pensée d’Aristote. Il n’y a pas de courage sans peur, ce qui implique comme corollaire que le courage ne doit pas devenir une fin en soi.
Le courage, c’est parfois ne pas céder à une franchise prématurée, c’est savoir attendre ou se taire, pour protéger la qualité de la relation au travail et choisir le bon moment. Finalement, l’entreprise libérée est-elle véritablement encourageante ? Oui, à condition qu’elle équilibre autonomie individuelle et préservation du collectif et faire du courage une pratique partagée au quotidien. Loin d’être un simple laisser-faire, ces entreprises mettent en place des dispositifs pour structurer et cultiver l’exercice du courage afin que chacun soit encouragé à oser être, dire et agir en toute responsabilité.
Anne-Sophie Dubey est co-fondatrice du Disruptive Co-Consulting Group (DCG) LLC. Anne-Sophie Dubey a mené une thèse CIFRE (bourse de l'ANRT et financement par La Fabrique de l'industrie).
Caroline Mattelin-Pierrard a reçu des financements de la Fondation de l'Université Savoie Mont Blanc.
Matthieu Battistelli a reçu des financements de la Fondation de l'Université Savoie Mont Blanc.
Clara Letierce ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
02.06.2025 à 12:45
Caroline Diard, Professeur associé - Département Droit des Affaires et Ressources Humaines, TBS Education
Hybridation et hyperconnectivité : une stratégie d’évitement pour échapper aux tâches domestiques ? Débranche et revenons à nous ! Une étude menée en 2022 conclut que les hommes prennent davantage part aux tâches domestiques et familiales en situation de télétravail à domicile. Le télétravail, le jackpot de l’équilibre vie professionnelle-personnelle ?
Cinq années après la pandémie de Covid-19 et le télétravail massif, les scientifiques en organisation ont mis en lumière les effets secondaires du travail hybride : agencement organisationnel, brouillage des frontières vie privée/vie professionnelle et surcharge de travail. Le télétravail touche aujourd’hui un quart des salariés en France, deux tiers des cadres. Il est particulièrement répandu chez les personnes en CDI, les plus diplômées, chez les plus jeunes et dans le secteur privé.
Cette révolution copernicienne du travail produit des effets dans la sphère intime du couple. Le rapport du Haut Conseil à l’égalité entre les femmes et les hommes, « Pour une mise en œuvre du télétravail soucieuse de l’égalité entre les femmes et les hommes », mentionne de nombreuses inégalités subies par les femmes, notamment en matière de répartition des tâches domestiques et de charge mentale. Le déséquilibre entre hommes et femmes serait amplifié avec le télétravail. En cause les difficultés de garde d’enfants et l’espace de travail inadapté.
Nouvelle donnée : ce mode de travail hybride permet d’échapper à certaines tâches domestiques. Pour ce faire, nous avons mené une étude quantitative entre le 3 février et le 3 mars 2022 auprès de 211 télétravailleurs à domicile, au lendemain de la levée de l’obligation de télétravailler. Elle conclut que, parmi notre échantillon, les hommes prennent davantage part aux tâches domestiques et familiales en situation de télétravail à domicile. Une meilleure conciliation des temps de vie et une moindre participation aux tâches domestiques pourraient ainsi s’avérer favorables aux femmes.
Alors le télétravail à domicile peut-il réduire les inégalités professionnelles de genre en créant un ré-équilibrage des tâches en faveur des femmes ?
Pour la sociologue Marianne Le Gagneur, le télétravail ne redistribue pas les cartes d’une division sexuelle du travail domestique inégalitaire. Les télétravailleuses tablent sur cette journée pour laver leur linge ou faire la vaisselle par exemple, elles n’ont plus de véritables pauses. L’enquête 2023 de l’UGIC-CGT suggère également que le télétravail se solde pour les femmes par des journées plus intenses. Ce contexte de difficultés techniques rend leur activité moins fluide et plus hachée que celle des hommes – problèmes de connexion, de matériel, d’applications numériques.
Nos résultats vont partiellement à l’encontre de ces études et enquêtes. Ils enrichissent ceux de Safi qui conclut à une répartition plus équitable des tâches domestiques en situation de télétravail. À la question « Quand vous travaillez à domicile, profitez-vous de l’occasion pour vous occuper de vos enfants le cas échéant ? 16 % des hommes répondent « souvent ou très souvent » contre 8 % pour les femmes.
À la question « Quand vous travaillez à domicile, en profitez-vous pour vous occuper des tâches domestiques ? » 29 % des hommes son concernés contre 28 % pour les femmes.
Les hommes prennent part aux tâches domestiques et familiales. Ces résultats ambivalents et surprenants pointent le télétravail comme un enjeu au cœur du rééquilibrage des temps et une répartition différente des contraintes domestiques entre les hommes et les femmes.
Pour 82 % des répondants à l’étude de l’UGIC-CGT, le télétravail est plébiscité pour garantir un meilleur équilibre vie professionnelle/vie personnelle. Cette promesse d’une meilleure articulation des temps de vie s’accompagne d’une augmentation du temps de travail – 35,9 % des répondants – et de difficultés à déconnecter. Seulement 36 % des répondants bénéficient d’un dispositif de droit à la déconnexion, alors même que ce droit se trouve dans le Code du travail. Cela suggère que le télétravail, qu’il soit exclusif ou en alternance, est associé à des niveaux de tensions d’équilibre pro/perso inférieurs à ceux du travail exclusivement en présentiel.
Abonnez-vous dès aujourd’hui !
Chaque lundi, des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH, marketing, finance…).
Les derniers chiffres de l’Observatoire de l’infobésité sont éloquents : 20 % des e-mails sont envoyés hors des horaires de travail (9 heures-18 heures) ; 25 % des managers se reconnectent entre 50 et 150 soirs par an ; 22 % des collaborateurs ont entre 3 et 5 semaines de congés numériques (sans e-mails à envoyer) par an. Alors que les emails sont identifiés comme source de stress générant des comportements d’évitement.
La notion d’évitement correspond à des efforts volontaires d’un individu pour faire face à une situation qu’il évalue comme stressante. Elle implique que cette situation est perçue comme difficile à surmonter et menaçante pour son bien-être. Un individu met en place différents processus entre eux. Il peut ressentir cet événement comme menaçant. L’enjeu est d’échapper à une situation inconfortable.
La dépendance à l’hyperconnectivité peut s’expliquer par des injonctions implicites ou une forme d’autocontrôle et d’autodiscipline. Cela suggère une servitude volontaire où les employés répondent aux sollicitations professionnelles à tout moment. Cette hyperconnectivité pourrait être un prétexte pour échapper aux tâches domestiques considérées comme peu valorisantes. Le collaborateur, volontairement ou non, se connecte ou répond à des sollicitations en dehors des horaires classiques de travail. Peut-être pour échapper à des contraintes personnelles et familiales ? Et s’investir dans un champ unique limitant la charge mentale.
L’imbrication croissante des espaces de travail et de vie personnelle due à l’hyperconnectivité engendre des conflits de rôle. Elle ajoute un stress supplémentaire aux individus et compromet leur bien-être. Autrefois, les frontières entre les temps et lieux de travail et de vie privée étaient claires : on se connectait au bureau à 9 heures et on se déconnectait à 18 heures, laissant ainsi le travail derrière soi. Aujourd’hui, ces frontières se sont effacées, rendant la déconnexion plus difficile à gérer.
Cette hybridation des espaces de vie, où le travail et les activités domestiques ou familiales s’entremêlent, apporte certes de la flexibilité. Elle permet par exemple d’emmener ses enfants à la crèche avant de se connecter au travail. Mais ce « mélange des genres » peut aussi être source de stress. Il génère un sentiment d’incapacité à tout gérer en même temps, provoquant des conflits de rôle, où les exigences professionnelles empiètent sur la vie personnelle et inversement.
Caroline Diard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
01.06.2025 à 20:24
Pierre-Nicolas Baudot, Docteur en science politique, Université Paris-Panthéon-Assas
Le 5 juin, les militants du Parti socialiste désigneront leur premier secrétaire – les finalistes étant Olivier Faure et Nicolas Mayer-Rossignol. Longtemps hégémonique à gauche, parti de gouvernement, le PS s’est effondré en 2017 puis a connu sa plus lourde défaite électorale avec la candidature d’Anne Hidalgo (1,7 % des voix) lors de la présidentielle de 2022. Quelles sont les causes structurelles de ce lent déclin ? Le PS peut-il se remettre en ordre de bataille pour les municipales de 2026 et la présidentielle de 2027 ?
À l’occasion de son 81e congrès à Nancy, le Parti socialiste (PS) s’est mis en ordre de bataille pour désigner sa direction et arrêter ses principales orientations. À un an d’un scrutin municipal qui lui est traditionnellement favorable et à deux ans d’une élection présidentielle encore illisible, cet exercice expose au grand jour les maux profonds du parti. Il donne à voir le tableau paradoxal d’une organisation marginalisée électoralement sur la scène nationale, mais engluée dans des logiques anciennes de professionnalisation et de présidentialisation.
La lecture des trois textes d’orientation du congrès de Nancy dessine quelques lignes idéologiques communes : la défense du rôle de la puissance publique dans la gestion de l’économie, une meilleure répartition des richesses, la nécessité de la transition écologique ou encore la confiance au projet européen. Cependant, au-delà de ces emblèmes, la réflexion apparaît particulièrement peu poussée sur plusieurs enjeux cardinaux, comme le rapport au capitalisme et à la mondialisation, la stratégie géopolitique ou, plus largement encore, la singularité d’un projet socialiste dans le monde actuel. Pour autant, tous les textes en appellent à la reprise d’un travail sur les idées et au rétablissement des liens avec la société civile.
Des éléments qui reviennent comme des airs populaires à chaque congrès du parti, depuis maintenant plusieurs décennies. Et de fait, le congrès de Nancy peine à paraître pour autre chose qu’un combat de personnes. Même l’alliance avec La France insoumise (LFI) n’est plus véritablement en jeu, puisque les différents textes proposent une alliance de la gauche non insoumise. Ce rapport du PS à la production d’idées permet de dépasser l’immédiate actualité du congrès pour saisir quelques tendances de plus long terme éclairant l’état actuel du parti.
Évoquant leur identité intellectuelle, les socialistes brandissent volontiers la référence à la social-démocratie, pour se démarquer tant du macronisme que d’une gauche de rupture renvoyée à son irresponsabilité et à sa naïveté. Cependant, la conversion du PS en parti de gouvernement a largement conduit – à l’instar des partis sociaux-démocrates étrangers – à faire de cette référence le signifiant d’une pratique du pouvoir plutôt que d’un contenu idéologique précis. Cela traduit, plus largement, l’érosion continue des capacités du parti à produire des idées et à justifier intellectuellement sa propre existence. Ce que Rafaël Cos a diagnostiqué comme un « évidement idéologique du Parti socialiste » s’exprime, par exemple, dans la faible portée idéologique de la formation des militants, la distance avec les intellectuels, la disparition des revues de courants ou le faible intérêt pour la production programmatique.
Plus encore, c’est la capacité du parti à travailler collectivement qui est en question. Les secrétariats nationaux, qui constituent les lieux ordinaires de l’expertise partisane, sont la plupart du temps très peu investis. S’ils se sont formellement multipliés au fil des années, c’est surtout pour accroître le nombre de places à la direction du parti. De même, si diverses conventions thématiques ont régulièrement été organisées, leurs conclusions sont traditionnellement vite laissées de côté. À l’inverse, les conflits sont légion et ont pris, à l’occasion des alliances avec LFI, des tours particulièrement violents. Et cela, alors même que l’éloignement idéologique entre courants est sans commune mesure avec ce que le parti a pu connaître par le passé.
Ce constat tient d’abord à des logiques sociales. À mesure qu’il s’est converti en un parti de gouvernement à partir des années 1980 et qu’il a accumulé des positions électorales, le parti s’est considérablement professionnalisé. Non seulement la part des élus dans ses instances de direction s’est accrue, mais de plus le travail quotidien du parti a de plus en plus été pris en charge par des collaborateurs d’élus, formés au métier politique.
Dans le même temps, la part des militants extérieurs à cet univers s’est réduite. En particulier, les militants simultanément engagés dans les secteurs associatifs ou syndicaux se sont considérablement raréfiés. Les relations avec ces espaces s’en sont mécaniquement trouvées modifiées : outre qu’elles se sont distendues, elles se sont professionnalisées dès lors que les relations avec le parti transitent essentiellement par les élus.
Cette dynamique s’articule bien sûr à l’évolution idéologique du parti, et notamment aux conséquences de sa mue sociale-libérale sur son image auprès des profils les plus populaires, mais également auprès des fonctionnaires (notamment des enseignants) pourtant historiquement proches du PS.
Cette professionnalisation a aussi eu pour conséquence, comme l’écrivent Rémi Lefebvre et Frédéric Sawicki, de « bouleverser l’économie interne et morale » du parti, au point que « les intérêts électoraux sont devenus prépondérants à tous les niveaux ». Cela s’est accompagné d’une place croissante laissée aux mesures professionnalisées de l’opinion, que constituent les médias et les sondages.
La professionnalisation du parti s’est également répliquée sur le fonctionnement collectif du parti. D’abord, ses succès électoraux depuis les années 1970 et jusqu’en 2017 ont permis au PS de constituer ce qui s’est apparenté à une véritable rente électorale. L’enjeu pour les principaux courants devenait alors de se maintenir à la direction du parti, pour participer à la gestion des ressources électorales et à la distribution des investitures.
S’est alors progressivement instauré ce que le politiste Thierry Barboni a qualifié de « configuration partisane multipolaire ». Cette expression décrit la présence, au sein de la majorité du parti, de plusieurs sous-courants s’entendant pour gérer le parti. Les désaccords idéologiques se trouvent alors minorés, derrière des jeux d’allégeance peu lisibles et un important flou stratégique considéré comme une condition de l’unité politique. Surtout, ces désaccords sont dissociés des enjeux de désignation de la direction. C’est ce dont témoigne le congrès du Mans, en 2005, qui aboutit à une synthèse générale entre des courants qui s’étaient pourtant fortement affrontés peu avant au sujet du Traité constitutionnel européen.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
La défaite du PS en 2017 puis, surtout, les alliances à gauche de la Nouvelle Union populaire écologique et sociale (Nupes) et du Nouveau Front populaire (NFP) ont de nouveau mis face à face plusieurs camps distincts. Les espaces de la délibération collective du parti ne s’en sont pas, non plus, trouvés revigorés pour autant. La compétition pour la direction encourage une forme de maximisation des différences, quand bien même les divers textes d’orientation convergent vers de nombreux points, mais les débats collectifs demeurent peu nombreux. Surtout, ils ont peu à voir avec la définition d’un contenu idéologique.
C’est ce dont témoigne encore la candidature de Boris Vallaud, ancien soutien d’Olivier Faure, à la direction du parti. Si le dépôt d’une motion par le président du groupe socialiste à l’Assemblée nationale contre le premier secrétaire est un événement, il répond en réalité davantage aux enjeux d’incarnation qu’à une alternative politique profonde.
Ainsi le parti doit-il gérer l’expression interne du pluralisme et s’évertuer à contenir les divisions que laisse paraître la démocratie partisane, sans pour autant en tirer de réels bénéfices collectifs.
Enfin, le parti a connu une forte présidentialisation, c’est-à-dire que son organisation s’est largement faite autour des logiques imposées par l’élection présidentielle. Dès les lendemains de la seconde élection de François Mitterrand, en 1988, les différentes écuries présidentielles se sont développées autour des principaux « présidentiables du parti ». Cette logique a été maximisée dans les années 2000, puis institutionnalisée avec l’adoption des primaires. Chaque écurie est alors incitée à constituer ses propres ressources expertes, sans les mettre à la disposition de l’ensemble du parti au risque d’en voir les bénéfices appropriés par d’autres. L’accumulation d’expertise au fil du temps et la stabilisation d’une ligne commune dépendent donc largement de l’état des rapports de force.
Ainsi, si d’une part la « configuration partisane multipolaire » tend à suspendre le débat collectif, les différentes écuries entretiennent leurs propres espaces de travail hors du parti. Aujourd’hui encore, c’est moins l’accès des socialistes à diverses expertises qui est en jeu que la capacité du parti à travailler collectivement. Cela vaut d’autant plus que les faibles perspectives électorales du parti sur le plan national renforcent les divisions avec l’échelon local. En effet, nombre d’élus n’entendent pas renier les stratégies adoptées localement, au nom d’une stratégie nationale dont les retombées électorales paraissent faibles.
Ces évolutions ont accompagné la domination du PS sur l’ensemble de la gauche plusieurs décennies durant. Si elles ont un temps préservé la machine électorale des divisions, elles ont également conduit à dévitaliser fortement le parti. Ses capacités de médiation entre l’opinion publique et les espaces de pouvoir se sont largement affaiblies. À mesure que s’érodaient ses réseaux dans la société, ses facultés à tirer profit de l’activité du mouvement social s’amenuisaient, de même que ses possibilités de voir ses propositions et ses mots d’ordre infuser dans divers espaces sociaux. C’est également la place des militants qui a été modifiée, en raison de leur faible implication dans l’élaboration programmatique et dans la gestion de la vie du parti. Il en résulte que, non seulement ceux-ci sont aujourd’hui très peu nombreux (41 000 au congrès de Marseille en 2023), mais que de plus ils ont une faible emprise sur les destinées du parti.
En définitive, le PS paraît difficilement pouvoir faire l’impasse d’une refonte organisationnelle profonde. Il s’est construit au fil des décennies autour d’importantes ressources électorales et d’un statut de parti de gouvernement. Son effondrement national a cependant révélé un modèle adapté à la gestion de positions de pouvoir, plutôt qu’à la conquête électorale. Il en résulte le constat paradoxal d’une organisation aux perspectives de victoire présidentielle faible, mais encore paralysée des effets de la professionnalisation et de la présidentialisation.
Pierre-Nicolas Baudot ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
01.06.2025 à 17:06
Marie-Claire Considère-Charon, Université Marie et Louis Pasteur (UMLP)
En ce mois de mai 2025, le premier ministre britannique a réussi à sceller un accord avec Washington qui permet à son pays d’échapper dans une certaine mesure à la hausse des droits de douane promulguée par Donald Trump, et un autre avec l’UE, qui solde certains effets du Brexit.
C’est dans un contexte de nouvelles menaces sur son économie, déjà affaiblie par les répercussions commerciales du Brexit, que le Royaume-Uni s’est rapproché de ses deux principaux partenaires, les États-Unis et l’Union européenne, en vue de conclure des accords. En invoquant l’exemple de son illustre prédécesseur, Winston Churchill, le premier ministre britannique Keir Starmer s’est d’emblée montré résolu à ne pas « choisir entre l’Europe et le grand large ».
L’objectif du leader du parti travailliste, en poste depuis le 5 juillet 2024, est de concilier deux objectifs essentiels mais peu compatibles, semble-t-il : raffermir la relation transatlantique d’une part, et relancer les relations avec l’UE, d’autre part.
Dans le cadre du désordre géopolitique provoqué par les décisions intempestives de la Maison Blanche de taxer lourdement les produits importés aux États-Unis, le premier ministre s’est d’abord tourné vers son interlocuteur américain pour tenter de le convaincre d’appliquer au Royaume-Uni un traitement préférentiel.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Dès le 26 février 2025, à l’occasion de sa visite à la Maison Blanche, il avait tenté d’amadouer le président Trump en lui remettant l’invitation du Roi Charles à une seconde visite d’État, qui a été acceptée avec enthousiasme.
Le 3 avril 2025, au lendemain de l’annonce par la Maison Blanche d’une augmentation à 25 % des droits de douane sur les importations d’automobiles britanniques, Starmer a choisi de ne pas riposter mais d’agir à l’égard de son partenaire américain avec calme et sang-froid, selon ses propres termes, en soulignant que toutes ses décisions seraient uniquement guidées par l’intérêt national et les intérêts de l’économie britannique.
Sa démarche, au nom de la « relation spéciale » qui unit les deux pays, a également été étayée par des arguments commerciaux : il a rappelé que son pays n’enregistrait pas d’excédent commercial avec les États-Unis et qu’il était naturel que le président revoie à la baisse les droits de douane à l’encontre des produits britanniques. Il était en effet crucial pour Londres d’obtenir de moindres taux d’imposition, voire des exonérations, de façon à sauver des milliers d’emplois menacés, dans les secteurs de l’industrie automobile et de la sidérurgie.
Le volontarisme de Starmer, qui a pu compter sur une équipe soudée et des conseillers compétents et avisés, s’est toutefois heurté à des partenaires coriaces et à un Donald Trump versatile et peu conciliant, ce qui augurait mal d’une issue positive. Mais le moment s’est révélé propice au rapprochement, lorsque les États-Unis ont commencé à subir l’effet boomerang de leurs mesures punitives, à l’heure où les porte-conteneurs sont arrivés à moitié vides dans les ports américains.
Starmer est en effet parvenu, le 8 mai dernier, à signer avec Trump un accord par lequel Trump revenait sur son engagement à ne pas accorder d’exonérations ou de rabais sectoriels. Les droits de douane sont passés de 25 % à 10 % pour 100 000 voitures britanniques exportées chaque année. Les États-Unis ont également consenti à créer de nouveaux quotas pour l’acier et l’aluminium britanniques sans droits de douane, et à être plus cléments envers le Royaume-Uni lorsqu’ils imposeront à l’avenir des droits de douane pour des raisons de sécurité nationale sur les produits pharmaceutiques et d’autres produits.
En contrepartie, le Royaume-Uni a sensiblement élargi l’accès à son marché des produits de l’agroalimentaire américain comme le bœuf, ainsi que le bioéthanol mais n’a toutefois pas cédé à la pression de Washington, qui souhaitait le voir réviser à la baisse les normes britanniques en matière de sécurité alimentaire. Il s’agissait d’une condition préalable à toute forme d’assouplissement des échanges de denrées alimentaires et de végétaux entre le Royaume-Uni et l’Union européenne.
L’accord du 8 mai 2025 a une portée limitée car il ne couvre que 30 % des exportations britanniques, et l’industrie pharmaceutique n’a pas été prise en compte. Il devrait être suivi d’un accord commercial complet, mais aucun calendrier n’a été programmé. Et Trump peut revenir à tout moment sur les concessions qu’il a accordées au Royaume-Uni. Une autre critique majeure à l’encontre de cet accord est qu’il enfreint la clause de la nation la plus favorisée, qui figure en général dans les accords de commerce international, et permet à chaque pays de se voir appliquer une égalité de traitement par ses partenaires commerciaux.
Cet accord, qui est intervenu une semaine après la signature de l’Accord de libre-échange avec l’Inde, représente pour le premier ministre britannique une victoire politique, d’autant mieux accueillie qu’elle survient au moment où sa cote de popularité n’est plus qu’à 23 %, tant les critiques se sont multipliées quant à son déficit de leadership et à des mesures souvent jugées inéquitables. Keir Starmer s’est également attelé à une autre tâche primordiale : celle de la réinitialisation des relations avec l’Union européenne, qui s’était amorcée sous le mandat de son prédécesseur Rishi Sunak avec la signature du cadre de Windsor, qui allégeait le dispositif des échanges en mer d’Irlande.
Dans ce domaine comme dans celui de la relation transatlantique, il s’est agi d’un travail de longue haleine, jalonné par une longue série de rencontres et de réunions entre les autorités britanniques et la présidente de la Commission européenne, ainsi qu’entre leurs équipes, sous la direction du Britannique Nick Thomas-Symonds, ministre en charge du Cabinet office, de la Constitution et des Relations avec l’Union européenne, et du vice-président de la Commission européenne Maros Sefcovic.
Le sentiment, partagé entre les deux parties, de l’impérieuse nécessité de relancer des relations abîmées par « les années Brexit », obéissait à des raisons à la fois commerciales et géopolitiques. Il a permis l’émergence d’une nouvelle dynamique, où la défiance n’était plus de mise. Sans qu’il soit question de revenir sur l’engagement britannique du non-retour au marché unique ni à l’union douanière, l’ambition des Britanniques, comme celle des Européens, était de renforcer la coopération et la coordination en vue de nouvelles dispositions et d’actions conjointes au niveau des échanges et de la politique de sécurité et de défense.
Dans un contexte économique très difficile, il était urgent pour les Britanniques d’apporter des solutions au problème persistant des échanges entre le Royaume-Uni et son principal partenaire commercial, l’UE, qui avaient chuté de 15 % depuis 2019, désormais dépassées en volume par celles à destination des pays hors Union européenne.
L’accord signé le 19 mai 2025 avec l’UE à Lancaster House officialise une nouvelle phase des relations entre les deux parties et constitue une première étape vers une coopération renforcée. Il apporte des réponses concrètes sur certains dossiers critiques, comme celui des échanges transfrontaliers de marchandises, ou sensibles, comme celui de la pêche, et ouvre des perspectives prometteuses sur d’autres dossiers comme celui d’un partenariat de sécurité et de défense ainsi que celui de la mobilité des jeunes Européens et Britanniques.
Les nouvelles dispositions commerciales auront pour effet de réduire sensiblement l’impact de la frontière en mer d’Irlande sur les échanges de marchandises, en particulier entre la Grande-Bretagne et l’Irlande du Nord, qui continuent à pâtir du dispositif douanier, malgré la signature du Cadre de Windsor. En introduisant la mise en place d’une zone sanitaire et phytosanitaire entre le Royaume-Uni et l’UE, il met fin aux certificats sanitaires d’exportation et ouvre la voie vers un « alignement dynamique » des normes réglementaires des deux parties.
Les Européens demandaient que soient reconduits les droits de pêche qui, en vertu de l’Accord de commerce et de coopération entre le Royaume-Uni et l’UE de 2021, permettaient aux pêcheurs de l’UE d’accéder aux eaux territoriales britanniques jusqu’en 2026. Le Royaume-Uni a accepté la reconduction des droits de pêche des Européens pour 12 années de plus, jusqu’en 2038. Ces concessions ont été obtenues en échange de dispositions visant à faciliter l’entrée des denrées alimentaires sur le marché européen. Elles ont également ouvert la voie vers la mise en œuvre d’un pacte de défense et de sécurité.
Les turbulences géopolitiques déclenchées par l’administration Trump, ainsi que la poursuite de la guerre en Ukraine, ont donné un nouvel élan à la coopération en matière de défense et de sécurité entre le Royaume-Uni et l’UE. Le partenariat de sécurité et de défense signifie l’engagement mutuel à s’entendre sur les sujets majeurs comme celui du soutien à l’Ukraine et celui de l’avenir de l’OTAN, et les moyens de réduire la dépendance militaire vis-à-vis des États-Unis. Il ouvre la voie vers l’accès du Royaume-Uni au fonds européen de financement des États membres de l’UE, SAFE (Security Action for Europe) à hauteur de 150 milliards d’euros, qui sert à financer des équipements et des opérations militaires conjointes des pays de l’UE.
La mise en œuvre d’un programme de mobilité des jeunes afin de faciliter les échanges culturels et les projets pilotes était une question difficile dans la mesure où les jeunes Européens sont beaucoup plus nombreux à fréquenter les universités britanniques que l’inverse. L’accord intitulé « Youth Experience » n’est en réalité qu’un engagement à progresser dans la direction d’une plus grande ouverture aux jeunes Européens et du rétablissement du programme Erasmus.
Le Brexit a considérablement compliqué les échanges du Royaume-Uni avec l’Union européenne, son premier partenaire commercial. Il l’a tout autant rendu plus vulnérable à l’insécurité à l’échelle mondiale. Keir Starmer a compris la nécessité de sortir son pays de l’isolement où l’a cantonné le Brexit, en cultivant ou en restaurant les relations avec ses deux partenaires privilégiés, les États-Unis et l’Union européenne. Il y a toutefois lieu de se demander si, compte tenu du dérèglement de l’ordre mondial provoqué par le président des États-Unis, ainsi que de son hostilité affichée à l’égard de l’Europe, le premier ministre britannique pourra encore longtemps refuser de choisir son camp entre l’Europe et l’Amérique.
Marie-Claire Considère-Charon est membre du comité éditorial de l'Observatoire du Brexit et membre du groupe de recherche CREW (Center for Research on the English-speaking Wordl) Sorbonne nouvelle.
01.06.2025 à 14:15
Mehdi Guelmamen, Doctorant en sciences économiques, Université de Lorraine
Alexandre Mayol, Maître de conférences HDR en sciences économiques, Université de Lorraine
Justine Le Floch, Doctorante en sciences de gestion, Université Paris 1 Panthéon-Sorbonne
Stéphane Saussier, Professeur des universités, IAE Paris – Sorbonne Business School
Après les sécheresses de 2022 et de 2023, la disponibilité de l’eau potable en France n’a plus rien d’une évidence. Le modèle économique de distribution de l’eau imaginé à un moment où la ressource semblait infinie mérite d’être repensé. La tarification, d’une part, et l’exploitation, d’autre part, sont au cœur des réflexions à mener.
La France, longtemps épargnée par le stress hydrique grâce à un climat tempéré, découvre désormais la rareté de l’eau potable, comme en témoignent les sécheresses de 2022 et 2023. Ces épisodes extrêmes ont frappé les esprits : 343 communes ont dû être ravitaillées en urgence par camions-citernes, et 90 % des départements ont subi des restrictions d’usage de l’eau. En 2023, le gouvernement a lancé un « Plan Eau » pour anticiper les pénuries et encourager un usage plus responsable de la ressource.
Le défi à relever est immense : assurer un accès durable à l’eau potable exigera des investissements massifs et une profonde adaptation des pratiques. Quel modèle économique permettra de relever ce défi ? Deux pistes principales se dégagent : utiliser le prix de l’eau pour inciter à la sobriété, et repenser la gestion et le financement du service d’eau potable.
En France, le service de l’eau potable fonctionne comme un monopole naturel : les coûts fixes élevés (entretien des réseaux de distribution, stations de pompage et usines de traitement) rendent inefficace toute mise en concurrence. La gestion du service est confiée aux collectivités locales, qui peuvent choisir entre au moins deux modes d’organisation : une régie publique ou une délégation à un opérateur privé.
Longtemps, l’effort s’est concentré sur l’extension des réseaux, notamment en zone rurale. La tarification a visé l’équilibre financier, conformément au principe du « l’eau paie l’eau », sans objectif environnemental explicite. Le prix du mètre cube reste, aujourd’hui encore, bas par rapport à la moyenne européenne, même s’il varie fortement selon les territoires. Il combine une part fixe, une part variable ainsi que diverses taxes et redevances.
Plusieurs dispositifs ont néanmoins encouragé l’intégration d’une dimension environnementale dans le prix de l’eau pour inciter à la sobriété, mais ont fait l’objet de critiques fortes. La loi sur l’eau et les milieux aquatiques de 2006 a, par exemple, encouragé le recours au tarif « progressif ». Ce tarif consiste à moduler la part variable du prix en fonction du volume consommé selon des tranches prédéfinies. Le principe est simple : plus le foyer consomme, plus il paiera cher.
Ce dispositif, séduisant sur le principe, a pourtant suscité une faible adhésion au niveau local (à peine une dizaine de services sur 8 000 en France avant 2023). Au niveau national, le président de la République, Emmanuel Macron avait évoqué sa généralisation en réponse à la sécheresse, mais le rapport du CESE de novembre 2023 a enterré cette proposition. À l’étranger des communes, comme Bruxelles, ont abandonné la tarification progressive après avoir constaté ses trop nombreux défauts.
À lire aussi : La nappe de Beauce, un immense réservoir d’eau confronté à la sécheresse et à la pollution
Pourquoi ce rejet ? Plusieurs obstacles limitent l’efficacité attendue de cette mesure. Il faut rappeler que la tarification progressive suppose une information complète du consommateur sur sa consommation. Or, la facturation de l’eau en France reste peu intelligible, en particulier dans l’habitat collectif où les appartements ne font l’objet que d’une refacturation une fois par an par leur syndic. Pire, de très nombreux logements anciens n’ont pas de comptage individuel et leur consommation n’est qu’estimée. Dans des villes comme Montpellier, seuls 33 % des logements sont individualisés et peuvent se voir appliquer la tarification progressive.
C’est la raison pour laquelle cette forme de tarif ne peut fonctionner qu’avec l’installation coûteuse de compteurs dans les logements. La tarification progressive a d’autres défauts, comme le fait que les tranches ne s’adaptent pas à la taille du foyer, pénalisant alors les familles nombreuses. Par ailleurs, ils ne s’appliquent pas toujours à l’ensemble des usagers, puisqu’ils ne concerneront pas, par exemple, les professionnels. Enfin, leur fonctionnement suppose une capacité des ménages à réduire leur consommation, ce qui n’est pas aussi simple.
Faut-il pour autant renoncer à faire évoluer les comportements par les tarifs ? Pas nécessairement. D’autres approches, comme la tarification saisonnière, pourraient envoyer un signal prix plus lisible en période de stress hydrique. L’objectif : rendre le consommateur acteur de la sobriété, sans complexifier à l’excès le système.
Responsabiliser les consommateurs ne suffira pas : encore faut-il que l’eau parvienne jusqu’à eux. Or, la ressource souffre également de la vétusté des infrastructures de distribution. Les pertes en eau à cause des fuites représentent 1 milliard de mètres cubes chaque année, soit l’équivalent de la consommation de 20 millions d’habitants. Les besoins en rénovation sont alors considérables et représentent, selon une étude de l’Institut national des études territoriales (Inet), 8 milliards d’euros pour les années à venir. Comment assurer le financement de ce « mur d’investissement » ? Plusieurs paramètres méritent d’être questionnés.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Premièrement, le principe selon lequel « l’eau paie l’eau » implique que le financement repose essentiellement sur la hausse du prix pour l’usager. Il y aura lieu toutefois d’arbitrer localement autour du partage de cette hausse de prix entre les professionnels et les ménages, mais également entre l’abonnement et la part volumétrique. Par exemple, augmenter la part fixe de l’abonnement de base afin que les résidences secondaires ou les usagers occasionnels – qui utilisent peu d’eau mais bénéficient tout de même de l’infrastructure – participent davantage aux coûts d’entretien du réseau. Si la hausse du prix s’avère insuffisante, le rôle des agences de l’eau pour aider financièrement les services en difficulté devra être repensé mieux fixer des objectifs contraignants de performance.
Ensuite, la coopération intercommunale peut apparaître comme un levier pour financer en commun les investissements. Alors qu’aujourd’hui plusieurs milliers de communes – souvent très petites – gèrent seules l’eau potable et peinent à assumer l’autofinancement des rénovations, se regrouper permettrait de mutualiser les travaux. La loi Notre de 2015 a précisément cherché à inciter les petits services de moins de 15 000 habitants à se regrouper, mais suscite beaucoup d’hostilité au niveau local. Même si la modalité de coopération peut être améliorée, la collaboration des communes dans la gestion des réseaux apparaît indispensable.
Enfin, le modèle économique actuel doit être repensé puisque les recettes des opérateurs reposent essentiellement sur les volumes facturés. Il apparaît contradictoire de promouvoir la sobriété hydrique si elle le conduit à faire baisser les recettes. Pour résoudre cette difficulté, des clauses de performance environnementale utilisées dans le secteur des déchets pourraient aussi s’appliquer dans les contrats d’eau, qui compenseraient la baisse des volumes par des primes. Ce mécanisme serait un levier efficace qui pourrait être appliqué à tous les opérateurs, publics comme privés.
Au-delà des contrats locaux, de nombreux experts plaident pour une refonte de la gouvernance du secteur, en s’inspirant de modèles étrangers. L’idée d’un régulateur économique national fait son chemin. Le pilotage global du secteur pourrait gagner en cohérence avec la création d’un régulateur économique national de l’eau potable. Cette autorité indépendante pourrait garantir une transparence accrue, limiter les asymétries d’information, et promouvoir des pratiques économes et durables. Les agences de l’eau pourraient également évoluer vers un rôle de régulation régionale, en intégrant mieux les enjeux du grand cycle de l’eau.
Le modèle économique français de l’eau potable arrive à un tournant. Face au changement climatique et aux aléas qui menacent notre approvisionnement en eau, faire évoluer ce modèle n’est plus une option mais une nécessité. Tarification plus intelligente, investissements massifs et coordonnés dans les réseaux, nouvelles règles du jeu pour les opérateurs et régulation renforcée : ces adaptations, loin d’être purement techniques, touchent à un bien vital dont la gestion nous concerne tous. L’eau potable a longtemps coulé de source en France ; demain, elle devra couler d’une gouvernance renouvelée, capable de concilier accessibilité pour les usagers, équilibre financier du service et préservation durable de la ressource.
Alexandre Mayol a reçu des financements de l'Agence de l'Eau Rhin-Meuse pour un projet de recherche académique.
SAUSSIER Stéphane a reçu des financements dans le passé de Veolia, Suez et de l'Office Français de la Biodiversité dans le cadre de projets de recherche.
Justine Le Floch et Mehdi Guelmamen ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
01.06.2025 à 12:26
Wissam Samia, Enseignant-chercheur, PhD en économie, Université de Picardie Jules Verne (UPJV)
Deux nouveau-nés ont émergé dans le paysage du fitness : le CrossFit, mêlant renforcement musculaire et exercice cardio-vasculaire, l’Hyrox y ajoutant la course à pied. Avec leur propre logique. Le premier sport s’appuie sur un réseau décentralisé de 700 salles en France. Le second sur plus de 83 évènements centralisés. Pour un même objectif : faire du sport un marché économique rentable.
Muscle-Up (traction + passage au dessus de la barre), clean & jerk (épaulé-jeté), Snatch (arraché), sled push (pousser un traîneau chargé sur une distance), burpee broad jumps (pompe et saut en longueur), wall balls (squat avec une médecine ball à lancer contre un mur)… si ces mots ne vous parlent pas, c’est que vous n’êtes pas encore adepte du CrossFit ou de l’Hyrox, ces sports qui séduisent plus de 200 000 adeptes dans l’Hexagone.
Ces deux modèles sont figures de proue du renouveau du fitness. Ces entraînements de haute intensité, en petits groupes, suivent un protocole défini par les entreprises du même nom. Le CrossFit mélange renforcement musculaire, haltérophilie, force athlétique, exercices cardio-vasculaires et mouvements gymniques. L’Hyrox y ajoute la course à pied, la force et l’endurance. Concrètement, huit fois un kilomètre de course à pied et un exercice de fitness.
Côté stratégie économique, le CrossFit s’appuie sur une logique décentralisée et un ancrage communautaire ; l’Hyrox repose sur une logique centralisée d’organisation d’évènements et un effet d’échelle. Si tous deux incarnent des paradigmes économiques distincts, ils convergent vers une même dynamique : valoriser le sport comme un marché. En explorant leurs structures de financement, leur impact territorial et leurs stratégies de diffusion, nous proposons une lecture critique de la façon dont le fitness devient un laboratoire de tendances pour l’économie de l’expérience.
Le modèle CrossFit repose sur une structure bottom-up. Chacune des 14 000 salles affiliées ou « box » – dont plus de 700 en France – constitue une entité juridique autonome, qui reverse une licence annuelle à CrossFit LLC tout en conservant une grande latitude opérationnelle. Ce modèle d’affiliation, proche du licensing, favorise une croissance extensive sans immobilisation de capital par la maison-mère. Le financement repose essentiellement sur les abonnements des adhérents et des revenus annexes – coaching, merchandising local. Ce modèle de dissémination rapide avec faible contrôle central est adossé à un capital social fort.
A contrario, Hyrox se positionne comme un acteur centralisé du sport-spectacle. La société allemande Upsolut Sports organise directement les compétitions et agrège la quasi-totalité des revenus – billetterie, droits d’inscription, sponsoring, ventes de produits dérivés. En 2020, l’entreprise a levé environ 5 millions d’euros lors d’une première phase de financement. En 2022, elle a vu Infront Sports & Media, filiale du conglomérat chinois Wanda Group, entrer majoritairement au capital. Ce modèle s’inscrit pleinement dans une logique de scale-up, caractérisée par une croissance rapide reposant sur des capitaux-risqueurs, une forte intégration verticale et l’ambition d’atteindre une masse critique à l’échelle mondiale. Hyrox contrôle l’ensemble de la chaîne de valeur – production, branding, diffusion – ce qui lui permet de capter directement les flux financiers et d’optimiser ses marges. Cette stratégie vise moins la rentabilité immédiate que la valorisation à long terme, en vue d’un positionnement hégémonique sur le marché du fitness compétitif globalisé.
Les exigences capitalistiques des deux modèles créent des barrières à l’entrée de natures différentes. Pour ouvrir une box CrossFit, l’entrepreneur doit s’acquitter d’une licence d’environ 4 000 euros par an, recruter du personnel certifié, et investir massivement dans du matériel et de l’immobilier – jusqu’à 100 000 euros d’investissement initial. Ce modèle repose sur un capital fixe élevé, mais offre un potentiel de revenus récurrents. Le prix d’abonnement mensuel, compris entre 80 et 150 euros, reflète ce positionnement premium.
Hyrox, en revanche, n’impose pas la création d’infrastructures dédiées. Les salles de sport existantes peuvent devenir partenaires pour proposer des entraînements Hyrox, contre une redevance modeste – environ 1 500 euros annuels. L’accès au marché repose sur un capital humain adapté et une mobilisation temporaire de ressources existantes. Pour l’usager final, le coût est concentré sur l’accès à l’événement, environ 130 euros par compétition. Cette accessibilité réduit les barrières à l’adoption pour les pratiquants et permet une diffusion plus rapide dans les territoires urbains et périurbains.
L’économie CrossFit repose sur une récurrence de flux financiers : abonnements mensuels, formations de coachs, compétitions communautaires et vente de produits dérivés. Ce modèle de revenu présente une certaine prévisibilité et résilience, notamment en cas de chocs exogènes. En France, avec près de 700 salles affiliées en 2023, ce modèle génère plusieurs dizaines de millions d’euros de chiffre d’affaires annuel. La nature décentralisée permet à chaque box d’adapter son offre au contexte local. Les compétitions locales, souvent organisées par les box elles-mêmes, renforcent l’ancrage territorial de l’activité et créent des retombées économiques indirectes – restauration, hôtellerie, transport.
À lire aussi : Tous en salle ? Comprendre l’obsession contemporaine pour les corps musclés
Hyrox, à l’inverse, fonde son modèle sur des activités ponctuelles mais à forte valeur ajoutée. Chaque événement est une unité de profit autonome, financée par les frais d’inscription, la billetterie et le sponsoring. En 2025, avec plus de 600 000 participants prévus dans 83 événements, Hyrox anticipe plus de 100 millions de dollars de revenus globaux. Le modèle mise sur une croissance rapide de sa base de clients et la monétisation de la marque via le merchandising et les droits médiatiques. La stratégie repose également sur l’effet de réseau : plus les événements se multiplient, plus la notoriété et la communauté s’étendent, renforçant la rentabilité marginale de chaque course organisée.
La pandémie de Covid-19 a constitué un test de robustesse pour ces deux modèles. CrossFit a connu une contraction temporaire, mais sa structure décentralisée et la forte cohésion communautaire ont permis une relance rapide dès 2022. Hyrox, bien qu’impacté par l’arrêt des événements, a utilisé cette période pour consolider ses financements et accélérer son internationalisation.
Depuis, une forme de convergence opère : de nombreuses salles CrossFit adoptent le label Hyrox, tandis qu’Hyrox recrute massivement dans la base de pratiquants CrossFit. Cette hybridation dessine un écosystème où les modèles ne s’excluent plus mais se complètent stratégiquement. Dans cette perspective, le fitness ne relève plus du seul loisir : il devient un vecteur stratégique d’accumulation et d’innovation dans les industries culturelles contemporaines. La prochaine décennie permettra sans doute d’observer si ces modèles s’institutionnalisent davantage ou s’ils cèdent la place à d’autres formats hybrides, adaptés aux mutations technologiques et sociales du sport connecté.
Wissam Samia ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
01.06.2025 à 09:27
Johan Lepage, Chercheur associé en psychologie sociale, Université Grenoble Alpes (UGA)
La recherche en psychologie sociale réfute la thèse de la banalité du mal. La violence dans les hiérarchies sociales est exercée par des individus qui se distinguent par un élément : leur orientation autoritaire – et ainsi par un comportement particulièrement coercitif, inégalitaire et intolérant.
Le chercheur en psychologie sociale Stanley Milgram publie en 1964 la première recherche expérimentale sur la soumission à l’autorité. Son protocole consiste à demander à des personnes volontaires d’infliger des décharges électriques à un autre participant (en réalité un compère de Milgram) dans le cadre d’une recherche prétendument sur les effets de la punition sur l’apprentissage. Un échantillon de psychiatres prédit une désobéissance quasi unanime, à l’exception de quelques cas pathologiques qui pourraient aller jusqu’à infliger un choc de 450 volts.
Les résultats provoquent un coup de tonnerre : 62,5 % des participants obéissent, allant jusqu’à administrer plusieurs chocs de 450 volts à une victime ayant sombré dans le silence après avoir poussé d’intenses cris de douleur. Ce résultat est répliqué dans plus d’une dizaine de pays auprès de plus de 3 000 personnes.
Ces données illustrent la forte propension à l’obéissance au sein de la population générale. Elles montrent également des différences individuelles importantes puisqu’environ un tiers des participants désobéit. Les caractéristiques socio-démographiques des individus et le contexte culturel semblent n’avoir aucune influence sur le comportement dans le protocole de Milgram. Comment expliquer alors les différences individuelles observées ?
Nous avons conduit une nouvelle série d’expériences dans les années 2010. Nos résultats montrent un taux d’obéissance similaire ainsi qu’une influence notable de l’autoritarisme de droite : plus les participants ont un score élevé à l’échelle d’autoritarisme de droite, plus le nombre de chocs électriques administrés est important.
La psychologie sociale traite la question de l’autoritarisme depuis plusieurs décennies. Cette branche de la psychologie expérimentale a notamment fait émerger dès les années 1930 une notion importante : celle d’attitude.
Une attitude désigne un ensemble d’émotions, de croyances, et d’intentions d’action à l’égard d’un objet particulier : un groupe, une catégorie sociale, un système politique, etc. Le racisme, le sexisme sont des exemples d’attitudes composées d’émotions négatives (peur, dégoût), de croyances stéréotypées (« les Noirs sont dangereux », « les femmes sont irrationnelles »), et d’intentions d’action hostile (discrimination, agression).
Les attitudes sont mesurées à l’aide d’instruments psychométriques appelés échelles d’attitude. De nombreux travaux montrent que plus les personnes ont des attitudes politiques conservatrices, plus elles ont également des attitudes intergroupes négatives (e.g., racisme, sexisme, homophobie), et plus elles adoptent des comportements hostiles (discrimination, agression motivée par l’intolérance notamment). À l’inverse, plus les personnes ont des attitudes politiques progressistes, plus elles ont également des attitudes intergroupes positives, et plus elles adoptent des comportements prosociaux (soutien aux personnes défavorisées notamment).
Les attitudes politiques et les attitudes intergroupes sont donc corrélées. Une manière d’analyser une corrélation entre deux variables est de postuler l’existence d’une source de variation commune, c’est-à-dire d’une variable plus générale dont les changements s’accompagnent systématiquement d’un changement sur les autres variables. Dit autrement, si deux variables sont corrélées, c’est parce qu’elles dépendent d’une troisième variable. La recherche en psychologie sociale suggère que cette troisième variable puisse être les attitudes autoritaires. Cette notion regroupe des attitudes exprimant des orientations hiérarchiques complémentaires :
l’orientation à la dominance sociale, une attitude orientée vers l’établissement de relations hiérarchiques, inégalitaires entre les groupes humains ;
l’autoritarisme de droite, une attitude orientée vers l’appui conservateur aux individus dominants.
La recherche en psychologie expérimentale, en génétique comportementale et en neurosciences montre invariablement que ce sont les attitudes autoritaires, plus que toute autre variable (personnalité, éducation, culture notamment), qui déterminent les attitudes intergroupes, les attitudes politiques, et ainsi le comportement plus ou moins coercitif, inégalitaire, et intolérant des personnes.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Étudions le cas d’un groupe : la police. Plusieurs études montrent que les policiers nouvellement recrutés ont des scores significativement plus élevés à l’échelle d’autoritarisme de droite que la population générale.
Ce résultat important suggère que les personnes autoritaires sont plus susceptibles de choisir une carrière dans la police (autosélection) et/ou que la police a tendance à privilégier les personnes autoritaires pour le recrutement (sélection). Les personnes autoritaires et l’institution policière semblent réciproquement attirées, ce qui entraîne un biais de sélection orienté vers l’autoritarisme de droite qui, on l’a vu, est responsable d’attitudes politiques conservatrices et d’attitudes intergroupes négatives.
À des fins de recherche, des universitaires ont développé un jeu vidéo simulant la situation d’un policier confronté à une cible ambiguë et devant décider de tirer ou non. Des personnes noires ou blanches apparaissent sur un écran de manière inattendue, dans divers contextes (parc, rue, etc.) Elles tiennent soit un pistolet, soit un objet inoffensif comme un portefeuille. Dans une étude menée aux États-Unis, les chercheurs ont comparé la vitesse à laquelle les policiers décident de tirer, ou de ne pas tirer, dans quatre conditions :
(i) cible noire armée,
(ii) cible blanche armée,
(iii) cible noire non armée,
(iv) cible blanche non armée.
Les résultats montrent que les policiers décidaient plus rapidement de tirer sur une cible noire armée, et de ne pas tirer sur une cible blanche non armée. Ils décidaient plus lentement de ne pas tirer sur une cible noire non armée, et de tirer sur une cible blanche armée. Ces résultats montrent un biais raciste dans la prise de décision des policiers. Ils réfutent l’hypothèse d’une violence policière exercée par seulement « quelques mauvaises pommes ».
On observe dans toutes les régions du monde une sur-représentation des groupes subordonnés parmi les victimes de la police (e.g., minorités ethniques, personnes pauvres). Les chercheurs en psychologie sociale Jim Sidanius et Felicia Pratto proposent la notion de terreur systémique (systematic terror) pour désigner l’usage disproportionné de la violence contre les groupes subordonnés dans une stratégie de maintien de la hiérarchie sociale.
On peut s’interroger sur la présence dans la police de membres de groupes subordonnés (e.g., minorités ethniques, femmes).
Une explication est l’importance des coalitions dans les hiérarchies sociales tant chez les humains que chez les primates non humains, comme les chimpanzés, une espèce étroitement apparentée à la nôtre. On reconnaît typiquement une coalition quand des individus menacent ou attaquent de manière coordonnée d’autres individus. Le primatologue Bernard Chapais a identifié plusieurs types de coalition, notamment :
les coalitions conservatrices (des individus dominants s’appuient mutuellement contre des individus subordonnés qui pourraient les renverser) ;
l’appui conservateur aux individus dominants (des individus subordonnés apportent un appui aux individus dominants contre d’autres individus subordonnés) ;
les coalitions xénophobes (des membres d’un groupe attaquent des membres d’un autre groupe pour la défense ou l’expansion du territoire).
La police regroupe des individus subordonnés motivés par l’appui conservateur aux individus dominants (tel que mesuré par l’échelle d’autoritarisme de droite) et la xénophobie (telle que mesurée par les échelles de racisme).
Dans son ensemble, la recherche en psychologie sociale réfute la thèse de la banalité du mal. La violence dans les hiérarchies sociales est exercée par des individus qui se distinguent par leur orientation autoritaire, et ainsi par un comportement particulièrement coercitif, inégalitaire, et intolérant.
Le mauvais état de la démocratie dans le monde suggère une prévalence importante des traits autoritaires. Lutter contre l’actuelle récession démocratique implique, selon nous, la compréhension de ces traits.
Johan Lepage ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
30.05.2025 à 11:25
Céline Leroy, Directrice de recherche en écologie tropicale, Institut de recherche pour le développement (IRD)
Avez-vous déjà observé une plante avec des feuilles de formes différentes ? Ce phénomène, à la fois surprenant et fascinant, porte un nom : l’hétérophyllie. Loin d’être une bizarrerie botanique, il s’agit d’une véritable stratégie d’adaptation, permettant à certains végétaux de mieux faire face à la diversité des contraintes de leur environnement.
Vous avez sans doute déjà croisé du houx en forêt, dans un jardin ou même en décoration de Noël. Ses feuilles piquantes sont bien connues. Mais avez-vous déjà remarqué que toutes ne sont pas armées de piquants ? Sur une même plante, on trouve des feuilles épineuses en bas, et d’autres lisses plus haut. Ce n’est pas une erreur de la nature, mais un phénomène botanique fascinant : l’hétérophyllie, un mot qui vient du grec heteros signifiant différent, et de phullon, qui désigne la feuille.
Cette particularité s’observe chez de nombreuses espèces, aussi bien terrestres qu’aquatiques, où un même individu peut produire des feuilles très différentes par leur taille, leur forme, leur structure, voire leur couleur. Loin d’être simplement esthétique, cette diversité joue un rôle crucial dans la survie, la croissance et la reproduction des plantes.
Mais d’où vient cette capacité à changer de feuilles ? L’hétérophyllie peut en fait être déclenchée par des variations de l’environnement (lumière, humidité, faune herbivore…). Cette faculté d’adaptation est alors le résultat de ce qu’on appelle la plasticité phénotypique. L’hétérophyllie peut aussi résulter d’une programmation génétique propre à certaines espèces, qui produisent naturellement plusieurs types de feuilles. Quelle qu’en soit l’origine, la forme d’une feuille est le résultat d’une série d’ajustements complexes en lien avec les conditions environnementales du milieu.
Si l’on reprend le cas du houx commun (Ilex aquifolium), celui-ci offre un exemple frappant d’hétérophyllie défensive en réaction à son environnement. Sur un même arbuste, les feuilles basses, à portée d’herbivores, ont des piquants ; celles plus haut sur la tige, hors d’atteinte des animaux, sont lisses et inoffensives. Cette variation permet à la plante d’optimiser ses défenses là où le danger est réel, tout en économisant de l’énergie sur les zones moins exposées, car produire des épines est coûteux.
Des recherches ont montré que cette répartition n’est pas figée. Dans les zones très pâturées, les houx produisent plus de feuilles piquantes, y compris en hauteur, ce qui indique une capacité de réaction à la pression exercée par les herbivores. Cette plasticité phénotypique est donc induite par l’herbivorie. Mais le houx n’est pas un cas isolé. D’autres plantes déploient des stratégies similaires, parfois discrètes, traduisant une stratégie adaptative : modifier la texture, la forme ou la structure des feuilles pour réduire l’appétence ou la digestibilité, et ainsi limiter les pertes de tissus.
La lumière joue un rôle tout aussi déterminant dans la morphologie des feuilles. Chez de nombreuses espèces, les feuilles exposées à une lumière intense n’ont pas la même forme que celles situées à l’ombre.
Les feuilles dites « de lumière », que l’on trouve sur les parties supérieures de la plante ou sur les branches bien exposées, sont souvent plus petites, plus épaisses et parfois plus profondément découpées. Cette forme favorise la dissipation de la chaleur, réduit les pertes d’eau et augmente l’efficacité de la photosynthèse en milieu lumineux. À l’inverse, les feuilles d’ombre, plus grandes et plus minces, sont conçues pour maximiser la surface de captation de lumière dans des conditions de faible éclairement. Elles contiennent souvent davantage de chlorophylle, ce qui leur donne une couleur plus foncée.
Ce contraste est particulièrement visible chez les chênes, dont les feuilles supérieures sont épaisses et lobées, tandis que celles situées plus bas sont larges, souples et moins découpées. De très nombreuses plantes forestières présentent également ces différences. Sur une même plante, la lumière peut ainsi façonner les feuilles en fonction de leur position, illustrant une hétérophyllie adaptative liée à l’exposition lumineuse.
Chez les plantes aquatiques ou amphibies, l’hétérophyllie atteint des formes encore plus spectaculaires. Certaines espèces vivent en partie dans l’eau, en partie à l’air libre et doivent composer avec des contraintes physiques très différentes.
C’est le cas de la renoncule aquatique (Ranunculus aquatilis), qui produit des feuilles très différentes selon leur emplacement. Les feuilles immergées sont fines, allongées et très découpées, presque filamenteuses.
Cette morphologie réduit la résistance au courant, facilite la circulation de l’eau autour des tissus et améliore les échanges gazeux dans un milieu pauvre en oxygène. En revanche, les feuilles flottantes ou émergées sont larges, arrondies et optimisées pour capter la lumière et absorber le dioxyde de carbone de l’air. Ce phénomène est réversible : si le niveau d’eau change, la plante ajuste la forme de ses nouvelles feuilles.
La sagittaire aquatique (Sagittaria spp.) présente elle aussi une hétérophyllie remarquable, avec des feuilles émergées en forme de flèche, épaisses et rigides et des feuilles souvent linéaires et fines sous l’eau. Ces changements illustrent une stratégie morphologique adaptative, qui permet à une même plante d’exploiter efficacement des milieux radicalement différents.
Pour suivre au plus près les questions environnementales, retrouvez chaque jeudi notre newsletter thématique « Ici la Terre ».
Mais l’hétérophyllie ne résulte pas toujours de l’environnement. Chez de nombreuses espèces, elle accompagne simplement le développement naturel de la plante. À mesure que la plante grandit, elle passe par différents stades de développement, au cours desquels elle produit des feuilles de formes distinctes.
Ce processus, appelé « hétéroblastie », marque bien souvent le passage entre les phases juvénile et adulte. Un exemple classique est celui du lierre commun (Hedera helix). Les tiges rampantes ou grimpantes portent des feuilles lobées caractéristiques du stade juvénile, tandis que les tiges qui portent les fleurs, situées en hauteur, portent des feuilles entières et ovales. Ce changement est irréversible et marque l’entrée de la plante dans sa phase reproductive.
À lire aussi : Le lierre « tueur d’arbre » : entre préjugés, ignorance et réalité
Un autre exemple frappant est celui de certains acacias australiens. Les jeunes individus développent des feuilles composées, typiques des légumineuses. À mesure qu’ils grandissent, ces feuilles sont progressivement remplacées par des phyllodes, des pétioles (c’est-à-dire la partie qui unit chez la plupart des plantes la base de la feuille et la tige) élargis qui assurent la photosynthèse tout en limitant l’évaporation (voir planche dessins, ci-dessous). Ces structures en forme de faucille sont particulièrement bien adaptées aux climats chauds et secs, car elles peuvent maintenir une activité photosynthétique efficace tout en minimisant les pertes hydriques.
Les mécanismes qui permettent à une plante de modifier la forme de ses feuilles sont complexes et encore mal compris. On connaît mieux les formes que prennent les feuilles que les mécanismes qui les déclenchent ou les fonctions qu’elles remplissent.
Chez certaines espèces, des hormones végétales telles que l’éthylène, l’acide abscissique (ABA), les auxines ou encore les gibbérellines (GA) jouent un rôle central dans le déclenchement des différentes formes de feuilles. Chez le houx, la différence entre feuilles piquantes et lisses serait liée à des modifications réversibles de la structure de l’ADN, sans altération des gènes eux-mêmes, déclenchées par la pression exercée par les herbivores.
Les plantes hétéroblastiques, quant à elles, sont principalement contrôlées par des mécanismes génétiques et moléculaires. La succession des types de feuilles au cours du développement peut néanmoins être accélérée ou retardée en fonction des conditions de croissance, traduisant une interaction fine entre développement et environnement.
La régulation de l’hétérophyllie repose ainsi sur une combinaison d’interactions hormonales, génétiques, épigénétiques et environnementales. Ce phénomène constitue également un exemple remarquable de convergence évolutive, car l’hétérophyllie est apparu indépendamment dans des lignées végétales très différentes. Cela suggère qu’il s’agit d’une solution robuste face à la diversité des conditions présentes dans l’environnement.
Les recherches futures, notamment grâce aux outils de génomique comparative, d’épigénomique et de transcriptomique, permettront sans doute de mieux comprendre l’évolution et les avantages adaptatifs de cette étonnante plasticité des formes de feuilles.
Céline Leroy a reçu des financements de ANR et de l'Investissement d'Avenir Labex CEBA, Centre d'Etude de la Biodiversité Amazonienne (ref. ANR-10-LABX-25-01).
29.05.2025 à 20:00
Nicolas Rascovan, Chercheur à l'Institut Pasteur, Université Paris Cité
Charlotte Avanzi, Assistant Professor, Colorado State University
Maria Lopopolo, Chercheur à l'Institut Pasteur, Université Paris Cité
Longtemps considérée comme une maladie infectieuse introduite en Amérique par les colonisateurs européens, la lèpre pourrait en fait avoir une histoire bien plus ancienne et plus complexe sur le continent. Une nouvelle étude internationale, publiée aujourd’hui dans la revue Science, révèle que Mycobacterium lepromatosis, une bactérie récemment identifiée qui cause la lèpre, infecte les humains en Amérique depuis au moins 1 000 ans, soit plusieurs siècles avant le contact européen.
La lèpre est une maladie chronique ancienne qui se manifeste par des lésions de la peau, des nerfs périphériques, de la muqueuse des voies respiratoires supérieures ainsi que des yeux. Elle est présente dans plus de 120 pays et 200 000 cas sont notifiés chaque année selon l’OMS. Les personnes touchées par la lèpre sont atteintes de difformités physiques et sont également confrontées à la stigmatisation et à la discrimination. Cependant, la lèpre est curable et le traitement à un stade précoce permet d’éviter les séquelles.
Cette maladie a longtemps été associée à une seule bactérie : Mycobacterium leprae, responsable de la forme dite « classique » de la maladie, décrite dans les manuels et prédominante à l’échelle mondiale. En 2008, une seconde espèce, Mycobacterium lepromatosis, a été identifiée au Mexique. Elle provoque des symptômes cliniquement très similaires, si bien qu’elle passe souvent inaperçue – seuls des tests génétiques ciblés permettent de la distinguer de M. leprae. Bien que le développement d’outils génétiques ait permis une intensification des recherches sur cette bactérie, les cas humains confirmés restaient principalement localisés en Amérique, notamment au Mexique et dans la région des Caraïbes. En 2016, la découverte inattendue de M. lepromatosis chez des écureuils roux dans les îles Britanniques – un réservoir animal dans une zone non endémique – a soulevé la question de l’origine géographique de cette bactérie.
Malgré des recherches intensives dans les données d'ADN anciens européens, M. lepromatosis n’a jamais été détectée sur le continent. C’est dans ce contexte que l’hypothèse d’une origine américaine a pris de l’ampleur. Notre projet est né d’une découverte fortuite de cette espèce dans les données publiées d’un individu d’Amérique du Nord daté à 1 300 ans avant le présent. Ce signal inattendu nous a conduits à étendre nos recherches, en retraçant sa présence passée par des analyses d’ADN ancien, et en documentant sa diversité actuelle à travers des cas modernes, pour mieux comprendre l’histoire et la circulation de ce pathogène largement négligé.
Cette étude est essentielle pour éclairer les mécanismes de transmission des bactéries responsables de la lèpre, en particulier en tenant compte de la diversité des réservoirs possibles. En reconstituant l’histoire évolutive et la distribution géographique de M. lepromatosis, nous espérons mieux comprendre comment cette bactérie se transmet encore aujourd’hui.
Nous avons analysé près de 800 échantillons, y compris des restes anciens d’ancêtres autochtones (couvrant plusieurs millénaires, jusqu’à 6 000 ans en arrière) et des cas cliniques modernes. Nos résultats confirment que M. lepromatosis était déjà largement répandue, du nord au sud du continent américain, bien avant la colonisation, et apportent une nouvelle perspective sur les souches qui circulent aujourd’hui.
Cette découverte modifie en profondeur notre compréhension de l’histoire de la lèpre en Amérique. Elle montre que la maladie était déjà présente parmi les populations autochtones depuis des siècles avant le contact européen, et qu’elle a évolué localement sur le continent.
Un aspect essentiel de ce projet a été la collaboration avec des communautés autochtones du Canada et d’Argentine. Celles-ci ont été activement impliquées dans les décisions concernant l’étude des restes humains anciens, la restitution des matériaux, ainsi que l’interprétation des résultats. Une représentante autochtone figure parmi les autrices de l’article. Cette démarche vise à respecter les principes d’éthique de la recherche et à renforcer le dialogue entre sciences et savoirs communautaires.
Nous avons mené le dépistage le plus vaste jamais réalisé pour ce pathogène, en analysant à la fois des restes humains anciens et des échantillons cliniques provenant de cinq pays : Mexique, États-Unis, Brésil, Paraguay et Guyane française. La plupart des cas positifs ont été identifiés au Mexique et aux États-Unis, ce qui reflète probablement à la fois une présence réelle du pathogène dans ces régions, mais aussi un échantillonnage plus intensif dans ces pays.
Pour retrouver des traces de pathogènes dans des restes humains anciens, nous avons utilisé une approche paléogénomique, une discipline qui permet d’extraire et d’analyser l’ADN conservé dans les os ou dans les dents pendant des siècles, voire des millénaires. Ce que nous récupérons est un mélange très complexe : de l’ADN du sol, des bactéries environnementales, de la personne décédée, et parfois – si l’individu était malade au moment de sa mort – de l’ADN de l’agent pathogène qui l’a infecté. Grâce aux technologies de séquençage à haut débit, nous lisons tous ces fragments d’ADN (souvent très courts, entre 30 et 100 bases), puis nous les comparons à de grandes bases de données contenant les génomes de tous les agents pathogènes connus.
Dans ce cas précis, nous avons identifié dans les échantillons anciens de petits fragments d’ADN couvrant environ 80 % du génome de Mycobacterium lepromatosis, ce qui nous a permis de confirmer sa présence chez un individu précolombien. Ensuite, nous avons concentré nos efforts sur cet échantillon pour récupérer davantage de fragments du pathogène, jusqu’à pouvoir reconstituer son génome complet. Cela nous a permis non seulement de confirmer l’infection, mais aussi d’analyser l’évolution génétique de la bactérie à travers le temps.
Fait remarquable, la bactérie a été retrouvée dans les ossements de trois individus anciens – une femme originaire du Canada actuel, datée par radiocarbone à environ 1 300 ans avant le présent (AP), et une femme et un homme d’Argentine actuelle, datés à environ 900 ans AP. Bien que séparés par plus de 10 000 km, leurs infections datent d’une période relativement proche (il y a près de 1 000 ans), et leurs souches sont génétiquement et évolutivement similaires. Cela suggère que la bactérie s’était largement répandue sur le continent en seulement quelques siècles. On ignore encore si cette dispersion rapide est due à des réseaux humains (commerce, contacts) ou à des animaux à forte mobilité.
Notre étude permet également de mieux comprendre un mystère ancien : la présence de Mycobacterium lepromatosis chez les écureuils roux dans les îles Britanniques. En 2016, une étude menée par la Dre Charlotte Avanzi, aujourd’hui co-première autrice de notre travail, avait révélé pour la première fois que ces animaux étaient porteurs de la bactérie, mais sans pouvoir expliquer son origine ni comment elle avait atteint les îles Britanniques.
Grâce à nos nouvelles analyses phylogénétiques, nous montrons que ces souches animales appartiennent à un lignage dérivé d’un ancêtre commun qui aurait émergé il y a environ 3 200 ans – bien avant les premiers contacts transatlantiques –, mais que leur diversification locale n’a commencé qu’au XIXe siècle. Cela suggère fortement une introduction récente depuis les Amériques, suivie d’une expansion dans la population d’écureuils. C’est la première preuve que M. lepromatosis, historiquement endémique aux Amériques, a commencé à se diffuser sur d’autres continents – une dynamique inverse à celle de M. leprae, arrivé en Amérique depuis l'Europe et l'Afrique avec la colonisation.
Ces résultats soulèvent des implications importantes en santé publique et appellent à surveiller la propagation intercontinentale de ce pathogène.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Parmi les découvertes les plus frappantes de notre étude figure l’identification d’un lignage très ancien de Mycobacterium lepromatosis, appelé NHDP-LPM-9, que nous avons retrouvé chez deux personnes aux États-Unis. Ce lignage se distingue de toutes les autres souches connues par un nombre significativement plus élevé de mutations, et notre analyse suggère qu’il aurait divergé des autres lignages, il y a plus de 9 000 ans. À titre de comparaison, la grande majorité des souches modernes que nous avons analysées – 24 sur 26 – appartiennent à un groupe beaucoup plus homogène, que nous avons appelé « clade dominant actuel » (Present-Day Dominant Clade, ou PDDC), qui représente environ deux tiers de la diversité génétique connue aujourd’hui. Ce clade semble s’être étendu après la colonisation européenne, probablement en lien avec les profonds bouleversements sociaux, écologiques et démographiques de l’époque.
La co-circulation actuelle de deux lignages ayant divergé il y a plusieurs millénaires suggère que d’autres lignées anciennes pourraient encore exister, mais être passées inaperçues jusqu’ici. Étant donné sa très faible fréquence apparente dans les cas humains récents, il est probable que M. lepromatosis ait évolué en partie dans un ou plusieurs réservoirs, depuis lesquels il pourrait occasionnellement infecter des humains. Ces résultats soulignent l’importance de mieux surveiller ce pathogène, encore très mal connu, pour en comprendre les mécanismes d’infection et de transmission.
Cette recherche bouleverse non seulement notre compréhension de l’origine de la lèpre, mais contribue à une question plus large : quelles maladies infectieuses existaient en Amérique avant 1492 ? Depuis des siècles, chercheurs et communautés autochtones s’interrogent sur le rôle des maladies dans l’histoire du continent. Cette étude apporte une nouvelle pièce à ce puzzle complexe.
Nicolás Rascovan est membre de l'UMR 2000 du CNRS Nicolás Rascovan a reçu financement Européen de l'ERC et Français de l'ANR
Charlotte Avanzi a reçu des financements de la Fondation Raoul Follereau
Maria Lopopolo a été financée pendant sa thèse de doctorat par l’Agence Nationale de la Recherche (ANR) et la Fondation pour la Recherche Médicale (FRM).
28.05.2025 à 17:03
François-Xavier Dudouet, Directeur de recherche sociologie des grandes entreprises, Université Paris Dauphine – PSL
En se rapprochant du président des États-Unis et en étant son conseiller chargé du département de l’efficacité gouvernementale (Department of Government Efficiency, DOGE), Elon Musk semblait avoir tout réussi et cumulé tous les pouvoirs : politique, économique, idéologique… Patatras ! En quelques semaines, son implication politique a eu des répercussions sur ses activités de chef d’entreprise de Tesla. La marque a été chahutée, au point qu’il est devenu possible de se poser une question qui aurait semblé impensable il y a six mois encore : et si l’avenir de Tesla se faisait sans Musk ? Est-ce souhaitable ? Possible ?
Le 1er mai 2025, le Wall Street Journal publiait un article selon lequel le conseil d’administration de Tesla avait entamé des démarches pour remplacer Elon Musk au poste de directeur général. L’annonce était aussitôt démentie par l’intéressé mais aussi par la présidente du conseil d’administration, Robyn Denholm, qui assurait que l’ensemble des administrateurs maintenait sa pleine confiance dans l’actuel directeur général. Cette annonce, qui semble avoir fait long feu, est l’occasion de revenir sur le fonctionnement de la gouvernance des grandes entreprises et de voir si, techniquement un actionnaire important, fût-il l’homme le plus riche du monde, peut être renvoyé l’entreprise qu’il dirige.
Pour rappel, Elon Musk dirige trois sociétés : SpaceX qu’il a fondé en 2002, Tesla, dont il a pris le contrôle entre 2004 et 2008 et X (ex-Twitter) qu’il a racheté en 2022. Sa fortune provient essentiellement des actions Tesla dont la valorisation spectaculaire en 2024 a fait de lui l’homme le plus riche du monde. Toutefois, le cours de l’action Tesla s’est depuis effondré, atteignant un plus bas à 221 $ en avril 2025 contre 479 $ en décembre 2024. Dans le même temps, la société affichait des ventes en recul de 13 % et des bénéfices en chute de 71 %. Très fortement engagé auprès de Donald Trump et de son administration, Elon Musk est régulièrement accusé de nuire à l’image de marque du constructeur et, surtout, d’avoir délaissé la gestion quotidienne de la compagnie. C’est dans ce contexte que prennent place les révélations du Wall Street Journal.
L’histoire du monde des affaires fourmille d’exemples de dirigeants actionnaires qui ont été contraints à la démission. Pour s’en tenir à l’univers de la Tech, on se rappelle que ce fut le cas de Steve Jobs, qui, bien que fondateur et actionnaire d’Apple, avait été poussé vers la sortie par le directeur général de l’époque, John Sculley, soutenu par le conseil d’administration. Larry Page et Sergei Brin, les fondateurs de Google, ont eux aussi très tôt laissé les rênes de la firme à un manager expérimenté, Eric Schmidt choisi par le conseil d’administration pour mener à bien l’introduction en bourse de la société. Les deux fondateurs d’Uber, Travis Kalanick et Garrett Camp, ont été progressivement écartés au point, aujourd’hui, de ne même plus être administrateurs de la société.
Elon Musk n’a pas fait autre chose à la tête de Tesla. Arrivé comme investisseur en 2004, il entre au conseil d’administration et en devient le président. Quelques années plus tard, il force le fondateur et directeur général, Martin Eberhard, à la démission. Après deux directeurs généraux intérimaires, il prend lui-même la direction exécutive de Tesla en 2008, cumulant les fonctions de président et de directeur général jusqu’en 2018, date à laquelle il est contraint, par la Securities and Exchange Commission d’abandonner la présidence du conseil d’administration. Ces différents exemples montrent bien qu’il ne suffit pas d’être actionnaire, ni même de détenir la majorité des droits de vote, pour diriger une société par actions. Il est primordial d’avoir l’appui du conseil d’administration car c’est cette instance qui, au final, fait et défait les directeurs généraux.
Les sociétés par actions ne sont pas des propriétés privées de leurs dirigeants mais des entités autonomes ayant une personnalité juridique et une existence propres. Les actions ne sont pas, en effet, des titres de propriété mais des droits sur la société. Les actionnaires, même quand ils possèdent la majorité des droits de vote, ne peuvent faire ce qui leur semble bon. Ils ne peuvent même pas pénétrer dans l’entreprise pour y prendre un boulon. Celui-ci appartient à la société non à eux. Les actionnaires ne sont donc pas les dirigeants par défaut ou par principe des sociétés par actions.
À lire aussi : Combien coûte l’ego d’Elon Musk ? Ou quand l’hubris des dirigeants devient un risque systémique
Cette fonction est dévolue au conseil d’administration, certes élu par les actionnaires, mais qui n’est pas, contrairement à ce qu’affirme la théorie économique dominante, au service de ces derniers. Les administrateurs ne représentent pas les actionnaires mais la société, dont ils sont les mandataires sociaux, c’est-à-dire les personnes qui sont habilitées à penser et à agir au nom de la société. S’ils suivent des politiques qui vont dans le sens des actionnaires, c’est qu’ils y trouvent leur intérêt, non qu’ils y soient légalement tenus. Leur pouvoir sur la société est très étendu : ils décident des grandes orientations stratégiques, établissent les comptes, proposent les dividendes, décident des émissions d’actions nouvelles et surtout nomment le directeur général. Leur autonomie est telle qu’ils sont en mesure de se coopter entre eux et de faire valider leur choix par les assemblées générales. C’est pourquoi il est important de se tourner vers la composition du conseil d’administration de Tesla pour comprendre comment Elon Musk a construit sa position de directeur général.
L’examen de la composition du conseil d’administration de Tesla montre, à première, vue des administrateurs totalement acquis à la cause d’Elon Musk. On y trouve tout d’abord Kimbal Musk, son frère, membre du conseil depuis 2004. Il a jusqu’à présent été loyal envers son aîné même si, contrairement à lui, il n’a pas renié ses convictions démocrate et écologiste. Ira Ehrenpreis est l’un des tout premiers investisseurs de Tesla. Présent au conseil d’administration depuis 2006, il peut être considéré comme un fidèle soutien. Robyn Denhom, la présidente du conseil d’administration, a été choisie par Elon Musk pour prendre sa place quand il a été contraint d’abandonner la fonction. Australienne d’origine, Robyn Denhom était assez peu connue du monde des affaires américain avant de devenir administratrice puis présidente de la compagnie. James Murdoch, administrateur depuis 2017, est le fils du magnat de la presse Robert Murdoch dont la chaîne Fox News est un soutien indéfectible de Donald Trump. Joe Gebbia, administrateur depuis 2022, est le co-fondateur de Airbnb. Il a rejoint Elon Musk au DOGE en février dernier.
Abonnez-vous dès aujourd’hui !
Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).
Kathleen Wilson-Thompson a fait toute sa carrière dans l’industrie pharmaceutique comme directrice des ressources humaines. Elle est sans doute l’administratrice la plus éloignée d’Elon Musk mais apportant au conseil le quota de féminisation et de diversité qui lui manque par ailleurs. Jeffrey Brian Straubel, enfin, est l’ancien directeur technique de Tesla. Présent dès les origines, il se flatte d’avoir été le cinquième employé de la société. Sa nomination en 2023 a fait grand bruit en raison des liens jugés trop étroits avec Elon Musk. Que ce soit par fraternité, idéologie ou carriérisme, les motifs de soutien à Elon Musk ne manquent pas. Ils sont encore renforcés par une politique de rémunération particulièrement généreuse à l’égard du conseil d’administration dont les membres s’attribuent régulièrement d’importants plans de stock-options. Robyn Denholm est ainsi la présidente la mieux rémunérée de l’ensemble des sociétés cotées américaines.
Elon Musk n’est pas en reste bénéficiant de plans d’actions très avantageux octroyés par le conseil d’administration. Il existe entre Elon Musk et son conseil un circuit d’enrichissement réciproque qui n’est pas sans rappeler les relations d’interdépendances décrites par le sociologue Norbert Elias à propos de la cour de Louis XIV tant les chances de profits de l’un sont liées à celles des autres. Ainsi que le rapportait récemment Olivier Alexandre, un autre sociologue, de la bouche d’un journaliste spécialiste de la Silicon Valley : « Si tu veux comprendre ce qui se passe ici, il faut suivre l’argent ».
Or, les flux d’argent se sont récemment taris chez Tesla. En premier lieu, des décisions de justice ont remis en question les rémunérations que les mandataires sociaux s’étaient attribuées. En novembre 2024, la cour du Delaware a annulé le plan d’actions attribué à Elon Musk en 2018 qui lui aurait permis d’empocher 58 milliards de dollars, au motif que les actionnaires n’avaient pas été correctement informés.
En janvier 2025, la même cour du Delaware constatait que les administrateurs de Tesla s’étaient indûment enrichis au détriment des actionnaires et approuvait un accord par lequel les premiers s’engageaient à rembourser près d’un milliard de dollars. Dans le même temps, alors que le cours de l’action de Tesla commençait à baisser, de nombreux administrateurs se sont délestés de leurs actions, quitte à accélérer la chute. Était-ce pour faire face à leur récente condamnation ou bien pour ne pas risquer de trop perdre ? Le fait est qu’ils ont vendu dans un contexte peu favorable et envoyé un signal très négatif aux investisseurs.
Ainsi, la présidente, Robyn Denhom, a vendu pour 200 millions de dollars d’actions depuis le mois de décembre 2024, Kimbal Musk s’est séparé de 75 000 actions Tesla pour la somme de 28 millions de dollars en février 2025, James Murdoch a à son tour a vendu 54 000 actions en mars 2025 pour 13 millions de dollars contribuant à la plus forte baisse journalière du titre. En mai, alors que le cours de l’action était bien remonté, c’est Kathleen Wilson-Thompson qui vend pour 92 millions de dollars d’actions Tesla. La fidélité des administrateurs à l’égard d’Elon Musk a donc ses limites qui sont visiblement la crainte de ne pas s’enrichir assez.
La réponse à la question initiale de savoir si l’homme le plus riche du monde peut être renvoyé de l’entreprise qu’il dirige, fût-il le premier actionnaire, est donc oui. Les statuts juridiques de la société par actions confèrent la capacité de nommer ou de révoquer le directeur général aux administrateurs non aux actionnaires. Ce sont donc les rapports sociaux entre le conseil d’administration et le directeur général qui décident du sort de ce dernier. Dans le cas de Tesla, l’argent y jouait un rôle central, il n’est donc pas étonnant qu’ils soient entrés en crise au moment où la société commençait à connaître des difficultés financières. Le fonctionnement du conseil d’administration de Tesla est certainement peu ordinaire mais il invite à se demander si le fondement du pouvoir économique dans les sociétés par actions ne repose pas tant sur l’argent détenu que sur celui que l’on peut faire gagner.
François-Xavier Dudouet est membre du CNRS. I a reçu des financements de l'Agence nationale de la recherche
28.05.2025 à 17:02
Clotilde Champeyrache, Maitre de Conférences HDR, Conservatoire national des arts et métiers (CNAM)
Un rapport européen analyse les mutations de la criminalité liées au numérique et à l’intelligence artificielle. Quel est le nouveau visage du crime ? Quelles sont les permanences ? Quelles politiques publiques pour répondre aux menaces, au-delà du narcotrafic, qui cristallise l’essentiel de l’attention politique et médiatique en France ?
Comme tous les quatre ans, Europol, l’agence de coopération policière européenne, a publié en mars dernier son rapport UE-Socta faisant le point sur la menace posée par la grande criminalité organisée en Europe. À partir des informations fournies par les États membres de l’Union européenne (UE) et des États tiers associés, Europol y analyse « les principales menaces criminelles, la dynamique des réseaux criminels et les tendances émergentes ». Cette synthèse permet d’établir des priorités dans la lutte que l’UE se doit de mener dans le champ de la criminalité et de proposer des moyens d’adapter cette lutte aux évolutions du panorama criminel.
L’accent est mis tout particulièrement sur les enjeux du numérique et sur une « hybridation » du crime. La lecture du document fait opportunément prendre du recul par rapport à la focalisation française actuelle sur le trafic de stupéfiants. Cependant, les évolutions observées ne doivent pas faire oublier les permanences de la criminalité organisée.
Le rapport EU-Socta 2025 dresse un panorama du crime européen sous plusieurs angles : secteurs d’activités, dynamiques, tactiques et géographie sont analysés. Le recours accru aux nouvelles technologies, aux plateformes digitales et les risques d’appropriation criminelle des possibilités offertes par l’intelligence artificielle sont amplement soulignés.
Internet est attractif pour les réseaux criminels : des activités criminelles sont à la fois permises, amplifiées et masquées par le monde online. L’intelligence artificielle est, elle, porteuse de risques majeurs par sa capacité à augmenter la rapidité, l’échelle et la sophistication de la criminalité organisée. Elle permet par exemple d’amplifier les fraudes et arnaques grâce aux deepfakes). Ces risques font d’ailleurs déjà l’objet d’une réflexion de l’Université des Nations unies qui œuvre, depuis 2021, à l’élaboration d’une Convention internationale afin de contrer l’utilisation des technologies de l’information et de la communication à des fins criminelles.
Les débats ont notamment établi une distinction entre des crimes « cyber-dependent », c’est-à-dire réalisables uniquement via l’espace cyber (soit la cybercriminalité au sens de « crime high-tech »), et des crimes « cyber-enabled », à savoir des crimes potentialisés par le cyber, mais qui existaient déjà auparavant (comme peut l’être le trafic de substances prohibées en ligne).
Répondre à ce déploiement des activités criminelles en ligne suppose que les services d’enquête eux-mêmes se forment à ces nouvelles technologies. Cela pose par ailleurs la question du contrôle régalien sur un espace Internet échappant par essence à la réglementation. L’arbitrage entre les devoirs de coopération avec les forces de l’ordre des prestataires de certains services dévoyés par le crime et le respect des libertés individuelles reste une ligne de crête complexe à gérer. La problématique risque d’alimenter nombre de débats politiques et juridiques dans les années à venir.
L’arrestation du patron de Telegram), en France, illustre ce bras de fer. Il en va de même pour le bras de fer aux États-Unis opposant les partisans d’une mise en ligne des plans d’impression d’armes en 3D et la justice).
L’instabilité géopolitique est aussi désignée comme un facteur favorisant l’expansion des réseaux criminels. Les conflits par nature alimentent les trafics : armes, prostitution, stupéfiants, marché noir… La multiplication des guerres et des troubles intérieurs dans diverses régions du monde ces dernières années ne peut qu’alarmer les autorités.
Pour l’Europe, la guerre en Ukraine constitue une menace extrêmement proche. Le risque de circulation d’armes détournées du théâtre de guerre a été appréhendé dès le début du conflit. Mais les facteurs criminogènes du conflit sont plus étendus puisqu’ils concernent notamment la production de stupéfiants à destination du front, le trafic de dispense pour le service militaire, l’exploitation de la population en fuite.
De manière peut-être moins visible, l’instabilité géopolitique accrue crée ce qu’Europol appelle des phénomènes d’hybridation. Ce sont des configurations où les intérêts de la criminalité organisée rejoignent ceux d’acteurs, éventuellement étatiques, tirant profit de la déstabilisation d’autres États ou de certaines régions du monde. L’utilisation de groupes cybercriminels par des États à des buts de déstabilisation et d’ingérence est prise en compte par la DGSI, Direction générale de la sécurité intérieure). Mais cela ne se limite pas au cyberespace. Europol explicite comment des réseaux criminels de traite des êtres humains peuvent travailler pour des États. Le but est alors d’utiliser des masses migratoires à des fins de déstabilisation). Cette hybridation peut être déroutante à appréhender par les autorités policières et judiciaires en raison du caractère inédit de certaines alliances et de la profonde hétérogénéité des acteurs impliqués.
Le rapport oblige opportunément à sortir du prisme franco-français sur la question de la criminalité. Il ne se focalise pas sur les stupéfiants et évite l’amalgame entre narcotrafic et économie criminelle. La liste des activités recensées ne place pas le trafic de stupéfiants en tête de liste. L’importance des fraudes, dont celles réalisées en ligne, rappelle que l’économie illégale n’est pas seulement d’ordre productif avec l’offre de biens et services interdits mais aussi d’ordre appropriatif : les organisations criminelles captent de façon indue une richesse qu’elles n’ont pas produite. Le rapport alerte aussi sur l’ampleur des atteintes à l’être humain) : exploitation sexuelle des mineurs, traite des êtres humains et instrumentalisation des migrations illégales.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Cette mise en perspective salutaire passe également par les méthodes criminelles : le blanchiment de l’argent sale et l’infiltration de l’économie légale, le recours à la violence et/ou à la corruption et l’exploitation d’une main-d’œuvre très jeune. Ce dernier point, observé à l’échelle européenne, est particulièrement intéressant. Il replace ces acteurs généralement mineurs dans un contexte institutionnel. Plus que des criminels affiliés, ce sont des victimes de la criminalité forcée. Cela n’est pas sans implication sur la qualification pénale de leurs actes ainsi que sur le travail de prévention à l’encontre de la jeunesse.
L’ADN du crime a-t-il pour autant radicalement changé comme l’affirme le titre du rapport ? Cela reste à nuancer. La criminalité organisée s’adapte, ce n’est pas nouveau. L’histoire criminelle témoigne de la capacité des criminels à développer de nouvelles affaires et marchés, à se redéployer, y compris grâce aux nouvelles technologies. Les Brigades du Tigre), créées en 1907 par Clemenceau, sont des brigades mobiles motorisées pour répondre au défi posé par des bandes criminelles utilisant des véhicules et des armes à feu. La contrefaçon utilise depuis longtemps les évolutions technologiques en termes de piratage, reproduction et impression 3D.
L’hybridation de la menace connaît aussi des antécédents : par exemple, la piraterie, officiellement réprouvée, a largement été, aux XVIe et XVIe siècles, un outil occulte au service des États européens). Au regard de ces permanences et récurrences, l’image d’un virus présentant des mutations est peut-être plus pertinente que celle d’un changement d’ADN.
Clotilde Champeyrache ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
28.05.2025 à 17:01
Vincent Chetail, Professeur de droit international, Graduate Institute – Institut de hautes études internationales et du développement (IHEID)
Le terme de génocide est employé par un nombre croissant d’organisations internationales, de juristes et d’historiens pour désigner l’intervention militaire israélienne à Gaza. Les discussions que suscite l’utilisation de ce concept monopolisent l’attention, au détriment de l’effroyable réalité sur le terrain et des mesures urgentes à prendre pour y faire face.
Génocide. Le mot est sur toutes les lèvres : l’État hébreu est-il en train de commettre un génocide à Gaza ? L’accusation enfle depuis plus d’un an. Elle se répand bien au-delà du cercle des militants pro-palestiniens. Le mot évoque immédiatement le mal absolu, la négation de l’humanité. En entrant dans le langage courant, il cristallise l’indignation et appelle à la mobilisation.
Comment une telle accusation est-elle apparue ? Que signifie exactement ce terme ? Que dit le droit international ? Quels sont les arguments en présence ? Les débats autour de l’existence ou non d’un génocide ne tendent-ils pas, paradoxalement, à favoriser l’inaction internationale ?
Le terme de génocide charrie une vision d’horreur étroitement liée à la Shoah. Il convoque dans l’inconscient collectif des images de fosses communes et des corps décharnés des rares survivants des camps de la mort.
Le mot fut inventé en 1944 par un juriste juif d’origine polonaise réfugié aux États-Unis, Raphael Lemkin, pour souligner l’atrocité et la nature systématique des crimes nazis. C’est dire que la symbolique est forte lorsque l’accusation est portée à l’encontre de l’État précisément créé pour servir de refuge aux survivants de l’Holocauste. La victime s’est-elle transformée en bourreau ? Pour Israël, une telle allégation est « obscène ».
Dès novembre 2023, 37 rapporteurs de l’ONU invoquent un risque génocidaire. Depuis lors, la Commission internationale d’enquête, la Rapporteure spéciale sur les droits humains dans les territoires palestiniens occupés, le Comité spécial de l’ONU sur les pratiques israéliennes ou encore les ONG Amnesty International et Human Rights Watch ont publié des rapports longs et circonstanciés concluant qu’il existe des motifs raisonnables de croire qu’un génocide est commis à Gaza.
De nombreux juristes, historiens de la Shoah et autres spécialistes de l’étude des génocides parviennent au même constat.
Le débat s’est même judiciarisé depuis que l’Afrique du Sud a saisi en décembre 2023 la Cour internationale de justice (CIJ, principal organe judiciaire de l’ONU), accusant Israël de violer la Convention pour la prévention et la répression du crime de génocide adoptée par l’ONU en 1948. Plus récemment encore, en avril 2025, le Conseil des droits de l’homme de l’ONU a adopté une résolution exigeant d’Israël de « prévenir le génocide ».
Selon la Convention de 1948, le génocide se définit par deux éléments constitutifs : une intention – celle de détruire un groupe national, ethnique, racial ou religieux en tout ou partie ; et un acte – meurtre, atteinte grave à l’intégrité physique ou mentale des membres du groupe, entrave aux naissances ou soumission à des conditions d’existence devant entraîner la mort.
À lire aussi : La notion de génocide : entre l’histoire, le droit et la politique
Contrairement à une opinion répandue, un tel crime n’est pas subordonné à l’anéantissement du groupe, ni au massacre de masse.
Les condamnations judiciaires demeurent exceptionnelles. Depuis 1948, la justice internationale a reconnu l’existence d’un génocide à trois reprises seulement : la première fois en 1998 à propos du Rwanda, puis en 2001 concernant le massacre de Srebrenica en Bosnie-Herzégovine et en 2018 à l’encontre des Khmers rouges.
À lire aussi : Récit d’un voyage d’études au Rwanda, 30 ans après le génocide des Tutsi
Trois autres affaires sont en cours concernant le Soudan, Myanmar et Israël.
Dans ce dernier dossier, la CIJ a rendu le 26 janvier 2024 une première ordonnance constatant « un risque réel et imminent » de « préjudice irréparable ». Ce constat ne vaut pas condamnation et ne préjuge pas du fond de l’affaire. La Cour relève néanmoins les « conditions de vie désastreuses », la « privation prolongée et généralisée de nourriture et de produits de première nécessité », « la destruction massive d’habitations », ainsi que l’ampleur des pertes, qui s’élèvent aujourd’hui, selon l’ONU, à plus de 52 000 morts et de 118 000 blessés, dont une majorité de femmes et d’enfants.
À lire aussi : Gaza, une catastrophe humanitaire avérée
Israël affirme agir en légitime défense et dans le respect du droit international humanitaire. Son droit inaliénable à la légitime défense, et l’atrocité des crimes perpétrés par le Hamas, sont incontestables. Mais à moins de renouer avec l’antique loi du talion, de tels motifs ne justifient pas de violer le droit international ni d’infliger une punition collective à l’encontre de la population civile de Gaza.
L’argument tiré du droit humanitaire est plus perspicace et requiert un examen approfondi des opérations militaires. Le terrain reste fragile car l’ampleur des pertes civiles va bien au-delà de ce qui est admis comme « dommage collatéral ».
À lire aussi : Conflit israélo-palestinien : ce que dit le droit
L’ONU a documenté de multiples bombardements indiscriminés et autres violations graves du droit humanitaire, à tel point que l’autre Cour de La Haye – la Cour pénale internationale (CPI) – a émis le 21 novembre 2024 un mandat d’arrêt pour crimes de guerre contre Benyamin Nétanyahou et son ancien ministre de la défense Yoav Gallant. Si de tels crimes de guerre étaient constatés, ils n’induisent pas en eux-mêmes une intention génocidaire.
À lire aussi : Mandats d’arrêt de la CPI contre Nétanyahou, Gallant et Deif : un tournant pour la justice internationale, pas pour la Palestine
Sur ce dernier point, la CIJ relève néanmoins diverses déclarations particulièrement choquantes : Gallant a notamment déclaré combattre des « animaux humains », tandis que le président d’Israël Isaac Herzog a affirmé à propos du 7-Octobre que « c’est toute une nation qui est responsable » (des propos dont il prétendra plus tard qu’ils ont été mal interprétés).
Pour beaucoup de juristes, rarement dans l’histoire l’intention de détruire un groupe a été formulée aussi clairement par des dirigeants étatiques. Ces déclarations surprennent d’autant plus qu’elles sont publiques et répétées : Amnesty International en a recensé plus d’une centaine entre octobre 2023 et juin 2024.
Cette rhétorique mortifère semble même avoir franchi une nouvelle étape durant les derniers mois, au point d’apparaître comme une véritable doctrine du gouvernement israélien. Le 19 mars 2025, le ministre de la défense, Israël Katz, menace la population civile de Gaza de « destruction totale » si les otages encore aux mains du Hamas ne sont pas libérés, tandis que le vice-président de la Knesset, Nissim Vaturi, appelle à « effacer la bande de Gaza de la surface de la terre ». Le 6 mai, c’est au tour du leader d’extrême droite et ministre israélien des finances, Bezalel Smotrich, d’annoncer que, grâce à l’opération en cours, dans quelques mois « Gaza sera totalement détruite ».
De telles déclarations suffiraient, à tout le moins, pour que leurs auteurs soient condamnés pour incitation au génocide. Si la condamnation par la CIJ pour génocide ou incitation à un tel crime est de plus en plus probable, le rejet d’un tel jugement par Israël est tout aussi prévisible.
Aux accusations de génocide s’opposent celles d’antisémitisme, dans une confrontation manichéenne et stérile. Les débats se polarisent dans une opinion publique plus déchirée que jamais.
Cette polarisation est inhérente à la notion de génocide car la déshumanisation est au cœur du processus génocidaire. Le génocide transforme les victimes en sous-humains et les bourreaux en barbares. Il prive les uns et les autres de leur humanité. C’est ce qui fait tout à la fois la spécificité et la limite d’un tel crime.
La charge passionnelle du génocide se décuple lorsque sa figure emblématique, Israël, est incriminée. Loin de mobiliser les consciences, cette accusation a paralysé bon nombre de décideurs politiques par crainte de prendre parti, tout en alimentant une indignation à géométrie variable.
Les pays dit du Sud global ont réagi très tôt par la voie diplomatique et judiciaire, tandis que l’immense majorité des pays occidentaux se sont enfermés dans une sorte de mutisme, au risque d’apparaître complices des exactions commises aux yeux de tous. Après plus d’un an et demi d’immobilisme, une prise de conscience commence à se faire jour parmi les dirigeants européens.
Agnès Callamard, secrétaire générale d’Amnesty International, le déplore :
« Les pays européens n’auraient jamais dû avoir “besoin” des deux derniers mois pour conclure que les crimes d’Israël demandaient des réponses fortes et immédiates. »
Et, renchérit-elle, « n’oublions pas que ceux et celles qui ont dénoncé le génocide israélien à Gaza ont été l’objet de poursuites judiciaires, de campagnes de harcèlement dans les médias, que des étudiants aux États-Unis sont encore emprisonnés et beaucoup sont menacés ».
La reconnaissance de la Palestine est une étape cruciale dans le règlement durable du conflit, mais elle ne doit pas faire illusion : le fait que 148 pays membres de l’ONU aient déjà reconnu la Palestine n’a pas empêché les violations de se produire durant les vingt derniers mois. Parmi ces pays, douze États européens l’ont déjà reconnue et la reconnaissance tardive de derniers à ne pas l’avoir fait ne saurait apparaître comme un satisfecit de bonne conduite aux États qui ont manqué à leur obligation de réagir face à la situation.
Indépendamment même du qualificatif de génocide, les États européens devraient commencer par honorer leurs propres obligations juridiques face à des violations du droit humanitaire que nul ne peut ignorer. En de telles circonstances, les conventions de Genève leur imposent d’engager des poursuites pénales devant leurs tribunaux nationaux pour connaître des allégations de crimes de guerre à l’encontre de leurs binationaux et des ressortissants israéliens présents sur leur territoire et accusés de tels crimes.
Cette obligation de poursuite pénale s’ajoute à celle de coopérer avec la Cour pénale internationale dans l’exécution de ses mandats d’arrêt délivrés en novembre 2024.
Conformément à l’article Premier commun aux quatre conventions de Genève, tous les États parties, y compris européens, sont également tenus de faire respecter le droit humanitaire par diverses autres mesures, à commencer par les pressions diplomatiques et politiques pour mettre fin aux exactions, la suspension des ventes d’armes et des accords commerciaux avec Israël, l’arrêt de toute autre forme de soutien matériel, financier ou autre, la fourniture d’aide humanitaire sur place via les agences onusiennes et autres ONG de terrain, ou encore la coopération pleine et entière avec les différents mécanismes internationaux d’établissement des faits et les deux cours de La Haye.
Dans un monde polarisé à l’extrême, il importe plus que jamais de distinguer le mot et la chose. Le mot de génocide est une incrimination pénale qui relève de la justice ; la chose porte sur les faits eux-mêmes qui appartiennent au domaine public, tant les violations sont documentées en temps réel par l’ONU, les ONG et les médias. Quelles que soient leurs appellations juridiques, les drames humains qui se déroulent sous nos yeux sont l’affaire de tous. Ils imposent d’agir en conséquence et en conscience.
Vincent Chetail ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
28.05.2025 à 17:00
Sebastien Bourdin, Professeur de Géographie économique, Titulaire de la Chaire d'excellence européenne "Economie Circulaire et Territoires", EM Normandie
Nicolas Jacquet, Chargé de Recherche ∙ Chaire d'excellence européenne Économie circulaire et Territoires, EM Normandie
Sur le papier, recycler ses vêtements semble un geste vertueux, mais la réalité est tout autre. L’industrie textile produit des déchets en masse, tandis que le recyclage peine à suivre une consommation effrénée. Entre fast-fashion, technologies limitées et exportations vers des pays sans infrastructures adaptées, le modèle circulaire vacille.
L’industrie de la mode a connu une transformation radicale avec l’essor de la fast-fashion : des vêtements bon marché, fabriqués à partir de matériaux peu coûteux, conçus pour être portés une seule saison – voire moins – avant d’être stockés définitivement dans nos armoires ou d’être jetés. Chaque année, pas moins de 3 milliards de vêtements et chaussures sont mis sur le marché en France, d’après le Baromètre des ventes de Refashion.
Ce modèle de production et de consommation frénétique n’est pas sans conséquences : selon les estimations, l’industrie textile représenterait jusqu’à 10 % des émissions mondiales de gaz à effet de serre, soit davantage que les vols internationaux et le transport maritime réunis. En cause, la prédominance du polyester, un dérivé du pétrole, qui constitue la majorité des vêtements.
Pour s’attaquer à ce fléau, en 2022, la Commission européenne dévoilait sa stratégie pour des textiles durables et circulaires en assurant :
« À l’horizon 2030, les produits textiles mis sur le marché de l’Union seront à longue durée de vie et recyclables, dans une large mesure, fabriqués à partir de fibres recyclées, exempts de substances dangereuses, et produits dans le respect des droits sociaux et de l’environnement. »
Mais, malgré cette prise de conscience politique, la fast-fashion continue de prospérer, alimentée par une production mondiale qui a doublé depuis 2000 et une consommation effrénée poussée par des campagnes de marketing bien rôdées. En l’espace de quinze ans, la consommation occidentale de vêtements a ainsi augmenté de 60 %, alors que nous les conservons deux fois moins longtemps et que certains, très bon marché, sont jetés après seulement 7 ou 8 utilisations. Les chiffres de l’Agence européenne de l’environnement sont accablants : entre 4 % et 9 % des textiles mis sur le marché européen sont détruits avant même d’avoir été portés, soit entre 264 000 et 594 000 tonnes de vêtements éliminés chaque année.
En France, l’Agence de la transition écologique (Ademe) estime que ce gaspillage atteint entre 10 000 et 20 000 tonnes : 20 % des vêtements achetés en ligne sont retournés, et un tiers d’entre eux sont détruits. Leur traitement implique un long processus : tri, reconditionnement, transport sur des milliers de kilomètres… Une aberration écologique.
Mais alors, comment en est-on arrivé à un tel décalage entre la volonté de mieux recycler… et la réalité de nos usages vestimentaires ?
Une étude récente, menée en 2024 par des chercheurs de l’Université catholique de Louvain (UKL), apporte un éclairage nouveau sur nos habitudes vestimentaires. Réalisée auprès de 156 adultes vivant en Flandres (Belgique), l’enquête révèle que la garde-robe moyenne contient 198 vêtements, dont 22 % restent inutilisés pendant plus d’un an.
Pourtant, les trois quarts de ces vêtements qui restent dans nos placards sont encore en bon état et pourraient être réutilisés, mais la majorité des propriétaires les conservent « au cas où », par attachement émotionnel ou anticipation d’un usage futur. L’étude conclut que le manque de solutions accessibles pour revendre ou donner ses vêtements ainsi que la faible demande pour la seconde main freinent leur réutilisation.
Nos placards ne sont pas les seuls à être saturés. Les points de collecte textile déployés par les collectivités sont eux aussi submergés par un afflux massif de vêtements, souvent de mauvaise qualité. Les vêtements d’entrée de gamme, difficiles à valoriser, encombrent ainsi les structures de tri et compliquent le travail des associations, qui, jusqu’ici, tiraient leurs revenus des pièces de meilleure qualité revendues en friperies solidaires.
La situation est telle que Refashion, l’éco-organisme de la filière textile, a récemment débloqué une aide d’urgence de 6 millions d’euros pour soutenir les 73 centres de tri conventionnés, dont l’activité est fragilisée par la chute des débouchés, notamment à l’export. Car, depuis longtemps, les vêtements qui ne trouvent pas preneur sur le marché français – parce que trop usés, démodés ou invendables – sont expédiés vers d’autres pays, principalement en Afrique ou en Asie.
Chaque année, l’Union européenne (UE) exporte ainsi 1,7 million de tonnes de textiles usagés, selon l’Agence européenne de l’environnement. La France à elle seule, en 2021, expédiait 166 000 tonnes de vêtements et de chaussures usagés, soit 3 % du volume total des exportations mondiales.
Ces flux partent principalement vers le Pakistan, les Émirats arabes unis et le Cameroun, selon les données douanières. Si ce commerce génère des emplois et des revenus dans l’économie informelle, il aggrave aussi la pollution textile dans des pays sans infrastructures adaptées au traitement des déchets. La plage de Korle-Gonno à Accra (Ghana) en est l’un des exemples les plus frappants, transformée en véritable décharge à ciel ouvert.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Mais cette donne pourrait changer. L’UE cherche à imposer un cadre plus strict sur les flux transfrontaliers de déchets textiles, notamment en intégrant ces derniers à la Convention de Bâle, qui régule les exportations de déchets dangereux et non dangereux. Cette évolution pourrait imposer davantage de traçabilité et de contrôles, afin d’éviter que l’Europe continue d’exporter son problème textile vers des pays incapables de le gérer.
Face à l’ampleur du problème, la loi Anti-gaspillage pour une économie circulaire (Agec), adoptée en 2020, fixait un cap ambitieux : collecter 60 % des textiles usagés d’ici 2028 et en recycler 70 % dès 2024, puis 80 % à l’horizon 2027. Une trajectoire progressive censée stimuler la montée en puissance des filières de tri et de valorisation.
Dans la foulée, l’Assemblée nationale adoptait en mars 2024 une proposition de loi pour « démoder la fast-fashion ». Le texte cible les géants de l’ultra fast-fashion, qui inondent le marché avec plus de 1 000 nouveautés quotidiennes. Il prévoit également un système de bonus-malus environnemental pouvant aller jusqu’à 50 % du prix de vente – plafonné à 10€ par article – afin de financer des marques plus vertueuses et de ralentir cette surproduction.
La proposition de loi doit encore franchir l’étape du Sénat, où elle n’a pas encore été inscrite à l’ordre du jour. Et en attendant, les objectifs de la loi Agec peinent à se concrétiser. En 2023, environ 270 000 tonnes de textiles ont été collectées dans l’Hexagone, mais seules 33 % ont été réellement recyclées en nouvelles matières premières. Bien loin des 70 % fixés pour 2024. En cause : un manque d’infrastructures de tri automatisé, des capacités de traitement limitées, et des opérateurs – souvent issus de l’économie sociale et solidaire – sous-dotés financièrement. À l’échelle mondiale, le constat est encore plus alarmant : moins de 1 % des fibres textiles usagées sont réutilisées pour fabriquer de nouveaux vêtements.
Sur le papier, pourtant, les technologies de recyclage se perfectionnent. Certaines entreprises, comme l’entreprise française, créée en 2011, Carbios, tentent d’innover avec un recyclage enzymatique capable de dégrader les fibres de polyester pour les transformer en nouveaux textiles. Une avancée saluée, mais encore loin d’être généralisée.
Dans les faits, l’immense majorité du recyclage textile repose sur des méthodes mécaniques, bien moins efficaces. Les vêtements sont triés par couleur et selon leur composition, puis déchiquetés en fibres courtes ou effilochés pour produire des isolants ou des chiffons. Autrement dit, quand ils sont recyclés, les textiles, au lieu d’être réutilisés dans un cycle vertueux, sont plutôt « downcyclés », dégradés ou transformés en produits de moindre valeur, en isolants thermo-acoustiques ou en rembourrage pour sièges de voiture, tandis que moins de 1 % des vêtements usagés sont transformés en nouveaux vêtements, selon une logique de boucle fermée ou au moyen de procédés fibre à fibre.
Si le recyclage est donc une solution, celle-ci présente de nombreuses limites.
Le design des vêtements, par exemple, n’est pas fait pour faciliter leur valorisation. Car les habits contiennent un mélange complexe de matériaux : des fibres souvent mélangées ou diverses (polyester, coton, polycoton) combinées à des éléments métalliques (fermetures éclair, boutons, boucles) et plastiques (étiquettes, logos en vinyle ou motifs imprimés) qui nécessitent un tri particulièrement minutieux pour permettre leur réutilisation ou leur transformation, chaque matière requérant un traitement spécifique. Cette étape, essentielle, mais coûteuse, reste difficile à intégrer pour des structures solidaires qui n’ont pas les capacités d’investissement des grands groupes.
Des alternatives existent, certes, mais elles ne sont pas toujours aussi vertueuses qu’annoncées. Le polyester recyclé, souvent mis en avant par la mode écoresponsable comme la solution la moins carbonée, présente de sérieuses limites.
Cette fibre est issue, dans la grande majorité des cas, du recyclage de bouteilles en plastique PET. Or, ces bouteilles sont ainsi détournées d’un circuit de recyclage fermé – le recyclage bouteille-à-bouteille ou pour les emballages alimentaires – vers la fabrication de textiles. Une fois transformés en vêtements, ces matériaux deviennent pratiquement impossibles à recycler, en raison des teintures, des additifs et surtout des mélanges de fibres.
Si le polyester recyclé séduit tant l’industrie textile, c’est d’abord pour des raisons de logistique et de volume. Les bouteilles en PET constituent un gisement mondial abondant, facile à collecter et à traiter. Aujourd’hui, environ 7 % des fibres recyclées utilisées dans le textile proviennent de bouteilles plastiques – dont 98 % sont en PET. À l’inverse, moins de 1 % des fibres textiles recyclées proviennent de déchets textiles eux-mêmes.
Les différents types de recyclages
Source : The Carbon Footprint of Polyester (Carbonfact). Données basées sur la base EF 3.1, développée par le Joint Research Centre (JRC) de la Commission européenne, dans le cadre de l’initiative Product Environmental Footprint (PEF).
Méthode | Émissions carbone (kg CO2e/kg) | Remarques |
---|---|---|
Recyclage mécanique | 0,68 – 1,56 | Méthode la plus répandue. Utilise des bouteilles plastiques, mais détourne ces déchets de circuits fermés. Qualité de fibre dégradée à chaque cycle, recyclabilité textile très limitée. |
Recyclage chimique | 1,23 – 3,79 | Procédé plus vertueux sur le papier (fibre à qualité équivalente), adapté aux déchets textiles. Mais technologie coûteuse, énergivore et encore peu industrialisée. |
PET vierge fossile | 3,12 | Fabriqué à partir de pétrole, avec un processus très émetteur. Aucune circularité : chaque vêtement produit génère un futur déchet. |
Enfin, autre problème rarement évoqué : les microfibres plastiques. Les vêtements en polyester, qu’ils soient recyclés ou non, libèrent à chaque lavage des microfibres plastiques susceptibles de perturber les écosystèmes marins et d’entrer dans la chaîne alimentaire humaine. Cette pollution est amplifiée dans le cas du polyester recyclé : soumis à des contraintes thermiques et mécaniques lors du recyclage, le matériau voit ses chaînes polymères se dégrader. Raccourcies et fragilisées, elles sont plus enclines à se fragmenter dès les premiers lavages.
Une étude, publiée en 2024 dans la revue Environmental Pollution, a montré que, à caractéristiques égales, un tissu en polyester recyclé libérait en moyenne 1 193 microfibres par lavage, contre 908 pour son équivalent en polyester vierge. Même écolabellisés, certains textiles recyclés peuvent donc polluer davantage, si l’on considère l’ensemble de leur cycle de vie.
Trier, certes, c’est bien. Mais croire que ces gestes suffiront à endiguer la catastrophe environnementale est une illusion.
Tant que la production textile continuera d’augmenter à un rythme effréné, aucune politique de tri ne pourra compenser la montagne de déchets générée. Le mythe du bon citoyen trieur repose donc sur un malentendu : trier ne signifie pas recycler, et recycler ne signifie pas résoudre la crise des déchets. La vrai solution, c’est d’abord de produire moins, de consommer moins, et de concevoir des vêtements pensés pour durer et être réellement recyclables.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
28.05.2025 à 16:59
Pascale Ezan, professeur des universités - comportements de consommation - alimentation - réseaux sociaux, Université Le Havre Normandie
Emilie Hoëllard, Maître de conférences en sciences de gestion, Université Le Havre Normandie
Associant phrases chocs, musiques entraînantes et récits de transformation physique, de jeunes femmes font sur TikTok la promotion d’une maigreur extrême. Loin de provoquer du rejet, ces messages sont discutés et très partagés sur le réseau social, interpellant éducateurs et professionnels de santé.
Dans les années 1990, les couvertures des magazines féminins annonçaient l’été avec des injonctions à changer son corps : il fallait « perdre 5 kilos avant la plage » ou « retrouver un ventre plat en 10 jours » afin de ressembler aux mannequins filiformes des podiums.
Aujourd’hui, ces supports papier perdent du terrain chez les jeunes filles, au profit de réseaux sociaux comme TikTok, une plateforme au cœur de leur culture numérique. L’imaginaire du corps parfait s’y diffuse plus vite, plus fort, et de manière plus insidieuse.
Parmi les tendances incitant à la minceur sur ce réseau social, #SkinnyTok apparaît comme l’un des hashtags les plus troublants avec 58,2 K de publications en avril 2025.
À l’aide de vidéos courtes mêlant musiques entraînantes, filtres séduisants et récits de transformation physique (les fameux avant/après), de jeunes femmes s’adressent à leurs paires pour les inciter à moins manger, voire à s’affamer.
Centrées sur des heuristiques de représentativité, ces jeunes femmes mettent en scène leurs corps comme une preuve de la pertinence des conseils qu’elles avancent. Elles soulignent ainsi que leur vécu est un exemple à suivre : « Je ne mange presque plus. »
En surface, leurs recommandations nutritionnelles se fondent sur les messages sanitaires auxquelles elles sont exposées depuis leur enfance : manger sainement, faire du sport… Mais en réalité, leurs discours prônent des régimes dangereusement restrictifs, des routines visant à façonner des corps ultraminces. Basés sur la croyance, qu’il faut éviter de manger pour perdre rapidement du poids, des conseils de jeûne intermittent, des astuces pour ignorer la faim sont véhiculés : « Je ne mangeais qu’à partir de 16 heures + pilates à côté. »
Ici, pas de mises en scène de recettes ou de bons plans pour mieux manger comme dans la plupart des contenus « healthy » sur Instagram, mais des phrases chocs facilement mémorisables pour véhiculer une pression sociale : « Si elle est plus maigre que toi, c’est qu’elle est plus forte que toi » ; « Ne te récompense pas avec de la nourriture, tu n’es pas un chien ! » ; « Tu n’as pas faim, c’est juste que tu t’ennuies » ; « Si ton ventre gargouille, c’est qu’il t’applaudit. »
On ne trouve pas non plus dans les messages estampillés #SkinnyTok de propos bienveillants et empathiques, confortant une estime de soi.
À lire aussi : « Dans la vraie vie aussi, j’aimerais bien porter un filtre » : les réseaux sociaux vus par les 8-12 ans
Au contraire, les prises de parole sont agressives et pensées comme un levier efficace de changement comportemental. Le principe est de susciter des émotions négatives basées sur la culpabilité avec, comme source de motivation, la promesse de vivre un bel été : « Tu ne veux pas faire de sport, OK, alors prépare-toi à être mal dans ta peau cet été. »
Loin de provoquer du rejet sur le réseau social, ces messages sont discutés, partagés, voire complétés par des témoignages issus des abonnées. Certains messages deviennent des références évocatrices de la tendance. Cette viralité amplifiée par l’algorithme de TikTok enferme alors ces jeunes filles dans des bulles cognitives biaisées, qui valident des pratiques délétères pour leur santé.
Si cette tendance « skinny » est rarement remise en question par les followers, c’est sans doute parce que les contenus diffusés apparaissent comme simples à comprendre et qu’ils bénéficient d’une validation visuelle des corps exposés.
Ils s’ancrent dans des connaissances naïves qui viennent se heurter à des savoirs scientifiques, perçus comme plus complexes et moins faciles à mettre en œuvre dans le vécu quotidien des adolescentes pour obtenir rapidement le résultat corporel escompté pour l’été.
En psychologie cognitive, les connaissances naïves sont définies comme des représentations spontanées et implicites que les individus se construisent sur le monde, souvent dès l’enfance, sans recours à des enseignements formalisés. Influencées par des expériences personnelles et sociales, elles peuvent être utiles pour naviguer dans le quotidien, car elles apparaissent comme fonctionnelles et cohérentes chez l’individu. En revanche, elles sont souvent partielles, simplificatrices voire fausses.
Or, ces connaissances naïves constituent le creuset des messages diffusés par les créateurs de contenus sur les réseaux sociaux. En particulier, sur TikTok, les vidéos diffusées cherchent à capter l’attention des internautes, en privilégiant une forte connotation émotionnelle pour provoquer une viralité exponentielle. L’information qui y est transmise repose sur un principe bien connu en marketing : une exposition répétée des messages, quelle qu’en soit la valeur cognitive, influence les comportements.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Ces croyances simplificatrices sont d’autant plus difficiles à déconstruire qu’elles bénéficient d’une approbation collective, visible sous forme de « likes » par toutes les abonnées. Il apparaît donc nécessaire de mettre au jour le rôle joué par les connaissances naïves dans l’éducation corporelle des adolescentes afin de mieux saisir pourquoi certaines d’entre elles sont plus vulnérables que d’autres à ce type d’injonctions et mettre en place des interventions ciblées.
En outre, les connaissances naïves sont souvent résistantes au changement et aux discours scientifiques. Il s’agit alors de revisiter ces raccourcis cognitifs, fondés sur des liens de causalité erronés (du type : « Je ne mange pas et je serai heureuse cet été »), en proposant des messages de prévention plus adaptés à cette génération numérique.
Pour aller dans ce sens, certains professionnels de santé prennent la parole sur les réseaux sociaux, mais la portée de leur discours semble encore limitée au regard de la viralité suscitée par cette tendance. Face à ce constat, il semble opportun de les inviter à s’approprier davantage les codes de communication numérique pour s’afficher comme des figures d’autorité en matière de santé sur TikTok.
Plus globalement, il ne s’agit ni de diaboliser TikTok ni de prôner le retour à une époque sans réseaux sociaux. Ces plateformes sont aussi des espaces de création, d’expression et de socialisation pour les jeunes. Mais pour que les connaissances qu’elles diffusent deviennent de véritables outils d’émancipation plutôt que des sources de pression sociale, plusieurs leviers doivent être activés :
réguler, inciter davantage les plateformes à la modération de contenus risqués pour la santé mentale et physique des jeunes ;
apprendre aux adolescents à détecter de fausses évidences sur les réseaux sociaux. Dans cette perspective, notre projet Meals-Manger avec les réseaux sociaux vise à co-construire avec les jeunes une démarche leur permettant d’acquérir et d’exercer un esprit critique face aux contenus risqués pour leur santé, auxquels ils sont exposés sur les plateformes sociales ;
éduquer les éducateurs (parents et enseignants) qui sont souvent peu informés sur les comptes suivis par les adolescents et ont des difficultés à établir un lien entre des connaissances naïves diffusées sur les réseaux sociaux et les comportements adoptés dans la vie réelle.
Pascale Ezan a reçu des financements de l'Agence Nationale de la Recherche (projet ALIMNUM (Alimentation et Numérique et projet MEALS (Manger avec les réseaux sociaux)
Emilie Hoëllard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
28.05.2025 à 16:58
Louis Wiart, Chaire de communication, Université Libre de Bruxelles (ULB)
Comme l’indique l’expression « bien culturel », le livre est un produit, c’est-à-dire un bien qui s’achète et se vend. Toutefois, ses spécificités font qu’il évolue dans un environnement particulier qu’étudient notamment Louis Wiart et Philippe Chantepie, les auteurs d’Économie du livre, aux éditions La Découverte (collection « Repères »). Nous en publions un extrait consacré à un des défis majeurs du secteur pour les années qui viennent : l’adaptation de son modèle économique aux impératifs de la transition écologique. Numérique ou papier, le livre trouvera-t-il une voie pour être compatible avec ces nouvelles nécessités ?
Comme toutes les industries culturelles, le secteur du livre fait face au défi de la transition écologique, sous ses trois aspects : climatique, de biodiversité et de déchets. Celle-ci représente un enjeu majeur pour l’ensemble de la chaîne de valeur du livre : cycle de production (papier, donc énergie, eau, espèces végétales, formulation des encres), de distribution (transport) et de consommation (déchets). Elle concerne ainsi toutes les étapes de l’activité, de l’éco-conception au réemploi et au recyclage.
Le défi a commencé à être pris en compte à l’échelle internationale par le secteur de l’édition quant aux modes de production et de consommation, qui figurent parmi les objectifs de développement durable (ODD) de l’Agenda 2030 de l’Organisation des Nations unies (ONU) en 2019. Ce défi concerne aussi l’édition et la lecture numériques qui se développent et apparaissent moins favorables pour l’environnement que le mode de production et de consommation classique du papier.
En France, la mise en œuvre de ces objectifs de développement durable repose sur la règle dite de responsabilité élargie du producteur (REP). Elle prend en compte pour chaque industrie une responsabilité du producteur, de bout en bout, à travers chacun des maillons des filières jusqu’au consommateur. Selon le principe pollueur-payeur, il s’agit de rendre responsables les producteurs de l’impact environnemental de leurs produits en assurant individuellement ou collectivement la collecte, la gestion et la valorisation des déchets issus de ces produits (papier, encres).
Des filières REP sont établies pour le verre, le plastique, l’électronique… Le papier d’emballage depuis 1993 et le papier graphique concernent déjà le secteur de la presse depuis 2007. Le secteur de l’édition de livres échappe à cette approche de responsabilité élargie du producteur, le livre papier n’étant pas considéré comme susceptible de devenir un déchet ménager…
[Depuis la remise du manuscrit de ce livre, un plan de transition écologique sectoriel pour l’édition a été rendu public. (Précision des auteurs de l’ouvrage, ndlr)]
Depuis les années 2010 prédomine ainsi une prise de conscience progressive des enjeux de la transition écologique par les professionnels du livre, dont les éditeurs. Fragmentaire et partielle, l’approche dépend surtout d’initiatives issues de maillons de la chaîne à travers des engagements volontaires. Des initiatives d’abord individuelles ou de collectifs prévalent sur certains aspects de l’activité qui visent à promouvoir des modèles de production et de commercialisation de livres plus respectueux de l’environnement.
Ainsi, du côté de l’amont, la pression sur la disponibilité et le prix des matières premières (papier, énergie, eau et transport) est mise en avant, même si de nouvelles sensibilités à l’écologie s’expriment. De meilleures pratiques d’achat du papier progressent : 97 % du papier acheté par les éditeurs est certifié par des labels (PEFC, FSC) relatifs à la gestion durable des forêts, alors que le papier recyclé représente seulement 1 % du total.
La production de papier pour l’édition de livres n’est pas prise en compte par la REP papiers graphiques, ce qui constitue un segment particulièrement critique en consommation énergétique et d’eau, mais surtout en matière de transport. En effet, la production de papier provient essentiellement de pays étrangers, la France ayant un solde extérieur très négatif. En aval, du côté des librairies, on mise sur l’aménagement des lieux de vente (éclairage, chauffage, isolation, récupération de mobilier, etc.), l’optimisation des achats de livres pour diminuer les retours ou encore l’usage de produits à plus faible impact (emballages cadeaux, sacs en papier, etc.)].
Enfin, du côté des bibliothèques, sous l’impulsion de la Fédération internationale des associations et institutions de bibliothèques (IFLA), une approche collective prévaut aussi, ce dont témoigne par exemple l’Agenda 2030 des bibliothèques en France. Les objectifs poursuivis tiennent à la mutualisation des ressources entre établissements et à l’amélioration de la logistique pour réduire l’empreinte environnementale des prêts de livres. L’enjeu de la plastification des livres offerts au prêt est également soulevé. À l’avenir, ces initiatives sont conduites à tenir compte d’autres facteurs, comme le transport des consommateurs et des salariés.
Abonnez-vous dès aujourd’hui !
Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).
L’enjeu de la transition écologique de l’édition est surtout concentré sur les éléments les plus industriels du secteur, ce qu’illustre la part de production d’imprimerie hors de France (Espagne, pays d’Europe orientale, voire Chine). Sur le segment de la production et de la commercialisation, le défi de la transition écologique affecte le cœur du modèle économique structurel de l’édition de livres. En effet, l’industrie de l’édition repose sur une logique d’offre structurellement supérieure aux ventes, ne serait-ce que pour atteindre des publics qui, en situation de sous-production et insuffisance de distribution, ne seraient ni informés de l’existence de l’offre ni en mesure de se la voir proposer.
L’économie d’échelle issue de l’imprimerie ne constitue pas un frein à ce modèle. Aussi, l’ensemble de la chaîne de distribution (stockage et acheminement aller et retour vers les points de vente) se pérennise. Elle se traduit dans les volumes distribués comme dans ceux des retours, ainsi que dans les taux de pilon. Des outils d’intelligence artificielle (IA) pourraient aussi améliorer la gestion de la production, des stocks et des transports, mais leur propre impact environnemental n’est pas neutre.
La transition écologique peut apparaître comme un défi des plus difficiles à relever pour le secteur de l’édition. Celui-ci a manifesté une grande capacité d’innovation et d’adaptation aux techniques, mais à modèle économique central inchangé. Le défi écologique, en revanche, questionne les fondements mêmes de son modèle économique.
Cet article est issu de l’ouvrage Économie du livre (Ed La Découverte) écrit Philippe Chantepie les intertitres sont de la rédaction de The Conversation France
Louis Wiart ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
28.05.2025 à 16:58
Fabrice Raffin, Maître de Conférence à l'Université de Picardie Jules Verne et chercheur au laboratoire Habiter le Monde, Université de Picardie Jules Verne (UPJV)
Après une finale de la Ligue des champions de l’UEFA qui restera dans les annales, retour sur ce qui a provoqué des frissons… hors de la pelouse. Dans les tribunes, les chants se sont élevés, portés par des milliers de voix en fusion. Et si le spectacle avait aussi été là ? Plongée dans une ferveur collective où le chant devient un art et le stade, une scène culturelle à part entière.
Chanter ensemble, brandir des écharpes à l’unisson, participer à la ferveur collective : pour tous les supporters, aller au match de foot ne peut être réduit à une simple rencontre sportive. Cela relève d’un rituel esthétique où l’intensité émotionnelle, le sentiment d’appartenance et la communion se tissent dans l’expérience du stade. Être supporter est inséparable de l’action collective que l’on appelle football. L’intensité du chant des supporters donne au match une véritable portée culturelle, dans un double sens : artistique et anthropologique. Une double perspective qui inscrit le football dans une culture populaire.
La raison d’être du supporter réside dans cette quête d’intensité émotionnelle. Le terrain, le match, le jeu, les joueurs sont au centre, mais le chant amplifie le moment – le chant qui permet de vivre le match, la communion avec l’équipe, de devenir acteur : être le 12e homme dans la vibration collective.
La finalité sur le terrain est avant tout physique et compétitive ; l’expérience des tribunes, tout aussi physique, se construit, elle, dans l’émotion, l’attention et le plaisir. Trois termes qui, pour le philosophe Jean-Marie Schaeffer, définissent l’expérience esthétique. Avec le chant des supporters, l’expérience du match devient une pratique véritablement culturelle.
L’hymne du club, chanté en début de match, est un rituel en soi. Un chant au statut différent des encouragements communs qui durent toute la partie. Ce chant spécial est rituel en ce sens qu’il fait le lien entre deux réalités. Que les premières notes retentissent, et l’on bascule dans un autre monde : le monde du stade. Le poil se hérisse, le cœur bat plus fort, les larmes coulent. Chacun participe indistinctement, en chantant à tue-tête ! Et de la multitude des tons et des fausses notes mêlées s’élève, comme par magie, un chant toujours juste, reconnaissable entre tous : le chant des supporters.
Le chant, comme un précieux commun, a son histoire, liée à l’épopée du club, qui se confond avec celle d’une ville, d’une région. You’ll never walk alone à Liverpool (Angleterre), les Corons à Lens (Pas-de-Calais) ou, plus surprenant, Yellow Submarine des Beatles à Villarreal (Espagne) ! Avec cette intensité émotionnelle, pour tous les supporters, aller au stade devient un moment structurant de l’existence, un moment extraordinaire qui rompt avec la réalité et les difficultés quotidiennes. Aller au stade, c’est passer d’un monde prosaïque à la communion esthétique, au supplément d’âme (cher à Bergson), un moment sacré.
Aussi, dans les tribunes du stade d’Anfield, de Bollaert ou de Villarreal, la ferveur n’a rien d’un simple exutoire. Elle fait du stade un haut lieu d’un territoire. Elle est un langage, une manière d’habiter le monde et de s’y reconnaître. Elle témoigne d’une culture vivante, mouvante, ancrée dans les pratiques d’une ville, pour une grande partie de sa population. En cela, les supporters ne sont pas de simples amateurs de football : ils sont les acteurs d’une culture populaire, où le sentiment d’appartenance et la transmission de rites collectifs forgent une mémoire partagée.
Et devant l’harmonie collective, on ne peut que s’étonner de l’autorégulation de cette foule vociférante.
« Sans doute parce qu’un sentiment collectif ne peut s’exprimer collectivement qu’à condition d’observer un certain ordre qui permette le concert et les mouvements d’ensemble, ces gestes et ces cris tendent d’eux-mêmes à se rythmer et à se régulariser »,
écrivait le sociologue Émile Durkheim à propos du chant religieux.
À bien y regarder cependant, l’émotion des supporters est tout à fait cadrée, en particulier celle des plus ultras, rassemblés dans les Kops.
Tout au long du match – de manière peut-être plus exutoire, cette fois – les chants vont se succéder, au rythme d’une grosse caisse, mais surtout dirigés par la voix d’un meneur amplifiée par un mégaphone. Ce personnage, c’est le Capo, un chef d’orchestre, qui, dos à la pelouse tout le match, n’aura de cesse d’orienter la puissante mélodie du Kop.
« Notre match à nous, c’est de faire en sorte que l’ambiance soit top ! »,
déclare Popom, ex-Capo du Kop de la Butte, à Angers.
Ainsi, le match de football n’est pas qu’un jeu. Il est un théâtre d’émotions, une scène où se rejouent des récits communs et où se tissent des appartenances. Ce que vivent ces supporters, ce n’est pas uniquement un spectacle sportif, mais un moment de culture intégré à l’expérience du football, où l’intensité émotionnelle se déploie comme un art en soi. Une foule unie, un collectif. Au stade se croisent ainsi le sport et la culture, pour que, comme l’écrit la journaliste Clara Degiovanni, « en un seul instant partagé, les chants collectifs parviennent à entrecroiser et à sédimenter des milliers d’histoires et de destinées ».
Fabrice Raffin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
28.05.2025 à 12:27
Yannick Marandet, Directeur de recherches CNRS, Aix-Marseille Université (AMU)
La fusion nucléaire fascine et divise. Au-delà de la grande collaboration internationale ITER, mise en place dans les années 1980 afin de fournir un prototype de centrale électrique réellement utilisable pour alimenter le réseau en électricité, les avancées récentes ont fait apparaître de nouveaux acteurs dans le domaine, notamment des start-ups.
Pour faire le point sur les défis scientifiques et technologiques de la fusion, pour mieux comprendre comment les chercheurs et chercheuses vivent le fait de s’impliquer dans des projets de si longue haleine, Elsa Couderc, cheffe de rubrique Sciences et Technologies à The Conversation France, a rencontré Yannick Marandet. Chercheur en physique des plasmas, il a longtemps été directeur de la Fédération française de recherche sur la fusion par confinement magnétique (FR-FCM) et co-dirige aujourd’hui un grand projet de recherche sur les supraconducteurs et la fusion, financé par France 2030.
The Conversation : Vous travaillez sur la fusion nucléaire depuis vingt-cinq ans et vous avez pris diverses responsabilités pour coordonner les efforts français sur la fusion nucléaire, principalement orientés aujourd’hui vers la collaboration internationale ITER. Est-ce que vous pouvez commencer par nous expliquer ce qu’est la fusion nucléaire ?
Yannick Marandet : La fusion nucléaire, ce sont des réactions nucléaires qui sont à l’œuvre dans les étoiles, notamment dans le Soleil. C’est un peu comme des Lego : on assemble des petits noyaux pour en faire des plus gros. Ce sont en fait les processus par lesquels les éléments chimiques dont on est tous constitués, dont la Terre est constituée – comme le carbone, le fer ou l’oxygène – se sont formés dans des générations d’étoiles précédentes. D’où la fameuse expression, « Nous sommes tous des poussières d’étoiles ».
Ces réactions de fusion permettent de fabriquer des atomes plus gros, et ce faisant, elles libèrent de l’énergie contenue dans les noyaux que l’on assemble. Ainsi, dans une étoile en phase de vie normale, quatre noyaux d’hydrogène s’assemblent (l’élément le plus léger de l’Univers, un proton) pour faire un noyau d’hélium.
En fait, le terme hélium vient d’Hélios, car l’hélium a été découvert initialement en observant une éclipse solaire, en 1868. C’est intéressant de penser qu’on a trouvé de l’hélium dans notre étoile avant de l’observer sur Terre. Mais ce n’est qu’une fois qu’on a découvert cet élément sur notre planète, en 1895, qu’on a pu le peser et se rendre compte qu’il est un peu plus léger que quatre noyaux d’hydrogène – de l’ordre de 1 % plus léger. Cette masse perdue durant la transformation de l’hydrogène en hélium a été convertie en énergie : c’est la célèbre formule d’Einstein, E=mc2.
Comment est née l’idée d’utiliser ces phénomènes au cœur des étoiles pour générer de la chaleur, et donc de l’électricité ?
Y. M. : L’idée d’imiter ce qui se passe dans les étoiles est arrivée assez vite. Mais il faut savoir que les réactions de fusion nucléaire entre atomes d’hydrogène qui ont lieu dans les étoiles sont très inefficaces : les premières étapes de ces réactions sont tellement lentes qu’on ne peut même pas en mesurer la vitesse !
Il a donc d’abord fallu comprendre qu’on ne peut pas faire exactement ce que fait le Soleil, mais qu’on peut essayer de faire mieux, en utilisant des réactions qui sont plus rapides. Pour cela, il faut d’abord étudier comment marche une réaction de fusion.
Il faut d’abord faire se rapprocher les noyaux atomiques… malheureusement, ceux-ci se repoussent spontanément – plus ils sont gros, plus ils sont chargés et plus ils se repoussent. On a vu que la fusion de noyaux d’hydrogène à l’œuvre dans les étoiles n’est pas très efficace et, pour ces raisons, les réactions de fusion entre les isotopes de l’hydrogène ont été considérées. Les noyaux de ces isotopes ont par définition la même charge que l'hydrogène, mais contiennent un ou deux neutrons.
La solution actuelle – celle que l’on doit utiliser dans ITER – est arrivée dans le cadre du projet Manhattan – le projet de recherche du gouvernement américain qui visait à construire une bombe atomique, entre 1939 et 1947. Celui-ci se concentrait évidemment sur la fission nucléaire, mais ils ont assez vite pensé à rajouter une dose de fusion par-dessus. Pendant cette période, d’énormes progrès ont été faits en physique nucléaire parce qu’il y a eu de très gros moyens, très focalisés… ce qui a bénéficié au domaine de la fusion, même si c’est un héritage dont on n’aime pas nécessairement se réclamer.
Quoi qu’il en soit, quand les chercheurs du projet Manhattan ont commencé à faire fonctionner des réacteurs nucléaires, ils ont produit du tritium – l’isotope le plus lourd de l’hydrogène, avec deux neutrons. Et quelqu’un s’est rendu compte que le deutérium et le tritium, pour des raisons d'abord mystérieuses à l’époque, fusionnaient 100 fois plus vite que deux noyaux de deutérium.
Une réaction de fusion exploitable pour en faire de l’électricité avait été découverte.
Y. M. : Oui. Quand on fait une réaction deutérium-tritium, ça fait un noyau d’hélium cinq, extrêmement instable, qui se désintègre en un hélium quatre et un neutron. Ceux-ci vont extrêmement vite – l’énergie qu’on a perdue en masse se retrouve dans l’énergie de mouvement. En freinant ces particules, par collision dans la paroi de la machine, on va récupérer cette énergie, faire chauffer de l’eau et faire tourner des turbines.
Cette réaction deutérium-tritium a un énorme avantage, c’est qu’elle est beaucoup plus probable, et donc rapide, que les autres réactions de fusion nucléaire, comme la fusion de deux hydrogènes, observée dans le Soleil et dont on parlait précédemment… mais elle pose deux défis.
Le premier, c’est qu’elle utilise du tritium, qui est radioactif. Le problème n’est pas tant sa dangerosité, qui est limitée, mais plutôt sa demi-vie (le temps nécessaire pour que la moitié des atomes se désintègrent naturellement), qui n’est que de douze ans. De ce fait, c’est un élément très rare. Il faut le fabriquer pour s’en servir comme combustible – dans ITER par exemple, même si le plasma contiendra de l’ordre d’un gramme de tritium, il faudra stocker quelques kilogrammes sur site.
Le deuxième défaut de cette réaction, c’est qu’elle génère des neutrons de 14 mégaélectronvolts. Cette échelle peut sembler un peu absconse quand on n’a pas l’habitude de la manipuler : ce qu’il faut retenir, c’est que ces neutrons sont très énergétiques, suffisamment pour transformer des impuretés dans la paroi en éléments radioactifs. Et ça, c’est un défi – à tel point qu’aujourd’hui, un domaine de recherche entier est dévolu à développer des matériaux sans ces impuretés.
Pour la fusion deutérium-tritium, il faut utiliser ce neutron énergétique pour bombarder du lithium, et ainsi récupérer du tritium : on résout à la fois le problème d’approvisionnement en tritium et on produit de la chaleur supplémentaire par ces réactions.
Si l’on compare à une centrale à charbon de 300 MW électrique, qui brûle de 1 million à 2 millions de tonnes par an, l’avantage de la fusion est évident : il faut 30 kg de deutérium (l’océan en contient en quantité) et une centaine de kilos de lithium par an. Tout ça sans production de gaz à effet de serre ni déchets autres que la machine elle-même, et sans risques d’emballement.
Mais c’est aussi pour s’affranchir des problèmes liés aux neutrons énergétiques que différentes start-ups promettent aujourd’hui ce qu’on appelle la fusion « aneutronique », exploitant des réactions de fusion dans lesquelles on ne produit pas (ou peu) de neutrons. En n’utilisant pas de tritium, on aurait un carburant qui ne serait pas radioactif et pas (ou peu) de neutrons en sortie. La réaction de choix pour faire ça, c’est de fusionner un proton avec du bore (élément chimique dont le noyau compte cinq protons)… mais elle nécessite de monter à des températures dix à cent fois plus élevées que celles envisagées dans ITER, ce qui veut dire que ces start-ups devront obtenir des plasmas extrêmement performants.
À quelle température a lieu la réaction deutérium-tritium, celle qui doit être utilisée dans ITER ?
Y. M. : Cent cinquante millions de degrés ! Cette température est un vrai défi pour les scientifiques aujourd’hui.
Les plans initiaux de développement de la fusion, dans les années 1940 et 1950, étaient très optimistes… En effet, à l’époque, on ne connaissait pas très bien ce qu’on appelle aujourd’hui la « physique des plasmas ». À 150 millions de degrés, un gaz d’hydrogène de deutérium-tritium n’est plus un gaz ! C’est ce qu’on appelle un « plasma », c’est-à-dire un milieu suffisamment énergétique, suffisamment chaud, pour que tous les électrons soient arrachés de leurs noyaux. On se retrouve avec une soupe d’électrons et d’ions.
On pourrait penser que cette soupe est similaire à un gaz ; mais la grosse différence avec des molécules dans un gaz est que les particules chargées se sentent les unes les autres à grande distance. Ainsi, dans un plasma, si on bouscule un électron quelque part, tous les électrons autour vont le sentir, et bouger également… on comprend bien qu’il peut se passer des choses très intéressantes du point de vue de la physique !
Mais plus complexes aussi, surtout du point de vue des applications. Parce qu’un plasma est quelque chose d’assez compliqué à maîtriser, qui devient très vite turbulent.
Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Et justement, vous avez réalisé votre thèse au début des années 2000, sur l’analyse des plasmas turbulents. Quelles étaient les problématiques à l’époque ?
Y. M. : J’ai fait ma thèse sur la caractérisation de plasmas, en collaboration avec des collègues d’une expérience de fusion appelée à l’époque « Tore Supra » au CEA Cadarache, dans les Bouches-du-Rhône (cette machine est devenue West). J’analysais la lumière émise par les plasmas. Nous avions l’expertise d’analyse, de spectroscopie, et Tore Supra fournissait des plasmas ; ils avaient besoin de mieux comprendre ce qu’ils voyaient.
Une des grandes questions de la recherche sur la fusion a toujours été celle de la qualité du confinement. On utilise des champs magnétiques, générés par des électroaimants, qui confinent les particules chargées dans la machine. En effet, vous l’aurez compris, pour avoir des réactions de fusion, il faut chauffer le plasma. Mais c’est comme à la maison : si on allume les radiateurs à fond mais qu’on laisse les fenêtres ouvertes, la température dans la pièce ne va pas monter beaucoup. Si on ferme les fenêtres, ça va aller mieux, et si on isole mieux la maison, la température va monter plus haut pour la même puissance de radiateur. Dans notre cas, les champs magnétiques jouent un rôle d’isolant. Il faut réussir à isoler suffisamment pour que la température monte à 150 millions de degrés au cœur de la machine et que les réactions de fusion se produisent – après cela, ce sont ces réactions elles-mêmes qui chauffent le plasma.
La qualité de l’isolation est un peu la raison pour laquelle les gens étaient optimistes au départ : on pensait que la chaleur s’échapperait par conduction, c’est-à-dire sans mouvement du plasma, comme quand on pose quelque chose de chaud à un endroit, et que la chaleur passe dans les objets autour. En réalité, le plasma se met en mouvement, comme quand on chauffe de l’eau dans une casserole : il y a des cellules de convection dans la casserole, de la turbulence, qui font que l’eau monte, redescend, et que ça se mélange beaucoup mieux que par conduction ; ce qui mène à une perte de chaleur. Comprendre cette turbulence dans les plasmas est un fil directeur des études sur la fusion depuis longtemps.
La problématique de ma thèse était de mieux caractériser la turbulence en regardant certaines propriétés de la lumière émise par le plasma.
Comment ces problématiques ont-elles évolué au fil de votre carrière ?
Y. M. : La question du confinement magnétique du plasma est globalement beaucoup mieux comprise… mais, encore aujourd’hui, il reste des points difficiles.
En effet, on sait que lorsqu’on dépasse une certaine puissance de chauffage dans le plasma, celui-ci s’organise de manière un peu différente, dans un régime où cette fameuse turbulence qui nous embête se « suicide » au bord du plasma : elle génère elle-même des écoulements qui la suppriment. Ça permet de beaucoup mieux confiner le plasma, et ce régime de fonctionnement (au-dessus d’une certaine puissance de chauffe) a été appelé « le mode H », pour high confinement. C’est le mode d’opération qui a été prévu dans ITER.
Néanmoins, bien que l’on ait compris des aspects importants de son fonctionnement, on ne sait toujours pas prédire avec précision à quel niveau de chauffage la transition vers le mode H va se produire. Des lois empiriques, fondées sur les résultats des expériences actuelles, sont utilisées pour extrapoler à ITER. Cette situation n’est pas si inhabituelle, les avions volent bien que nous n’ayons pas percé tous les secrets de la turbulence autour des ailes. Mais mieux on comprend, plus on peut optimiser.
Pourquoi le mode H résiste-t-il aux efforts des physiciens depuis quarante ans ?
Y. M. : Très probablement parce qu’il implique des interactions entre des phénomènes à différentes échelles. Dans l’espace, on doit comprendre des mécanismes depuis les échelles millimétriques jusqu’au mètre ou à la dizaine de mètres (la taille de la machine) ; et dans le temps, depuis la fraction de microsecondes jusqu’à plusieurs secondes. Il est difficile de capturer toutes ces échelles de manière globale, de les intégrer les unes aux autres, de façon suffisamment générale pour être prédictives.
Ici aussi, on est dans une situation qui est très intéressante du point de vue de la physique, mais qui nécessite une modélisation extrêmement détaillée au niveau des processus microscopiques, car nous avons affaire à des milieux hors d’équilibre. La physique est très riche parce qu’elle implique des particules, des champs électromagnétiques, dans des configurations géométriques complexes. Elle est aussi très « non linéaire ». Pour simplifier, ceci signifie qu’on ne peut pas résoudre les équations à la main, de façon exacte : on approxime les solutions numériquement, avec des ordinateurs. La puissance de calcul disponible sur les très gros calculateurs a ainsi permis de grands progrès.
Ceci étant, malgré ces frustrations au niveau de la compréhension théorique, les expériences ont progressé et les performances des machines comme les tokamaks ont été multipliées par 100 000 depuis les années 1970 (en termes de « triple produit », une métrique qui mesure de la qualité de l’isolation).
La qualité de l’isolation tient-elle à la puissance des aimants ?
Y. M. : En partie. Disons que si on est capable de faire des champs magnétiques plus élevés, en principe, on est capable d’avoir un meilleur confinement. Mais, sur ITER, on a déjà poussé les champs magnétiques proche de la limite pour la technologie d’aimants utilisée, d’autant plus qu’il faut magnétiser un volume gigantesque – ITER fait 800 mètres cubes.
On utilise donc le second facteur pour améliorer l’isolation : on augmente la taille. Pensez au thé – on laisse le thé dans la théière parce qu’il y refroidit moins vite que dans une petite tasse. C’est pour ça que les machines comme ITER, les tokamaks, ont eu tendance à grossir avec les années. On peut dire que la taille d'ITER est directement liée à la technologie d'aimants utilisée.
Aujourd’hui, on entend pourtant parler de start-ups qui veulent faire des machines, des tokamaks, plus petites…
Y. M. : Tout à fait, avec l'idée que cela réduira très significativement le coût de construction. L'idée est d’utiliser une autre technologie d’aimants, plus récente que celle utilisée dans ITER et qui doit encore faire ses preuves. ITER utilise des électro-aimants supraconducteurs, c’est-à-dire à base de matériaux n’opposant aucune résistance au passage d’un courant électrique. On peut faire passer des courants gigantesques, des dizaines de milliers d’ampères, sans perte par chauffage… ce qui permet de faire des aimants très puissants. Mais pour être supraconducteurs, ces matériaux doivent être refroidis à -269 °C et ne doivent pas être plongés dans des champs magnétiques au-dessus de typiquement douze tesla (l’unité des champs magnétiques)
Dans les années 1980, des matériaux supraconducteurs à haute température critiques ont été découverts. Ces matériaux fonctionnent déjà bien à -195 °C, pour le grand public, c’est toujours très froid, mais cela simplifie beaucoup le refroidissement, car on peut utiliser de l’azote liquide.
Et si on utilise ces mêmes supraconducteurs entre -269 °C et -250 °C – ce qui est tout à fait possible, mais nécessite un frigo plus cher et plus encombrant –, on peut faire passer des courants deux fois plus importants que dans les supraconducteurs classiques et générer des champs magnétiques deux fois plus intenses… ce qui permet en principe de réduire la taille de la machine, sans perdre en qualité d’isolation !
C’est pour cela qu’un gros projet a été lancé au niveau français, un « PEPR » (un programme et équipement prioritaire de recherche) appelé SupraFusion, et dont vous êtes un des co-directeurs ?
Y. M. : Oui, SupraFusion s’attaque exactement à cette question : maîtriser la technologie des aimants supraconducteurs à haute température pour développer des applications sociétales – sachant que c’est la fusion qui est en train de tirer l’industrialisation de ces technologies avancées d’aimants supraconducteurs.
Que peut-on faire d’autre avec des aimants supraconducteurs à haute température ?
Y. M. : Il y a déjà un câble électrique d’alimentation de la gare Montparnasse qui utilise ces technologies-là, qui permettent de faire des câbles très compacts – très utiles lorsqu’il y a peu de place, en milieu urbain. On envisage aussi des dispositifs électrotechniques qui permettent de renforcer la stabilité des réseaux électriques (des « limiteurs de courant ») ; mais aussi des génératrices d’éoliennes plus légères, plus efficaces. En santé, on pourrait faire des IRM plus petits voire portables. En physique des particules, de nouveaux accélérateurs.
L’idée, c’est d’utiliser la fusion comme aiguillon – ce qu’on appelle l’« effet Formule 1 ». On s’attaque à quelque chose d’extrêmement difficile pour tirer l’innovation, et on attend un ruissellement sur beaucoup d’autres applications qui sont moins exigeantes.
Est-ce que vous sentez une évolution dans la perception de la fusion nucléaire par rapport à vos débuts ?
Y. M. : Quand je suis arrivé, c’était une phase un petit peu plus compliquée, la décision de construire ITER n’était pas acquise.
Enfant, je rêvais de devenir astrophysicien, mais j’ai finalement choisi de travailler sur la fusion parce que je voulais contribuer plus directement à la société.
Ceci dit, le chemin à parcourir vers l’énergie de fusion restait assez flou pour moi. J’étais focalisé sur ma thématique de recherche et il faut du temps pour acquérir une vision plus large des problématiques en jeu. L’importance du défi scientifique et l’impact qu’aura l’énergie de fusion étaient déjà bien perçus, mais cela restait avant tout pour moi un problème de physique, dont l’ambition me fascinait. Lors de mon postdoc à l’Université de Floride, je me souviens avoir été approché par un collègue qui m’a expliqué travailler avec une entreprise privée de fusion, Tri-Alpha Energy, et m’a encouragé à les rejoindre. Je crois que j’ai dû le dévisager comme s’il était un extraterrestre, cela me semblait complètement décalé ! Cette entreprise existe toujours (TAE Technologies) et génère des revenus en commercialisant des appareils d’imagerie médicale développés dans le cadre de ses recherches sur la fusion.
À l’heure actuelle, de nombreuses start-ups travaillent sur la fusion. Leur existence change la perception qu’ont le public et les décideurs : la physique est suffisamment comprise, et le travail sur ITER a suffisamment fait progresser la technologie pour se lancer dans la bataille de la commercialisation dès maintenant. Les années à venir vont être très intéressantes.
Il me semble, par ailleurs, observer la montée en puissance d’un courant de pensée hostile au progrès scientifique en général et à la fusion en particulier. Se doter d’une nouvelle source d’énergie est perçu comme néfaste – on s’entête dans une forme de fuite en avant alors qu’il faudrait juste être plus sobre. Il s’agit là d’une question de choix de société et le rôle des scientifiques est d’informer ces choix – pour ce qui concerne l’énergie, ma conviction est qu’il est plus sage de se donner les moyens d’agir. S’il devient vital d’extraire du CO2 de l’atmosphère en masse, les besoins énergétiques seront gigantesques et la fusion ne sera pas de trop !
Mais l’actualité de ces dernières années, à la fois géopolitique et climatique, a refocalisé l’attention du grand public sur la question de l’énergie, bien plus qu’au moment où j’ai débuté ma carrière. Il me semble que la fusion est perçue comme une partie de la solution. À mon sens le seul danger est que son développement soit utilisé comme prétexte pour ne pas réduire les émissions de gaz à effet de serre dès maintenant. Les moyens mis dans la fusion peuvent paraître énormes du point de vue de la recherche, mais il faut les comparer au coût de notre système énergétique. Il est alors clair que les ressources mises dans la fusion ne vont pas étouffer la transition énergétique.
Enfin, le projet ITER résulte de discussions entre Reagan et Gorbatchev – il y avait vraiment l’idée de développer cette source d’énergie dans un but de paix. Cette dimension de collaboration scientifique entre grandes puissances pour des applications au bénéfice de tous existe encore dans le monde multipolaire d’aujourd’hui et contribue à donner une image positive de la fusion magnétique.
Est-ce différent de faire de la recherche sur la fusion nucléaire dans un pays où la fission est si bien installée, par rapport à un pays où le mix énergétique n’inclut pas ou peu de fission ?
Y. M. : C’est une question intéressante. L’énergie de fusion sera une énergie pilotable décarbonée, qui est donc très utile pour stabiliser les réseaux électriques et garantir la continuité de l’alimentation. Il en va de même pour les centrales nucléaires actuelles, mais les réserves en uranium sont limitées, surtout dans un contexte de forte croissance du secteur. L’approvisionnement en uranium est l’une des raisons pour lesquelles la France relance aujourd’hui le programme de « réacteurs à neutrons rapides », une technologie de fission nucléaire. Certaines promesses de ces réacteurs sont similaires à celles de la fusion (avec sa capacité à produire de l’électricité pendant très longtemps sur les réserves actuelles, etc.) et ces réacteurs à neutrons rapides ont déjà produit de l’électricité en France (Superphénix). Par contre, cette technologie présente des risques comparables à ceux des centrales nucléaires actuelles. Quoi qu’il en soit, leur relance joue certainement un rôle sur la perception de l’utilité de la fusion à moyen terme au niveau des acteurs français du domaine.
Si l’on regarde ce qui se passe ailleurs, le Royaume-Uni investit lourdement dans la fusion et construit des réacteurs nucléaires EPR français en parallèle. La Chine a les moyens de développer toutes les technologies de front : les variantes de la fission, et plusieurs projets de fusion majeurs. De fait, on estime que la Chine dépense plus de 1,5 milliard d’euros par an pour son programme fusion, devant les États-Unis et l’Europe.
La situation est différente en Allemagne, qui est sortie du nucléaire et où la production pilotable est essentiellement assurée par des centrales au charbon et au gaz, qui émettent des quantités importantes de gaz à effet de serre. L’Allemagne s’est dotée récemment d’une feuille de route ambitieuse pour la fusion, dans l’optique de décarboner à terme cette part pilotable.
Le fait est que si la France investit lourdement dans l’énergie nucléaire, elle investit également dans la fusion : dans le projet ITER dont les retombées économiques sont majeures (6 milliards d’euros de contrats pour les industriels français à ce jour) et, en parallèle, dans l’étape suivante, à travers le projet de PEPR et le soutien à une start-up française du domaine, située à Grenoble, Renaissance Fusion.
Avec la fusion, les échéances semblent toujours lointaines – on parle de plasma dans ITER en 2035, de génération d’électricité pour alimenter le réseau à la fin du siècle. Est-ce que vous avez l’impression de vivre dans le futur en travaillant sur quelque chose qui n’arrivera pas d’ici la fin de votre carrière ?
Y. M. : Quelqu’un a comparé ça aux constructeurs de cathédrales. On travaille sur un projet dont les fruits ne seront pas nécessairement disponibles dans la durée de notre vie. On se met au service de quelque chose de plus grand. C’est une forme d’humilité, chacun apporte sa pierre ! Alors, il y a les boutades habituelles sur la fusion (« C’est pour dans trente ans et ça le restera »)… mais ce que je constate, c’est qu’il y a beaucoup de progrès, comme je vous le disais, sur les performances depuis les années 1970.
En ce moment, on progresse sur des aspects importants, comme le record de durée de plasma réalisé dans West cette année (1 337 secondes, soit 22 minutes).
En termes de performance sur le gain de fusion, les progrès ont été portés par nos collègues de la fusion inertielle, qui utilisent des lasers et ont obtenu des gains nets supérieurs à 1, c’est à dire que le plasma a produit plus d’énergie que ce qui lui a été apporté par les lasers. Sur ce point, pour la fusion magnétique, nous sommes dans une phase de latence, le temps qu’ITER soit finalisé. Je pense qu’une des raisons pour lesquelles ça prend autant de temps, c’est que les objectifs d’ITER sont extrêmement ambitieux : puisque on veut faire dix fois mieux qu’aujourd’hui en termes de performance, et le faire pendant mille secondes pour s’approcher du fonctionnement d’une centrale… alors que les records de performance actuels, en termes de gain, ont été atteints pour moins d’une seconde.
En d’autres termes, vous cherchez à faire dix fois mieux pendant mille fois plus longtemps…
Y. M. : Oui, et c’est important, parce que certaines start-ups promettent des choses bien plus tôt, mais sur des durées de plasma beaucoup plus courtes. Les résultats seront très intéressants, mais cela leur permet d’éviter pour l’instant des problèmes que l’on aura de toute façon, un jour ou l’autre, dans une centrale.
Mais je pense qu’on travaille en fait en parallèle, car ces start-ups poussent des technologies qui pourraient s’avérer clé pour la suite. Ma conviction, c’est que grâce à ces efforts combinés, l’étape « post-ITER » va beaucoup accélérer.
Yannick Marandet a reçu des financements d'AMIDEX, de l'ANR et de l'Europe.
28.05.2025 à 12:27
Bastien Bissaro, Chercheur sur la biodiversité fongique et les biotechnologies, Inrae
Fanny Seksek, Doctorante au Laboratoire de Biodiversité et Biotechnologies Fongiques, Inrae
Les déchets plastiques sont une plaie désormais bien identifiée. Certaines enzymes – des protéines très spécialisées, véritables nanomachines – sont capables de dégrader des molécules similaires aux plastiques de consommation courante.
Une enzyme microbienne, capable de s’attaquer à la barrière protectrice de plantes, a été détournée pour recycler le PET, un plastique dont on fait les bouteilles d’eau.
Chaque année, 400 millions de tonnes de plastiques sont produites sur Terre, soit la masse de 40 000 tours Eiffel. Environ 80 % de ces plastiques sont éliminés dans des décharges ou rejetés dans l’environnement. Les plastiques sont aujourd’hui indispensables à notre mode de vie moderne, car ils répondent à des besoins en matière de santé, d’habillement, d’emballage, de construction, de transport, de communication, d’énergie, etc.
Malheureusement, les plastiques (ou polymères synthétiques), principalement dérivés de ressources fossiles, posent cependant un problème écologique majeur en raison de leur faible taux de recyclage et de leur accumulation dans l’environnement. Différentes pistes de recyclage économe en énergie existent. S’il convient de garder à l’esprit qu’il n’y a pas de meilleur déchet que celui qui n’est pas généré, il faut aussi s’attaquer à dégrader les déchets déjà produits et ceux qui sont devenus indispensables.
En 2020, une étude a démontré qu’il est possible de recycler le PET – constituant principal de nombreuses bouteilles plastiques notamment – grâce à des enzymes, les « nanomachines du vivant ».
Pour commencer, expliquons ce qu’est un plastique : une succession de « perles » microscopiques (appelées monomères) qui sont assemblées en « colliers » (polymère), auxquels s’ajoutent diverses molécules chimiques. Le type de monomère, et son assemblage en polymère dictent la nature du plastique et ses propriétés.
Recycler les déchets plastiques implique donc soit de couper le polymère en monomères d’origine pour ensuite reformer de nouveaux colliers (on parle alors de recyclage chimique ou enzymatique), soit de broyer le déchet plastique pour le réagglomérer (on parle alors de recyclage mécanique).
Le recyclage chimique repose en général sur des procédés qui sont très gourmands en énergie et le recyclage mécanique produit souvent des matériaux de moindre qualité après retraitement.
À lire aussi : Recyclage et valorisation des déchets plastiques : comment ça marche ?
À lire aussi : Vers des plastiques biodégradables et recyclables ? La piste des « PHAs » progresse
Il est important de noter que moins de 10 % du plastique mondial est actuellement recyclé. Des technologies de recyclage qui sont à la fois moins gourmandes en énergie et plus propres sont donc très recherchées.
Face à ce constat, l’utilisation d’enzymes représente une solution (bio) technologique prometteuse.
En effet, les enzymes sont des outils indispensables du vivant : produites par tout organisme, ces protéines ont pour rôle de catalyser des réactions chimiques de manière très fine et contrôlée.
Les processus enzymatiques sont partout : de la digestion des aliments à leur transformation en énergie, en passant par la fabrication d’hormones et autres composés indispensables au fonctionnement des êtres vivants.
Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
La force inégalée des enzymes, expliquant leur prépondérance comme nanomachines du vivant, est leur sélectivité : pour pouvoir assurer sa fonction et ne pas modifier son environnement de manière incontrôlée, chaque enzyme agit sur une liaison chimique bien déterminée, permettant ainsi d’obtenir des produits de réaction parfaitement contrôlés.
Et les plastiques dans tout ça ? De par leur introduction très récente dans l’environnement, les enzymes spécialisées dans la dégradation de plastiques synthétiques pétrosourcés sont encore (très) rares.
Cependant, la similitude de ces plastiques avec des polymères naturels récalcitrants qui, eux, peuvent être dégradés par certaines enzymes naturelles a donné à la communauté scientifique l’idée d’adapter ces dernières enzymes aux plastiques.
Un bel exemple de cette démarche est celui développé par l’entreprise française Carbios en collaboration avec les équipes de recherche du Toulouse Biotechnology Institute (TBI) pour le recyclage enzymatique du polyéthylène-téréphtalate (PET), un plastique largement utilisé dans la fabrication de bouteilles en plastique et de textiles.
Pour cela, ils ont utilisé une enzyme appelée « cutinase », spécialisée dans la dégradation de la cutine, qui est un polymère d’acide gras que l’on trouve communément à la surface de certaines plantes. Cette barrière protectrice est dégradée par certains pathogènes comme des bactéries et des champignons, qui produisent pour ce faire des enzymes spécialisées dans le clivage de ses chaînes. Comme les liaisons chimiques reliant les monomères constituant la cutine et le PET sont de même type (liaison ester), la cutinase testée s’est avérée avoir une activité (certes faible) de dégradation du PET.
Cela a constitué une base prometteuse pour ensuite améliorer l’activité de l’enzyme, par des méthodes dites d’« ingénierie protéique ». Cette stratégie a permis d’adapter l’enzyme à un procédé industriel, qui se déroule dans des conditions très lointaines des conditions naturelles de l’enzyme (température plus élevée, concentrations en polymère élevées, besoin de réaction rapide, etc.).
In fine, ce procédé enzymatique permet de récupérer les monomères du PET, qui peuvent ensuite être réutilisés pour synthétiser du PET « neuf » pour faire soit de nouvelles bouteilles, soit des vêtements. Si la variabilité des bouteilles et des textiles (additifs, colorants) peut impacter l’efficacité du procédé, les performances sont suffisamment bonnes pour justifier la construction d’une usine à Longlaville, en Meurthe-et-Moselle, débutée en 2024.
Bien que cette découverte soit prometteuse pour le déploiement d’enzymes dans le recyclage du PET, elle ne peut s’appliquer à tous les plastiques existants : à chaque liaison chimique son enzyme, puisque celles-ci sont hautement sélectives.
Pour chaque plastique que l’on souhaite recycler, c’est donc un nouveau défi. Les plastiques les plus abondants sur Terre que sont le polyéthylène (abrévié PE) et le polypropylène (abrévié PP) sont constitués de liaisons carbone-carbone très solides, les rendant totalement insensibles aux enzymes jusqu’ici découvertes. Cela reste donc rare de voir des success stories de recyclage enzymatique des plastiques, car c’est un sujet relativement récent qui va demander de nombreuses années de travail pour arriver à de nouvelles réussites.
Bastien Bissaro a reçu des financements de l'ANR.
Fanny Seksek a reçu des financements de l'ANR.
28.05.2025 à 12:27
Jean-François Bodart, Professeur des Universités, en Biologie Cellulaire et Biologie du Développement, Université de Lille
Et si, chez les mammifères, la naissance pouvait se passer de l’union des cellules sexuelles d’un père et d’une mère ? Début 2025, une équipe chinoise franchissait une étape inédite en donnant naissance, à partir de deux pères, à des souris qui ont pu atteindre l’âge adulte, bouleversant ainsi des certitudes sur la reproduction sexuée et le rôle du génome paternel.
Cette prouesse, rendue possible par des modifications épigénétiques ciblées, fournit un nouvel éclairage sur les mécanismes fondamentaux du développement embryonnaire.
Chez les mammifères, la reproduction sexuée implique la fusion de deux cellules sexuelles, ou gamètes : l’ovocyte maternel et le spermatozoïde paternel. Si cette règle semble universelle, elle ne l’est pas chez tous les animaux : de nombreux poissons, reptiles ou insectes peuvent se reproduire par parthénogenèse, qui est un mode de reproduction dans lequel un œuf se développe en un nouvel individu sans avoir été fécondé par un mâle.
Mais, chez les mammifères comme la souris, les tentatives de développement embryonnaire à partir d’un seul type de génome – qu’il soit maternel ou paternel – avaient échoué systématiquement.
Au cours de la formation des gamètes, l’empreinte génomique, ou marquage épigénétique, rend certains gènes actifs ou silencieux selon leur origine parentale. Les marquages épigénétiques sont des modifications chimiques de l’ADN ou de ses protéines associées : ils n’altèrent pas la séquence génétique mais influencent l’expression des gènes, un peu comme des interrupteurs qui allument ou éteignent certains gènes selon leur provenance. Cette empreinte est essentielle pour la régulation de gènes impliqués dans le développement jusqu’à son terme de l’embryon.
Ce principe d’empreinte parentale est parfois observé lors de l’hybridation entre espèces proches, comme le lion et le tigre. Lorsqu’un lion et un tigre s’accouplent en captivité, le nouveau-né, ligre ou tigron, n’est pas le même selon que la mère est une tigresse ou une lionne. Cette différence s’explique par les mécanismes d’empreinte génétique : les gènes paternels (du lion) favorisent la croissance tandis que les gènes maternels (de la lionne) la limitent. Ainsi, un ligre (père lion, mère tigresse) devient le plus grand des félins, car il bénéficie des gènes de croissance du lion sans les freins maternels. À l’inverse, un tigron (père tigre, mère lionne) reste de taille normale ou petite, car la lionne transmet ses gènes inhibiteurs de croissance. Ces variations remarquables illustrent la puissance de l’empreinte parentale dans la régulation du développement.
En 2004, naît Kaguya, première souris viable issue de la combinaison de deux génomes maternels. Cette naissance s’inscrivait dans une recherche qui visait à explorer et confirmer le rôle central de l’empreinte parentale dans la viabilité embryonnaire. Pour contourner l’empreinte génomique, des ovocytes immatures de souris nouveau-nées sont modifiés génétiquement par la suppression de la région régulatrice du gène maternel H19 et l’activation d’un gène paternel Igf2 (régulation de la croissance). Le noyau de ces ovocytes est transféré dans un ovocyte mature normal, créant un embryon bimaternel.
Seuls 2 souriceaux survivent sur 598 embryons, dont Kaguya, qui a atteint l’âge adulte et a pu se reproduire normalement, mais dont le développement présentait un retard de croissance par rapport à celui des souris issues d’une reproduction classique. En 2015, le perfectionnement d’une approche utilisant la modification de l’empreinte génomique de cellules souches embryonnaires haploïdes (un seul exemplaire de chaque chromosome) a permis l’obtention de souris bimaternelles fertiles avec une efficacité accrue.
Si la reproduction bi-maternelle a pu être obtenue, la reproduction bi-paternelle s’est avérée un défi plus complexe. Le gamète maternel, en plus du matériel génétique, apporte l’essentiel des ressources nécessaires au développement initial de l’embryon (ARN, protéines, organites), tandis que le spermatozoïde apporte essentiellement son ADN, qui permettra la première division cellulaire.
Les embryons de souris issus de deux pères présentaient initialement de graves anomalies, incompatibles avec un développement complet, et mouraient avant la naissance ou peu après.
Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Début janvier, l’équipe de Zhi-kun Li a franchi ce verrou biologique en réalisant une série de 20 modifications génétiques ciblées sur des régions d’empreinte clés dans des cellules souches embryonnaires dérivées de spermatozoïdes. Ces modifications incluaient des délétions, des mutations et modifications de régions régulatrices sur des gènes critiques, dont des gènes impliqués dans la croissance embryonnaire, le développement placentaire et les fonctions neurologiques. Ces cellules modifiées ont ensuite été fusionnées avec un second spermatozoïde et injectées dans un ovocyte énucléé, c’est-à-dire un ovocyte dont le matériel nucléaire est retiré. Au cours du développement précoce, l’ajout de cellules supplémentaires pour former un placenta fonctionnel, s’est montré crucial pour un développement jusque la naissance. Ces modifications génétiques ciblées ont donc permis de corriger les déséquilibres d’expression génique imposés par l’empreinte parentale.
Les résultats ont été spectaculaires : les défauts majeurs observés dans les embryons bipaternels (croissance excessive, anomalies placentaires, troubles de la succion) ont été corrigés. Ces souris ont grandi et, pour certaines, survécu jusqu’à l’âge adulte mais restaient stériles et incapables de se reproduire naturellement. Le taux de réussite reste modeste (environ 4 % des embryons modifiés).
Les souris bimaternelles et bipaternelles présentent des caractéristiques opposées, reflétant le rôle antagoniste des empreintes parentales. Les premières sont plus petites, vivent plus longtemps et sont plus anxieuses, tandis que les secondes grandissent plus vite, vivent moins longtemps, sont plus téméraires, mais présentent des troubles du développement. Cela confirme que les gènes paternels stimulent la croissance, tandis que les gènes maternels la freinent, assurant un équilibre vital. Les travaux récents montrent que l’empreinte génomique est le principal obstacle à la reproduction bipaternelle. En modulant ces régions, un développement embryonnaire normal peut se produire.
Cette avancée ouvre plusieurs perspectives. En recherche fondamentale, l’étude de l’empreinte génomique permettra de mieux comprendre certaines maladies humaines rares comme les syndromes de Prader-Willi, caractérisé par une obésité sévère et des troubles alimentaires, et d’Angelman, qui provoque un retard intellectuel et une absence quasi totale de langage, tous deux liés à des défauts d’empreinte. Sur le plan des biotechnologies, la correction de ces anomalies pourrait améliorer l’efficacité du clonage animal et la stabilité des cellules souches en médecine régénérative. Enfin, les souris bipaternelles et bimaternelles offrent de nouveaux modèles pour explorer l’influence des génomes parentaux sur le développement et le comportement.
De nombreuses limites subsistent. Les souris bipaternelles présentent encore des anomalies (croissance accélérée, troubles du comportement, espérance de vie réduite), et leur développement dépend de manipulations lourdes et d’un environnement très contrôlé.
La génération de souris adultes à partir de deux pères, rendue possible par la modification de l’empreinte génomique, questionne donc la compréhension des règles fondamentales de la reproduction chez les mammifères. Cette avancée ouvre des voies inédites, et rappelle la complexité des mécanismes épigénétiques sans éluder une réflexion éthique critique : la question de la transposabilité à d’autres espèces, et en particulier à l’humain, n’est pas une question mineure.
Jean-François Bodart ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
28.05.2025 à 12:26
Sylvain Lemettre, Ingénieur-chercheur en physique du vide, Université Paris-Saclay
Dans notre quotidien, ce qui nous apparaît comme des espaces vides sont en fait remplis de milliards de molécules de gaz, le « vrai » vide se trouve essentiellement dans l’espace. Certains grands instruments scientifiques doivent pourtant être emplis de vide pour fonctionner.
En cette année 2025, l’Organisation européenne pour la recherche nucléaire (CERN) a publié l’étude de faisabilité de la construction d’un nouvel accélérateur de particules géant, appelé Futur collisionneur circulaire (FCC). Cet accélérateur mesurerait de 80 à 100 kilomètres de circonférence et serait donc au moins trois fois plus grand que le plus grand accélérateur de particules du monde, nommé LHC, déjà construit sur le même site, à la frontière franco-suisse. Ce projet, par son gigantisme, soulève de nombreuses réserves, et ce jusque dans la communauté scientifique : certains estiment que les chances de nouvelles découvertes scientifiques apportées par cet accélérateur sont trop faibles en regard de son impact écologique.
Une des caractéristiques fondamentales d’un accélérateur de particules est qu’il fonctionne sous un très haut niveau de vide. Mais le LHC n’est pas la seule installation sous vide géante construite par l’être humain sur la planète.
Le terme vide est employé dans la vie de tous les jours pour exprimer une absence ou un manque de matière. En réalité, même un espace qui nous paraît vide est empli de molécules gazeuses : une boîte de 1 m3 ne contenant aucun objet en apparence est en fait remplie d’environ 1029 molécules gazeuses, principalement de l’azote et de l’oxygène. Cette boite est, comme tout ce qui nous entoure, à une pression d’à peu près 101 325 Pascal (Pa), correspondant à la pression atmosphérique, aussi exprimée par l’unité 1 atmosphère.
En physique le vide caractérise un espace dans lequel le nombre de molécules gazeuses est raréfié par rapport à cette pression atmosphérique, ce qui se traduit par une plus faible pression que 1 atmosphère.
Le développement continu des technologies du vide depuis le XVIIème siècle a permis d’atteindre des niveaux de vide de plus en plus élevés – correspondant à des pressions de plus en plus basses – qui ont été classés en différentes catégories : descendre jusqu’à 10-1 Pa c’est réaliser un vide « primaire », jusqu’à 10-6 Pa c’est réaliser un vide « secondaire » ou « haut vide », jusqu’à 10-10 Pa « l’ultravide », et des pressions encore inférieures sont appelées « extrême vide ».
Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Le vide est donc une notion relative : vivre sous 1 atm est une exception, étant donné que l’immense majorité de l’univers est en fait « sous vide ». Par exemple, sur la Lune, qui n’a pas d’atmosphère, la pression est inférieure à 10-8 Pa telle que l’a mesurée la mission Apollo 14 en 1971. Quelle que soit la région de l’espace considérée (interplanétaire, interstellaire ou intergalactique), le niveau de vide est si élevé qu’il est préférable de le quantifier non plus par des pressions en pascal mais par des densités de molécules par unité de volume. On estime ainsi qu’il n’y a que quelques molécules gazeuses par m³ dans l’espace intergalactique.
Le vide est un outil essentiel qui intervient dans la fabrication – voire qui est nécessaire au fonctionnement – d’un très grand nombre d’objets technologiques, trop nombreux pour être listés, tels que les imageurs infrarouge ou les cellules solaires. Il est indispensable à la réalisation des expériences dans certains des très grands instruments scientifiques tel que l’accélérateur de particules.
Cet instrument permet d’accélérer à des vitesses relativistes (proches de celle de la lumière), à l’intérieur d’un ensemble de tubes, des particules atomiques telles que des électrons ou des protons, pour les faire se collisionner et étudier ainsi de quoi elles sont constituées, ou pour leur faire émettre des rayonnements ultrabrillants permettant ensuite de sonder la matière. Ces particules ne peuvent être manipulées efficacement et précisément que dans un environnement extrêmement contrôlé, et donc sans molécule de gaz. Le vide contribue aussi à protéger les composants de l’accélérateur de la dégradation.
Le réseau existant de tubes du LHC du CERN atteint une longueur totale de 104 km, maintenu selon les sections sous une pression allant de 10-4 Pa à 10-10 Pa. Pour ces dernières, cela signifie qu’elles contiennent au moins 1010 molécules par m3 – ce qui représente donc encore un grand nombre de molécules par rapport à celles que l’on trouve dans l’espace profond. Cette installation est enterrée à 100 m sous la terre. Le CERN espère construire un accélérateur encore plus grand, le FCC à partir de 2030, tandis que la Chine planifie aussi de construire son accélérateur géant dans les années à venir.
Un autre très grand instrument scientifique est aussi basé sur de longues sections de tubes sous vide : c’est le détecteur d’ondes gravitationnelles.
La détection d’ondes gravitationnelles – ces infimes perturbations de l’espace-temps – est notamment réalisée dans quatre détecteurs géants construits en Europe, aux États-Unis et au Japon. Le principe de détection repose sur la mesure des déviations du trajet rectiligne d’un laser. Ce dernier circule dans des tubes maintenus à 10-7 Pa. Le vide élimine toute source de perturbations du rayonnement laser, et le stabilise : il supprime les obstacles constitués par les molécules de gaz, il contribue à éliminer les vibrations soniques et thermiques. Enfin, il protège les instruments de la contamination particulaire.
Le plus grand des détecteurs d’ondes gravitationnelles est actuellement le LIGO aux États-Unis dans l’état de Washington, avec 8 km de tube représentant 1 200 m³ de volume. Un plus grand encore devrait entrer en construction à partir de 2028 en Europe, nommé Einstein Telescope, dont la longueur totale de tube sous vide approcherait 120 km environ – soit plus que le LHC !
Un tokamak est la pièce principale d’un réacteur de fusion nucléaire, qui promet une nouvelle source d’énergie dans un horizon encore lointain. Il s’agit d’un tore (forme géométrique ressemblant à celle d’un donut) dans lequel est généré un plasma dont la température atteint celle régnant au cœur des étoiles – soit une température extrême de plusieurs dizaines de millions de degrés ! Obtenir et maintenir de telles températures nécessite une excellente isolation thermique, qui est assurée par le vide.
Le plus grand tokamak du monde est en cours d’assemblage sur le site d’ITER (réacteur thermonucléaire expérimental international) dans les Bouches-du-Rhône. Le volume des parties sous vide avoisine les 10 000 m3, qui seront sous une pression inférieure ou égale à 10-4 Pa.
Enfin, un autre type de chambre à vide permet de reproduire des températures régnant dans l’espace : la chambre de simulation spatiale.
La principale source de dommages affectant les composants d’un véhicule spatial est le rayonnement solaire, car ce dernier n’est plus filtré par l’atmosphère terrestre. Pour tester au sol la tenue thermique d’un équipement avant de l’envoyer dans l’espace, des chambres à vide dites de « simulation spatiale » ont été construites. Celle du Space Environments Complex de la NASA située dans l’État de l’Ohio est la plus grande installation sous vide du monde par son volume : plus de 22 000 m3. Les objets placés à l’intérieur sont soumis à des cycles de température pouvant aller de -160 °C à 80 °C, sous une pression inférieure à 5x10-4 Pa.
La revue de ces très grands instruments scientifiques a donné un panorama des principales fonctions technologiques du vide, qui peuvent être classées en deux catégories : faire circuler des objets (des particules atomiques, de la lumière, et peut-être des êtres humains) ou reproduire à la surface terrestre un environnement spatial.
Sylvain Lemettre ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
28.05.2025 à 12:25
Alban Lemasson, Professeur à l'université de Rennes 1, directeur du laboratoire d'éthologie animale et humaine (EthoS), Université de Rennes 1 - Université de Rennes
Maël Leroux, Maître de conférence, Université de Rennes 1 - Université de Rennes
Dans leur livre « Quand les animaux prennent la parole ! », tout juste paru dans la collection « Espace des sciences » des éditions Apogées, Alban Lemasson et Maël Leroux explorent la richesse et la complexité de la communication vocale des animaux. Peut-on vraiment parler de langage animal ? Existe-t-il des formes de conversation, des intentions d’informer, des dialectes chez d’autres espèces ? Découvrez un extrait où les auteurs se penchent sur une question clé : les animaux utilisent-ils une forme rudimentaire de syntaxe ?
Le Grand Robert recense cent mille mots qui constituent autant d’unités porteuses de sens nous permettant de communiquer les un·e·s avec les autres. Cependant, ce n’est pas ce nombre impressionnant de mots qui permet de considérer le langage humain comme le système de communication le plus complexe du règne animal. Nos capacités de mémoire limitent très vite le nombre de mots que nous sommes capables de maîtriser et notre discours se compose en moyenne à 90 % des mêmes mille mots ! […] Malgré cela, notre langage reste, à notre connaissance, le système de communication le plus complexe, avec un « pouvoir génératif infini ». Autrement dit, peu importe la situation et même si celle-ci est inédite, les humains seront capables de la décrire précisément en utilisant le langage.
Mais alors, comment peut-on communiquer à propos d’un nombre infini de situations avec un nombre limité de mots ? Il y a une astuce : nous sommes capables de combiner ces mots en structures plus complexes : les phrases. C’est la syntaxe. Et c’est cette structuration syntaxique qui donne à notre langage son pouvoir génératif infini : la diversité des phrases que nous pouvons construire est théoriquement illimitée. Par exemple, nous pouvons dire « le chat sur le chemin chasse l’oiseau », mais nous pouvons également dire « le chat à soixante-cinq têtes sur le chemin qui mène au puits chasse l’oiseau qui est allé se poser sur les bords de la Seine ». Si la première phrase est couramment utilisée, il est très probable que la deuxième n’ait jamais été construite jusqu’à l’écriture de ce livre. Malgré sa singularité, nous comprenons cette deuxième phrase parfaitement, au même titre que la première, plus commune. Cela s’explique par le caractère compositionnel de ce type de structures syntaxiques : nous dérivons le sens de ces structures du sens des unités qui les composent. Ainsi, nous sommes capables de comprendre n’importe quelle construction, quelle que soit sa complexité ou sa nouveauté, en déchiffrant le sens des mots qui composent la phrase et la manière dont ils sont agencés. […] La question qui se pose est donc la suivante : cette syntaxe est-elle le propre de notre espèce ou pouvons-nous observer des formes rudimentaires de syntaxe chez d’autres espèces animales ?
Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Les premiers travaux documentant des formes de syntaxe chez les animaux non humains se sont basés sur les systèmes de communication déjà décrits chez le mone de Campbell, un petit singe cercopithèque d’Afrique de l’Ouest. […] Cette espèce possède deux cris d’alarme distincts pour chacun de ses prédateurs : le krak pour le léopard et le hok pour l’aigle. Mais la vie d’un petit cercopithèque dans la forêt ivoirienne est semée de bien d’autres embûches, certes moins dangereuses qu’un léopard ou un aigle, mais tout aussi importantes à prendre en compte. Par exemple, une branche qui tombe d’un arbre ou l’arrivée d’un groupe d’antilopes sont autant de perturbations représentant une gêne ou un risque non négligeable. Cependant, démultiplier les types de cris distincts pour alerter sur chacune de ces perturbations constituerait un vocabulaire trop important pour ces singes, sans compter les risques de confusion qu’un tel nombre de cris générerait et qui pourrait se révéler fatale dans une situation urgente. La solution : combiner le krak et le hok avec une autre unité, le oo, qui signale la présence d’une perturbation plus générale. Ainsi, les singes, en présence d’une perturbation venant d’en haut, telle une branche qui tombe, vont combiner le hok avec le oo pour former la structure hok-oo : « comme un aigle ». À l’inverse, lorsque les mones de Campbell rencontrent une perturbation venant du sol, comme une antilope, elles vont combiner le krak avec le oo pour former la structure krak-oo : « comme un léopard ». Des expériences de repasse par haut-parleur de cris avec et sans « suffixe » à la fois naturels (vrai krak ou vrai krak-oo) et artificiels (krak-oo dont on a retiré le oo pour construire en laboratoire un faux krak, et krak auquel on a ajouté un oo pour construire un faux krak-oo) ont montré que les sujets réagissaient bien au sens créé par la combinaison indépendamment du contexte d’enregistrement initial. En combinant ces unités porteuses de sens en structures plus complexes, ces cercopithèques démontrent des capacités rudimentaires de syntaxe. Parce que le sens de ces structures est dérivé directement du sens des unités qui les composent, ces combinaisons sont considérées comme des éléments de syntaxe dite « compositionnelle » chez ces primates. […]
Une autre structure syntaxique compositionnelle observée chez diverses espèces consiste en la combinaison d’un cri d’alarme avec un cri de recrutement. Le cri d’alarme, chez le chimpanzé par exemple, est produit lorsqu’un individu est surpris ou effrayé, en présence d’un serpent notamment, mais aussi lors d’un séisme ou à l’arrivée d’un potamochère (cousin du sanglier). Les chimpanzés produisent également des cris de recrutement lorsqu’ils sollicitent de l’aide pour chasser du gibier ou se défendre contre une communauté de chimpanzés voisine. Des observations en milieu naturel indiquent que les chimpanzés combinent ces deux cris en une structure complexe lorsqu’isolés du groupe, ils tombent nez à nez avec un serpent. L’hypothèse formulée par les scientifiques est que le chimpanzé, dans cette situation, appelle ses congénères aux alentours à l’aide, tout en précisant le caractère urgent et dangereux de la situation. Pour tester cette hypothèse, les scientifiques ont dissimulé un modèle de serpent imprimé en 3D sur la trajectoire de chimpanzés isolés de leur groupe dans les forêts d’Ouganda. Les résultats sont sans appel : dans cette situation, les chimpanzés produisent cette combinaison de manière systématique et les chimpanzés dans les environs qui entendent cette structure se joignent à l’individu émetteur : ils sont recrutés pour chasser ce serpent. Mais les chimpanzés qui entendent la combinaison d’un cri d’alarme avec un cri de recrutement perçoivent-ils cette structure comme un système syntaxique ? Ou interprètent-ils simplement chaque cri l’un après l’autre sans qu’un lien syntaxique entre les deux ne soit nécessaire pour comprendre la situation et réagir de manière appropriée ? Pour répondre à cette question, les scientifiques ont effectué des expériences de repasse chez les mêmes chimpanzés sauvages d’Ouganda.
Ces expériences consistent à diffuser, par haut-parleur, les cris d’alarme et de recrutement seuls, ainsi que la combinaison des deux, à des chimpanzés et à mesurer l’intensité de leur réaction. Si les chimpanzés interprètent la combinaison alarme-recrutement comme un système syntaxique, alors l’intensité de leur réponse à la combinaison doit être supérieure à la somme de leur réponse aux deux cris pris indépendamment l’un de l’autre. Les résultats de ces expériences montrent que les chimpanzés réagissent le plus fortement lorsque la combinaison est jouée : ils regardent dans la direction du haut-parleur plus rapidement et scrutent dans cette direction plus longtemps. C’est également uniquement dans ce cas que les chimpanzés s’approchent du haut-parleur. En comparaison, les chimpanzés ne regardent que très peu vers le haut-parleur et ne s’approchent jamais lorsqu’ils entendent seulement un cri d’alarme ou un cri de recrutement. Dans le premier cas, un cri d’alarme seul peut simplement indiquer la surprise de l’individu émetteur sans nécessairement indiquer un danger immédiat. Dans le deuxième cas, un individu qui entend un cri de recrutement seul, en l’absence d’autres indications lui permettant de déterminer la raison d’un potentiel recrutement, va se désintéresser de la source de ce cri : était-ce pour chasser une antilope ? Défendre mon territoire ? Prises ensemble, ces données indiquent que les chimpanzés réagissent de manière significative, plus qu’additive à la combinaison, c’est-à-dire que leur réaction à la combinaison alarme-recrutement est plus importante que ne serait leur réaction à un cri d’alarme ajoutée à leur réaction à un cri de recrutement. La combinaison produite par les chimpanzés est donc bien une structure syntaxique compositionnelle, dont le sens est dérivé du sens des unités qui la composent (« Attention ! Viens ! »). Ce type de structure syntaxique alarme-recrutement est également présent chez plusieurs espèces d’oiseaux comme le cratérope bicolore, la mésange japonaise et la mésange charbonnière. […]
Les implications de ces résultats sont particulièrement importantes d’un point de vue de l’évolution du langage et de notre espèce. En effet, la présence de formes rudimentaires de syntaxe chez les primates, et notamment les chimpanzés, nos plus proches parents, suggère que la syntaxe serait évolutivement plus ancienne. Jusqu’alors considérée comme un des éléments distinctifs de notre espèce, la syntaxe serait déjà présente chez notre ancêtre commun, voire au-delà au regard des données disponibles chez les autres espèces de primates !
Maël Leroux a reçu des financements de l'ANR (ANR-24-CE28-6179-01) et de Rennes Métropole (24CO981).
Alban Lemasson ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
28.05.2025 à 12:24
Benoît Tonson, Chef de rubrique Science + Technologie, The Conversation France
Pour recevoir le quiz Science chaque quinzaine dans votre boîte mail, abonnez-vous à notre newsletter «Moins de bruit, plus de science».
Espace, préhistoire, IA, biologie… Prenez le temps d'explorer l'actu scientifique, de rencontrer un chercheur ou une chercheuse dans le grand entretien, et évadez-vous dans le monde des sciences !
Cette semaine, un quiz pour tester vos connaissances sur les animaux. À vous de jouer !
Pour en savoir plus sur les capacités de communication des animaux nous vous invitons à lire ces deux articles :
27.05.2025 à 22:13
Justine Loizeau, Postdoctoral research fellow in sustainability and organization, Aalto University
Antoine Fabre, Maitre de Conférences en Sciences de Gestion, Université Paris Dauphine – PSL
Clément Boyer, Doctorant à la Chaire Comptabilité Écologique, Université Paris Dauphine – PSL
Pierre Labardin, Professeur des Universités, IAE La Rochelle
Half of the world’s forests were destroyed during the 20th century, with three regions mainly affected: South America, West Africa and Southeast Asia. The situation has worsened to the point that, in 2023, the European Parliament voted to ban the import of chocolate, coffee, palm oil and rubber linked to deforestation.
A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!
These products are at the heart of our economies and consumption habits. The case of rubber is particularly emblematic. Without this material, there would be no tyres and, thus, no cars, bicycles, sealing joints or submarine communication cables. Industrial rubber production depends on extracting latex, a natural substance that rubber trees such as hevea produce. Under pressure from corporations and states, Brussels last October announced a one-year postponement of its law regulating rubber imports.
This dependence on the rubber industry is not new. Rubber was central to the second industrial revolution, especially with the rise of automobiles and new management methods. While this history often centres on factories, citing contributions from figures such as Frederick Taylor and Henry Ford and industrial giants like Michelin, its colonial roots are less well known.
Indeed, rubber – like the other resources mentioned above – has been and continues to be primarily produced in former colonial territories. In many cases, rubber trees are not native to the regions where they have been cultivated. Rubber seeds from South America, where latex was already extracted by picking, were transported by colonists to empires for the development of plantations. In particular, the French colonial empire, spanning Africa and Southeast Asia, saw a significant expansion of hevea plantations at the expense of primary forests. Monocultures of rubber trees replaced thousands of hectares.
This management model was favoured because it allowed for lower extraction costs from the coloniser’s perspective. For example, in 1928, Henry Ford negotiated an agreement with the Brazilian government granting him a 10,000 km2 concession of forest land to establish Fordlandia, a settlement designed to produce the rubber needed for his factories. However, this industrial utopia in the Amazon failed due to resistance from Indigenous people and a fungal disease that ruined the plantations.
Following the same model, Michelin invested in plantations in present-day Vietnam as early as 1917. The plantation model and new management methods reduced the cost of rubber production and accelerated its global distribution. These management practices spread across the British, Dutch and French empires, becoming dominant in Southeast Asia in the early 20th century at the expense of primary forests.
À lire aussi : Allowing forests to regrow and regenerate is a great way to restore habitat
Rubber plantations resulted from applying Taylorism not only to workers – especially colonised workers – but also to nature. Both people and trees were subjected to a so-called “scientific” organisation of labour. In our article, L’arbre qui gâche la forêt The Tree That Spoils the Forest, published in the Revue française de gestion (French Journal of Management) in 2024, we analysed historical archives, including a variety of newspapers from 1900 to 1950, covering national, local, colonial and thematic (scientific, cultural, etc.) perspectives. We show that this organisational model is based on an accounting undervaluation of indigenous people’s labour and of nature. This undervaluation is embodied in the metric of the cost price (i.e. the total cost of production and distribution) and in the shared concern to see it lowered. “Ultimately, it’s the cost price that must determine the fate of rubber,” stated the newspaper L’Information financière, économique et politique on February 1, 1914.
In the eyes of some, Asians who were labelled as “coolies” and Brazilian “seringueiros” comprised a low-cost labour pool, with no mention of their working conditions and despite very high mortality rates. “Coolie” is a derogatory colonial term that refers to agricultural labourers of Asian heritage, while “seringueiros” refers to workers in South American rubber plantations.
“By the way, in the Far East, there are reservoirs of labour (Java Island, English Indies), which supply plantations with workers who, while not the most robust, provide regular work at a very advantageous cost price.” (L’Information financière, économique et politique, November 11, 1922)
Concerning trees, only the plantation costs were considered, silencing the human and ecological costs of primary forest destruction.
“In the first year, some 237 francs will have to be spent on the clearing itself; then the planting, with staking […] and weeding, will represent an expense of 356 francs. […] For the following years, all that remains to be done is to consider the maintenance costs, cleaning, pruning, care, supply of stakes, replacement, etc. This will result in an expenditure of 1,250 francs for the first five years.” (L’Information financière, économique et politique, January 31, 1912)
The focus on cost price leads to standardisation of management practices by aligning with what is cheapest, at the expense of ever more intense exploitation of human and non-human workers. In other words, these assumptions about the construction of accounting metrics and the circulation of these metrics play a role in the “cheapization” of human and non-human labour. We borrow the concept of “cheapization” from the environmental historian Jason W. Moore. In his view, the development of capitalism is marked by a “cheapization of Nature”, which includes, within the circuits of capitalist production and consumption, humans and non-humans whose work does not initially have a market value. Living beings are thus transformed into a commodity or factor of production: “animals, soils, forests and all kinds of extra-human nature” are being put to work.
À lire aussi : What actually makes avocados bad for the environment?
These ways of managing people and nature continue to this day. Many industries still rely on the extraction of natural resources at low cost and in large quantities in the countries of the global south. Rubber is not the only resource whose exploitation dates to the Industrial Revolution: palm oil, sugar, coffee and cocoa have also had, and still have, an impact on the forests of the global south and are based on the work of local people. The exploitation of these resources is also often the fruit of colonial history. In 1911, the Frenchman Henri Fauconnier brought the first palm oil seeds, a plant originally from Africa, to Malaysia. More than a century later, the country remains a leading palm oil producer, a resource largely responsible for the deforestation of primary forests.
Beyond the case of rubber alone, we question the link between the pursuit of profit in formerly colonised territories, the destruction of the environment and the exploitation of local populations on two levels. Not only are primary forests destroyed to feed short-term profits, but habituation to this mode of environmental management is a historical construct. We must remember this when looking at news from countries with colonial pasts. Whether we’re talking about preserving the Amazon rainforest, poisoning soil and human bodies with chlordecone in the Antilles, or building a pipeline in Uganda, we need to take a step back. What are the historical responsibilities? What are the links between creating economic activities here and exploiting ecosystems and local populations there? What role do management theories and tools play in realising or reproducing these exploitative situations?
At a time when the ecological and social emergency is constantly invoked to call for the transformation of management practices and business models, the rubber example invites us to consider the colonial matrix of managerial practices and the Western historical responsibilities that led to this same emergency. And suppose we have to turn to other forms of management tomorrow: who may legitimately decide how to bring about this change? Are former colonisers best placed to define the way forward? Knowledge of colonial history should encourage us to recognise the value of the knowledge and practices of those who were and remain the first to be affected.
The COCOLE project is supported by the French National Research Agency (ANR), which funds project-based research in France. The ANR’s mission is to support and promote the development of fundamental and applied research in all disciplines, and to strengthen dialogue between science and society. To find out more, visit the ANR website.
Antoine Fabre has received funding from the French National Research Agency via the programme “Counting in a colonial situation. French Africa (1830-1962)” (ANR-21-CE41-0012, 2021-2026).
Pierre Labardin is a professor at La Rochelle University. He has received funding from the French National Research Agency via the programme “Counting in a colonial situation. French Africa (1830-1962)” (ANR-21-CE41-0012, 2021-2026).
Clément Boyer et Justine Loizeau ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
27.05.2025 à 17:06
Diego Muro, Senior Lecturer in International Relations, University of St Andrews
Ovidiu Craciunas, PhD candidate, The Handa Centre for the Study of Terrorism and Political Violence, University of St Andrews
Santé mentale défaillante, radicalisation sur les réseaux sociaux, sentiment d’injustice… Des individus isolés ont multiplié les attentats ces dernières décennies, faisant de nombreuses victimes. Comment répondre et parvenir à endiguer cette menace ?
Les attentats à motivation politique, perpétrés par des individus isolés, sans affiliation directe avec un groupe terroriste, sont devenus plus fréquents en Europe au cours des dernières décennies.
L’une des formes les plus courantes et les plus dévastatrices de violence commises par des acteurs solitaires consiste à foncer dans la foule. En 2016, Mohamed Lahouaiej-Bouhlel a utilisé cette méthode pour tuer 86 personnes à Nice. En 2011, Anders Breivik a fait exploser une bombe dans le centre d’Oslo avant de commettre une fusillade de masse sur l’île d’Utøya, faisant 77 morts. Toutes les attaques menées par des acteurs isolés ne sont pas aussi meurtrières ou aveugles. Certaines visent des personnes précises, comme l’ont montré les assassinats de l’homme politique allemand Walter Lübcke en 2019 et du député britannique David Amess en 2021.
Le terrorisme des acteurs solitaires – également appelés « loups solitaires » – pose un défi de taille aux États européens. Les outils traditionnels de lutte contre le terrorisme conçus pour des groupes organisés comme Al-Qaida, l’État islamique ou l’organisation terroriste indépendantiste basque ETA sont beaucoup moins efficaces contre des individus agissants seuls. Si les complots d’acteurs solitaires sont généralement moins complexes, ils peuvent néanmoins causer des dommages importants.
Nous avons également constaté que les attaques perpétrées par des acteurs isolés peuvent avoir des répercussions considérables. L’indignation publique qui en résulte peut intensifier les débats sur des questions litigieuses telles que l’immigration et, en fin de compte, renforcer le soutien aux partis extrémistes.
Les attaques par mimétisme ou réaction sont une autre conséquence du terrorisme commis par des acteurs solitaires. Les fusillades de masse perpétrées par Brenton Tarrant à Christchurch en Nouvelle-Zélande, en 2019, en sont un exemple frappant. Ce dernier a cité les actions de Breivik et d’autres comme source d’inspiration directe. Selon le propre manifeste de Tarrant, un élément déclencheur clé de sa radicalisation a été l’attaque islamiste de 2017 à Stockholm, où Rakhmat Akilov, un demandeur d’asile originaire d’Ouzbékistan, a conduit un camion dans une foule, tuant cinq personnes, dont un enfant de 11 ans.
Parce que les acteurs solitaires opèrent de manière indépendante et communiquent rarement leurs intentions, leur identité reste souvent inconnue jusqu’après une attaque. Leurs objectifs et idéologies sont fréquemment ambigus, ce qui rend difficile la prédiction de leur comportement ou le choix de cibles potentielles. Même identifier correctement un incident comme un acte de terrorisme commis par un acteur solitaire peut s’avérer difficile.
Le cas d’Axel Rudakubana illustre cette difficulté. En 2024, Rudakubana a tué trois jeunes filles à Southport, dans le nord de l’Angleterre, après s’être introduit dans leur atelier de danse sur le thème de Taylor Swift. Malgré la découverte d’un manuel d’entraînement d’Al-Qaida en sa possession, les procureurs n’ont trouvé aucune preuve substantielle de motivation politique et ont qualifié l’incident de « tuerie de masse ».
Il est très difficile – voire impossible – de déterminer avec certitude le nombre exact d’attentats terroristes commis par des acteurs solitaires en Europe. L’absence d’une définition universellement acceptée du terrorisme constitue une partie du problème. Il est également possible que certains actes de violence massive soient classés comme terroristes alors qu’ils sont en réalité idéologiquement neutres. De même, il peut être difficile de déterminer si un individu a réellement agi seul, surtout à une époque marquée par la radicalisation en ligne.
Ce qui est clair, c’est que les attaques terroristes indépendantes sont devenues plus fréquentes au début des années 2010. En 2013, ces incidents se sont multipliés, l’Europe enregistrant de six à sept attaques islamistes et d’extrême droite par an (contre moins d’une par an avant 2010). Ces chiffres se réfèrent strictement aux cas où les auteurs ont agi de manière indépendante. Par exemple, l’attaque au camion-bélier d’Anis Amri à Berlin en 2016 et la tentative de suicide de Taimour al-Abdaly à Stockholm en 2010 ont d’abord été considérées comme des actes solitaires, mais des enquêtes ultérieures ont révélé des liens avec des cellules islamistes.
Le terrorisme des « loups solitaires » semble moins répandu parmi les groupes d’extrême gauche et des groupes nationalistes, bien qu’il y ait des exceptions.
Cette évolution vers des attentats perpétrés par des acteurs isolés est probablement le résultat de l’évolution des stratégies de lutte contre le terrorisme mises en œuvre après des attentats majeurs tels que les attentats à la bombe dans les trains de Madrid en 2004 et les attentats à la bombe de Londres en 2005. Il est devenu plus difficile de mener à bien des complots à grande échelle, de sorte que des groupes comme Al-Qaida et, plus tard, l’État islamique, se sont mis à encourager ou à organiser des attentats perpétrés par des individus vaguement affiliés, agissant indépendamment mais en leur nom.
La lutte entre les groupes terroristes et les gouvernements est une lutte d’adaptation constante. En 2018, les données d’Europol indiquaient que tous les attentats islamistes qui avaient été menés à bien en Europe cette année-là avaient été exécutés par des acteurs solitaires.
Les attentats commis par des loups solitaires ont une histoire encore plus longue dans le terrorisme d’extrême droite.
L’expression « loup solitaire » a été popularisée pour la première fois dans la propagande suprémaciste états-unienne au début des années 1990, bien avant que les chercheurs n’adoptent l’expression plus neutre de « terroriste solitaire ». À mesure que les efforts antiterroristes se concentraient sur les groupes suprémacistes blancs, nombre de leurs membres ont considéré l’action individuelle comme le moyen le plus efficace d’échapper à la détection et de préserver le secret de leur mode opérationnel.
Heureusement, nous comprenons désormais les crimes commis par des acteurs isolés. Ces attaques résultent de facteurs psychologiques et environnementaux complexes.
Bien qu’il ne faille pas simplement considérer les auteurs comme « fous », la santé mentale peut jouer un rôle dans la radicalisation, en particulier lorsqu’elle est associée à des griefs personnels, des aspirations vouées à l’échec et un sentiment d’injustice. Les influences familiales, les pairs et les espaces en ligne façonnent également ce processus. Bien que chaque parcours de radicalisation soit unique, certains schémas peuvent être observés – et les reconnaître précocement peut contribuer à réduire la menace.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
L’idée de « radicalisation autonome » mérite aussi d’être nuancée. Il est rare que les auteurs isolés se radicalisent totalement seuls ; leurs manifestes reprennent souvent des thèmes idéologiques plus larges, influencés par des théories du complot ou des figures charismatiques. Ces individus attribuent souvent une signification symbolique à leurs actes. Sensibiliser à l’impact des discours publics violents est essentiel – à condition de ne pas nuire à la liberté d’expression. L’histoire montre que proposer des « soupapes de sécurité » contre les idées controversées est plus constructif que la censure.
Les attentats perpétrés par des acteurs isolés sont, en partie, difficiles à prévenir, précisément parce qu’ils ne constituent pas une menace systémique comme peut l’être le terrorisme coordonné basé sur des groupes. Le danger réside dans des explosions de violence isolées plutôt que dans des campagnes soutenues. Mais certains schémas récurrents peuvent être observés – et les suivre de près pourrait aider à prévenir de prochaines tueries.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.