03.06.2025 à 16:35
Céline Rivière, Professeure des Universités, Chimie des substances naturelles, Université de Lille
Karin Séron, Chercheuse en virologie, Centre national de la recherche scientifique (CNRS)
L’arsenal pharmaceutique dont nous disposons pour combattre les coronavirus demeure très limité. En raison de la grande diversité des composés qu’elles produisent, les plantes pourraient s’avérer de précieuses alliées pour l’étoffer. Y compris les plus communes d’entre elles : des composés anticoronavirus ont en effet été découverts dans l’argousier, un arbuste épineux qui peuple nos rivages.
Cinq ans après l’émergence du SARS-CoV-2, responsable de la pandémie de Covid-19, très peu de molécules antivirales efficaces contre ce coronavirus sont disponibles pour soigner les patients. Malgré les efforts des équipes de recherche académique et pharmaceutiques à travers le monde, le repositionnement des médicaments existants n’a pas donné les résultats escomptés.
Même si la pandémie est désormais considérée comme terminée, et que les vaccins permettent de protéger les personnes les plus à risque de faire des formes sévères, il demeure important de poursuivre les recherches. En effet, les spécialistes s’accordent sur le fait que l’émergence d’autres coronavirus hautement virulents se produira dans le futur.
La poursuite des efforts pour identifier des molécules actives contre cette famille de virus s’impose donc, notamment parce qu’il est particulièrement difficile d’anticiper l’apparition de ces nouveaux épisodes infectieux.
C’est précisément l’objet des recherches que nous menons en collaboration depuis plusieurs années au sein de nos équipes respectives. Nos travaux ont pour but de diversifier les sources de molécules antivirales, d’identifier de nouvelles cibles virales ou cellulaires, ou de découvrir de nouveaux mécanismes d’action.
Ils nous ont permis d’identifier un composé anticoronavirus prometteur à partir d’une plante commune, l’argousier (Hippophae Rhamnoides L., Elaegnaceae). Si ces travaux sont encore préliminaires, ils démontrent l’intérêt d’explorer le potentiel antiviral des molécules présentes dans les végétaux.
Les coronavirus humains se divisent en deux groupes : les coronavirus « peu virulents », responsables de simples rhumes (tels que HCoV-229E, HCoV-HKU-1, ou HCoV-NL63, par exemple), et les coronavirus « hautement virulents ». On trouve parmi ces derniers non seulement le SARS-CoV-2, responsable de la pandémie de Covid-19, mais aussi le SARS-CoV-1, à l’origine en 2003 d’une épidémie qui avait contaminé plus de 8 000 personnes et entraîné près de 800 décès, ou encore le MERS-CoV, qui circule au Moyen-Orient.
Cinq ans après l’apparition du SARS-CoV-2, et malgré un effort international colossal en matière de recherche de molécules efficaces contre cet agent infectieux, un seul antiviral par voie orale est disponible sur le marché français, le Paxlovid. Celui-ci est basé sur l’association de deux composés : le nirmatrelvir, qui inhibe une enzyme nécessaire à la réplication du coronavirus SARS-CoV-2, et le ritonavir, un second inhibiteur d’enzyme qui permet, dans ce contexte, d’augmenter les concentrations sanguines du nirmatrelvir.
Un autre antiviral, le remdesivir, qui inhibe la polymérase virale (autre enzyme indispensable au virus pour se reproduire), est également disponible, mais par voie intraveineuse et seulement pour certains patients.
Cet arsenal limité souligne à quel point il est compliqué de mettre au point des molécules spécifiques dans des délais courts. La recherche d’antiviraux est un processus de longue haleine.
Les plantes représenteraient la seconde plus grande source de biodiversité de notre planète : on estime en effet que le nombre d’espèces végétales est compris entre 300 000 et 500 000. Parmi elles, de 20 000 à 50 000 sont employées en médecine traditionnelle.
Chaque plante a sa propre identité « phytochimique » : elle produit plusieurs centaines de composés dont les structures sont souvent uniques et complexes. Les végétaux constituent donc un réservoir majeur de molécules ayant potentiellement des activités biologiques très différentes les unes des autres.
De nombreux médicaments couramment utilisés à travers le monde s’appuient sur des principes actifs d’origine végétale. Ces derniers peuvent être utilisés après avoir été directement extraits de la plante, comme la morphine, extraite du pavot. Ils peuvent aussi être légèrement modifiés par réaction chimique, comme dans le cas du taxol (un anticancéreux obtenu par hémisynthèse, processus consistant à fabriquer une molécule à partir de composés naturels dont la structure chimique est déjà proche du composé souhaité) à partir d’un précurseur isolé de l’if européen ou des dérivés hémisynthétiques de l’artémisinine, une molécule à activité antipaludique extraite de l’armoise annuelle.
Cependant, à l’heure actuelle, seuls 15 à 20 % des plantes terrestres ont été évaluées pour leur potentiel pharmaceutique. En outre, jusqu’à présent, les molécules d’origine végétale ont été très peu étudiées par les scientifiques recherchant des antiviraux, qu’ils soient dirigés contre les coronavirus ou d’autres familles de virus.
En raison de leur grande diversité et des nombreuses molécules qu’elles produisent, les plantes constituent pourtant une source potentielle d’agents antiviraux très intéressante, pouvant être utilisés tels quels ou légèrement modifiés. Les composés produits par les plantes peuvent aussi inspirer la conception d’antiviraux obtenus par synthèse totale (autrement dit fabriqués entièrement artificiellement). Mais avant d’en arriver là, encore faut-il réussir à identifier les molécules actives, ce qui n’est pas une mince affaire.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Identifier une molécule biologiquement active à partir d’organismes vivants n’est pas simple, en raison du très grand nombre de composés qui constituent ces derniers. Cela requiert de passer par un « fractionnement bioguidé » : il s’agit de tester l’activité biologique à chaque étape du processus de séparation des composés (fractionnement). Ce fractionnement peut être accéléré en combinant des approches analytiques et statistiques.
Concrètement, lorsque l’on cherche à identifier un composé actif dans un végétal, la plante concernée est d’abord broyée et mise en contact avec des solvants (eau, éthanol, solvants organiques…). Les filtrats récupérés (appelés « extraits ») sont ensuite séchés. Ils contiennent des centaines, voire des milliers de molécules.
Ces extraits sont ensuite testés sur différents modèles (comme des cultures de bactéries, de champignons, de virus, de cellules tumorales, etc) afin de détecter une activité biologique (on parle de « criblage »).
S’il s’avère qu’un extrait présente un effet, il va subir plusieurs étapes de purification successives, par des techniques dites de chromatographie préparative. Le but est de séparer les nombreux composés différents qu’il contient pour ne garder que celui (ou ceux) responsable(s) de l’activité.
À chaque étape, du début à la fin de ce processus, les nouveaux extraits produits (on parle de « fractions ») à partir de l’extrait précédent sont testés, afin de suivre l’activité biologique. La phase ultime de ce « fractionnement bioguidé » est d’obtenir une molécule active purifiée dont on pourra déterminer la structure par des techniques spectroscopiques.
Nos deux équipes s’intéressent depuis plusieurs années aux plantes extrêmophiles, qui, comme leur nom l’indique, vivent dans des conditions extrêmes. Ces espèces végétales doivent, en partie, leur capacité à survivre dans des milieux difficiles à des molécules spécifiques qui leur permettent de s’y adapter. Nous avons étudié en particulier les plantes halophytes, autrement dit poussant sur des sols qui contiennent des teneurs en sel très élevées.
En 2019, nos travaux ont permis d’identifier un agent antiviral d’origine naturelle, actif contre la réplication du virus de l’hépatite C, nommé dehydrojuncusol ; ce composé phénanthrénique a été découvert dans le rhizome de jonc de mer (Juncus maritimus Lam.) suite au criblage d’une quinzaine d’extraits de plantes halophytes et à un fractionnement bioguidé. Le déhydrojuncusol possède un mécanisme d’action similaire à celui de médicaments efficaces utilisés dans le traitement de l’hépatite C en inhibant une protéine du virus nécessaire à sa réplication.
Cette étude in vitro était la preuve que les plantes halophytes pouvaient contenir des antiviraux puissants aux mécanismes d’action similaires à ceux issus de la chimie de synthèse.
Dans la continuité de ces travaux, vingt-deux plantes strictement halophytes ou tolérantes au sel ont ensuite été collectées sur le littoral des Hauts-de-France, en partenariat avec les gestionnaires de ses sites naturels, dans le but cette fois de rechercher une activité contre les coronavirus humains.
Les extraits réalisés à partir de ces vingt-deux nouvelles plantes, parmi lesquelles la salicorne, la criste marine, la matricaire maritime, l’argousier, l’euphorbe maritime, l’oyat, ou encore le saule des dunes, ont été testés contre le coronavirus HCoV-229E, responsables de rhumes bénins.
Ceux qui se sont révélés les plus actifs ont ensuite été testés contre le coronavirus SARS-CoV-2, responsable de la Covid-19. Le but de ces recherches était en effet d’identifier des antiviraux capables de traiter plusieurs coronavirus humains.
Le meilleur candidat s’est avéré être un extrait d’argousier. Cette plante indigène, relativement tolérante au sel et à caractère envahissant, pousse dans les massifs dunaires de la région des Hauts-de-France.
Après un fractionnement bioguidé, des composés actifs ont pu être isolés et identifiés. Les plus prometteurs se sont avérés capables d’inhiber (in vitro) non seulement l’infection par le SARS-CoV-2, mais aussi par le HCoV-229E.
Ces travaux ont permis de démontrer, au laboratoire, l’intérêt de molécules d’origine végétale dans la lutte contre les maladies humaines d’origine virale. Ils ne constituent cependant que l’étape préliminaire dans le long parcours semé d’embûches qui mène à la mise au point de nouveaux médicaments.
Après cette première étape de mise en évidence de molécules d’intérêt réussie, il faut ensuite poursuivre les essais, en passant notamment à des essais précliniques, autrement dit, sur des cellules humaines primaires isolées de biopsie de patients ou sur des animaux de laboratoire.
Si les résultats sont concluants, viendront ensuite les premières administrations chez l’humain, en général sur un petit nombre de volontaires sains (essais cliniques de phase I). La phase suivante (phase II) consiste à administrer le médicament à un plus grand nombre de patients afin de tester son efficacité, sa posologie et son devenir dans l’organisme (pharmacodynamique). Les essais de phase III portent sur un nombre encore plus grand de participants. Il faudra également les tester in vitro sur d’autres membres de la famille des coronavirus humains, tels que le MERS-CoV.
Toutes ces étapes nécessitent d’importants financements. Lorsqu’il s’agit d’identifier de nouveaux « candidats médicaments » (« drug candidate » en anglais), la finalisation de la recherche préclinique puis le passage en clinique reste le maillon faible, en raison du manque de moyens.
Il est cependant urgent aujourd’hui de trouver les moyens d’amener ces molécules d’intérêt à un stade plus avancé. En effet, dans l’optique de se préparer à une prochaine épidémie ou pandémie de coronavirus humains, disposer de médicaments actifs contre l’ensemble des coronavirus serait un atout majeur.
Rappelons qu’il faut en moyenne quinze ans pour qu’une molécule présentant un intérêt arrive sur le marché, et que le taux d’échec est très important (plus de la moitié des molécules qui arrivent en phase III échouent…). Il n’y a donc pas de temps à perdre. Actuellement, nos équipes continuent à chercher des composés antiviraux dans d’autres collections de plantes.
Nos travaux soulignent aussi que la découverte de molécules bioactives est très étroitement liée à la biodiversité végétale. La problématique de la dégradation des milieux naturels, qui s’est accentuée ces dernières décennies, doit donc être prise en considération dans le cadre des programmes de recherche qui ciblent le potentiel biologique des molécules d’origine naturelle.
Les autrices tiennent à remercier Malak Al Ibrahim, doctorante sur le projet (2021-2024, programme HaloHcoV PEARL), le Dr Gabriel Lefèvre (pour la sélection, la collecte et l’identification des différentes plantes testées), les gestionnaires de sites qui ont participé aux échanges et partagé leurs connaissances, ainsi que l’ensemble des membres des équipes de recherche.
Céline Rivière est membre de sociétés savantes (Association Francophone pour l'Enseignement et la Recherche en Pharmacognosie, Phytochemical Society of Europe). Elle est aussi experte pour l'ANSES. Elle a reçu des financements de la Région Hauts-de-France, de l'Union Européenne "Horizon 2020 Research and Innovation program" et I-Site ULNE (PEARL programme) et de l'ANR.
Karin Séron a reçu des financements de la Région Hauts-de-France, de l'Union Européenne "Horizon 2020 Research and Innovation program" et I-Site ULNE (PEARL programme) et de l'ANR.
03.06.2025 à 16:34
Éric Pichet, Professeur et directeur du Mastère Spécialisé Patrimoine et Immobilier, Kedge Business School
Comment gouverner un pays qui possède 471 dépenses fiscales, pourrait s’exclamer en le paraphrasant le successeur du général de Gaulle ? Alors que pour réduire le déficit et donc la dette de la France, il faudrait voter 40 milliards d’économies, l’ensemble des niches socio-fiscales représenteraient un manque à gagner de 83 milliards d’euros par an.
Mais comment faire le ménage dans des niches réputées bien gardées ? Bonne nouvelle : la tâche peut être accomplie sans peser sur l’économie, à condition de définir au préalable une méthode rationnelle de tri des bonnes et des mauvaises niches.
La dérive du déficit public, encore attendu en 2025 à 5,4 % du PIB à peine plus bas qu’en 2024 (5,8 %) rappelle au pays qu’il est désormais l’homme malade de la zone euro et contraint le gouvernement à chercher 40 milliards d’euros en 2026 pour le ramener à 4,6 % l’an prochain.
Dans ce contexte, Bercy reprend une antienne de ses prédécesseurs : la chasse aux dépenses fiscales. Le gisement est important puisque les 471 niches recensées représenteraient selon le gouvernement un manque à gagner de l’ordre de 83 milliards par an, soit 25 % des recettes budgétaires ou 2,8 % du PIB. En ajoutant les exonérations de cotisations sociales, estimées dans le projet de loi de financement de la Sécurité sociale pour 2025 à 91 milliards, la perte de recettes théorique sur l’ensemble des prélèvements obligatoires serait donc de 174 milliards soit très exactement la totalité du déficit public…
Dans notre thèse consacrée aux dépenses socio-fiscales, nous les qualifions ainsi :
À lire aussi : La tronçonneuse de Buenos Aires et le DOGE de Washington : vague d’austérité sur le continent américain
Concrètement, tout comme leur évaluation qui doit tenir compte de la réaction des contribuables devant la fin d’une carotte fiscale, le périmètre des niches socio-fiscales est particulièrement difficile à tracer. À titre d’exemple doit-on suivre le gouvernement qui a déclassé certains taux réduits de TVA en simples modalités d’imposition et divisé par deux leur coût alors que ces différents taux avantageux pour les consommateurs représentent un manque à gagner pour les finances publiques de plus de 50 milliards par an.
Pour réduire le coût de ces avantages fiscaux, les méthodes dites globales ont montré leur inefficacité. Ainsi le plafonnement général en valeur absolue des seules niches fiscales instauré par les lois de programmation des finances publiques de 2012-2017 puis 2014-2019 a toujours été dépassé du fait de l’impossibilité juridique de restreindre le droit d’amendement des parlementaires au cours de l’examen des lois de finances.
Limité au seul impôt sur le revenu, le plafonnement des niches actuellement de 10 000 euros par foyer a été instauré sous la présidence de François Hollande au 1ᵉʳ janvier 2013. Il est lui-même mité de nombreuses exceptions et son rendement s’avère modeste puisque le supplément d’impôt collecté s’élève à environ 50 millions par an. Plus efficace serait la généralisation aux foyers imposables de la contribution différentielle (qui s’ajoute donc à la contribution exceptionnelle de 2011) sur les hauts revenus (sur le modèle de L’Alternative Minimum Tax américaine datant de 1969) et qui contraint depuis cette année les contribuables les plus aisées à payer au moins 20 % d’IR.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Trois types de mesures suggérées ou déjà appliquées dans le passé sont également à proscrire car elles agissent de manière indifférenciée sur des niches utiles. Il s’agit du rabot, de la règle du gage qui implique la suppression d’une mesure pour toute nouvelle création ou de la suppression d’office de niches à coût faible préconisée par la ministre chargée des comptes publics qui n’aurait qu’un impact marginal sur les finances publiques tout en détruisant des mesures utiles pour la sauvegarde d’un écosystème social, économique ou environnemental rare voire unique. Parmi les propositions globales, seule l’instauration d’une sunset clause, courante dans les pays anglo-saxons, qui conditionne le maintien d’une mesure à l’évaluation de son efficacité est pertinente. Encore faudrait-il commencer à chiffrer la cinquantaine de niches toujours non évaluées.
Notre théorie générale des dépenses socio-fiscales propose une méthode rationnelle de gestion de ces dispositifs fondée sur une série de cinq filtres successifs interrogeant d’abord leur légitimité (ainsi l’ancienneté d’une niche n’est jamais un critère pertinent de conservation d’une niche et l’effet d’aubaine est toujours un critère d’élimination), leur utilité (économique, sociale, écologique, etc.), leur pertinence (le dispositif bénéficie-t-il aux contribuables ou est-il capté par des intermédiaires ?), leur efficacité (en prenant en compte tous les coûts y compris ceux de gestion du fisc) ainsi que leur substituabilité (est-il possible de remplacer la mesure par une simple subvention moins coûteuse ?).
Pour mettre en œuvre les résultats, il faut encore franchir un sixième et ultime filtre à savoir l’acceptabilité sociale de la disparition de la mesure, une question éminemment politique.
L’intégralité des niches dites brunes qui subventionnent les gaz à effet de serre et autres produits toxiques, dont le coût est au bas mot de 7 milliards d’euros, sont évidemment à supprimer, encore faut-il prévoir des mesures d’accompagnement pour les secteurs qui seraient lourdement touchés comme l’agriculture, la pêche ou les transports. L’abattement de 10 % sur les pensions, plafonné à 4 321 euros par foyer en 2024, est la deuxième niche fiscale la plus coûteuse à près de 5 milliards. Créée en 1977 pour compenser le fait que les pensions étaient parfaitement connues du fisc, ce qui interdisait toute fraude elle n’a désormais plus aucune justification d’autant qu’elle est par nature inéquitable, car régressive puisque ne profitant qu’aux foyers imposables.
Les taux réduits de TVA de 10 % sur les travaux (quatrième niche coûteuse), ou dans les DOM (huitième niche) et l’exonération d’IR des heures supplémentaires ou sur les pourboires (neuvième niche) coûtent chacun environ 2 milliards et ne semblent ni légitimes ni utiles. Il en est de même des nombreux avantages fiscaux liés à l’épargne (intéressement, assurance-vie…), mal évalués mais supérieurs à 6 milliards d’euros.
Dans ce dernier cas, la perte de cotisations sociales en fait en outre des niches sociales coûteuses. Enfin, l’alignement du taux de CSG des retraités les plus favorisés limité à 8,3 % contre 9,2 % pour les smicards est une évidente mesure d’équité sociale. D’ailleurs les multiples exonérations et taux réduits de CSG sur les retraites de base et les allocations chômage sont estimés à 4,3 milliards en 2019.
Si la fiscalité des dons aux associations contribue au dynamisme d’un secteur mêlant bénévoles et salariés et doit être maintenue, il serait juste de transformer la réduction d’impôt au titre des dons aux associations (qui pèse près de 2 milliards d’euros par an) en un véritable crédit d’impôt, permettant ainsi à tous les donateurs, même les plus modestes, de bénéficier d’un avantage fiscal actuellement réservé, de manière inique, aux seuls contribuables dont les revenus dépassent le seuil effectif d’imposition.
Dans le même esprit, la demi-part supplémentaire accordée aux contribuables de plus de 74 ans titulaires de la carte du combattant bénéficiant à plus de 800 000 ménages et coûtant 480 millions d’euros devrait être remplacée, à coût constant, par un versement per capita à tous les anciens combattants.
Trois des plus importantes dépenses socio-fiscales sont économiquement utiles et doivent être conservées après ajustements pour éviter les effets d’aubaine. La première, d’un coût de l’ordre de 80 milliards, est l’allégement massif des cotisations patronales initié en 1993 pour atténuer le poids des cotisations des entreprises, le plus élevé au monde, et qui a permis le maintien de millions d’emplois.
La seconde est le crédit d’impôt en faveur de la recherche, la plus coûteuse des dépenses fiscales (7,8 milliards en 2025), qui contribue puissamment à l’attractivité fiscale du pays en facilitant la création d’un écosystème de recherche appliquée très favorable à l’innovation. La troisième est le crédit d’impôt de 50 % des charges salariales (plafonnées à 12 000 euros par an) pour emploi d’un salarié à domicile pour un coût de 6,8 milliards d’euros par an en 2025 qui n’est probablement pas une véritable dépense fiscale mais plutôt une mesure de simplification traitant les ménages comme n’importe quelle microentreprise dont les charges doivent logiquement s’imputer sur leur revenu. Elle est dans tous les cas légitime au nom de la création d’emploi et de la lutte contre le travail au noir.
Les présentes recommandations aboutiraient à une économie budgétaire de 20 à 25 milliards d’euros par an mais se traduiraient par une nouvelle hausse des prélèvements obligatoires déjà les plus élevés de l’OCDE. En toute logique il faudrait les alléger d’un montant équivalent mais la dérive persistante des comptes publics rend cette hypothèse hautement improbable tout comme… leur adoption par l’Assemblée nationale. Dans ces conditions, on voit mal comment le pays pourra éviter les injonctions du FMI.
Éric Pichet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
03.06.2025 à 16:33
Anna C. Zielinska, MCF en philosophie morale, philosophie politique et philosophie du droit, membre des Archives Henri-Poincaré, Université de Lorraine
Catastrophe humanitaire à Gaza, plus de 50 000 morts palestiniens, accusations de génocide, d’épuration ethnique et de crimes contre l’humanité, violences policières à l’égard des manifestants pro-paix… Tout cela a provoqué dernièrement des menaces de sanctions à l’encontre d’Israël de la part de ses alliés occidentaux, dont la France, le Royaume-Uni et le Canada, et l’évocation d’un réexamen des accords liant l’UE à Tel-Aviv. Le soutien international à l’État hébreu, qui reste souvent qualifié de « seule démocratie du Moyen-Orient », vacille. Alors que Juifs et Palestiniens paient le prix de l’impasse politique, la question s’impose : peut-on toujours parler de démocratie à propos d’Israël ?
Quelles sont les conditions qui déterminent si un pays est, ou non, démocratique ? La réponse semble consensuelle : l’équilibre des pouvoirs ; la tenue d’élections périodiques et concurrentielles ; le pluralisme politique ; la reconnaissance de garanties du respect des droits fondamentaux des citoyens. L’égalité formelle est un prérequis (le vote), mais elle devrait s’accompagner de la protection des minorités pour éviter le règne de la majorité, l’aspiration à l’égalité matérielle et enfin les efforts coordonnés allant dans le sens de l’égalité épistémologique, assurant l’accès à l’information de qualité à tous.
La Déclaration d’indépendance de 1948, document fondateur d’Israël, vise un idéal démocratique. Elle établit « l’État juif dans le pays d’Israël » qui « assurera une complète égalité de droits sociaux et politiques à tous ses citoyens, sans distinction de croyance, de race ou de sexe ; il garantira la pleine liberté de conscience, de culte, d’éducation et de culture ». Tous ces éléments sont en partie suffisants pour affirmer qu’Israël est une démocratie.
Toutefois, compte tenu de la résurgence sur la scène politique israélienne des idées qui prônent l’établissement d’un État religieux, la Knesset (le Parlement israélien) a décidé en 1985 d’ajouter quelques articles plus explicites à la série de « Lois fondamentales » qui font office de Constitution.
Par exemple, un des amendements affirme que les candidats ne peuvent pas participer aux élections à la Knesset si le programme qu’ils défendent contient « la négation de l’existence de l’État d’Israël en tant qu’État juif et démocratique, l’incitation au racisme ou le soutien à la lutte armée d’un État hostile ou d’une organisation terroriste contre l’État d’Israël ».
Or depuis l’instauration de l’actuel gouvernement en décembre 2022, au moins un, voire deux ministres – Itamar Ben-Gvir et Bezalel Smotrich – défendent des opinions ouvertement contraires à l’idée d’Israël en tant qu’État démocratique. Ils tiennent des propos très clairement racistes à l’égard des Palestiniens et s’opposent à l’égalité des droits sociaux et politiques entre les citoyens.
La démocratie moderne est fondée sur l’idée que les hiérarchies entre les individus introduites par des siècles de représentations conjoncturelles concernant la place des humains dans leur communauté sont injustifiées. Elle se comprend d’abord en pensant aux citoyens d’un pays, mais l’idée de l’universalité des droits humains s’est imposée après la Seconde Guerre mondiale, notamment en 1948 avec la Déclaration universelle des droits de l’homme. Ce souci démocratique et juridique pour les individus transparaît aussi dans les Conventions de Genève, documents qui fondent le droit humanitaire international. Or les actions militaires menées à Gaza contreviennent clairement à ces principes.
L’armée israélienne ignore la notion de « personnes protégées », qui désigne les civils, lesquels ne devraient pas être privés des moyens de subsistance nécessaires, y compris de l’accès à la nourriture. Le droit international humanitaire interdit expressément d’utiliser la famine comme une arme de guerre.
Or Israël, dans sa guerre contre le Hamas, suspend régulièrement l’approvisionnement alimentaire dans la bande de Gaza, ce qui engendre un risque critique de famine. Le ministre de la défense Israel Katz a affirmé le 16 avril 2025 que l’aide humanitaire ne pourra pas entrer dans la bande de Gaza « jusqu’à ce qu’un mécanisme civil soit mis en place pour contourner le contrôle des approvisionnements par le Hamas ». Depuis, plusieurs organisations sur place dénoncent une situation humanitaire catastrophique. Le journal israélien Haaretz arbore un titre sans ambiguïté : « Les gens mangent de l’herbe ».
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Les déplacements forcés annoncés depuis quelques mois sont, eux aussi, contraires au droit humanitaire.
Les pressions internationales et la dénonciation de ces contradictions semblent toutefois porter leurs fruits, au moins partiellement. Le 19 mai, le cabinet de sécurité a décidé de laisser entrer l’aide humanitaire à Gaza, malgré les protestations d’Itamar Ben Gvir, ministre de la sécurité nationale. Mais le général responsable des « actions sur les territoires » Ghassan Alian a prévenu que la nourriture cessera bientôt d’être disponible à Gaza, ce qui témoigne mieux de la réalité du terrain que les déclarations optimistes du gouvernement israélien.
Le consensus semble être le suivant : le retour des opérations militaires (Chariots de Gédéon, opération qui vise à détruire les infrastructures administratives du Hamas et se présente comme préparant à un accord imminent) serait moralement justifié s’il est accompagné de l’aide humanitaire. Il n’en demeure pas moins que, en tout état de cause, plus de 50 000 Palestiniens auraient déjà perdu la vie, et l’ensemble de la population de Gaza restera traumatisée pour des décennies à venir par ses blessures physiques et psychiques. Les amputations sont plus nombreuses chez les enfants de Gaza que nulle part ailleurs dans le monde, selon The Guardian.
Côté israélien, les familles des otages constatent une fois de plus que la vie des dizaines de leurs proches maintenus à Gaza n’est qu’une des variables de l’opération israélienne – et font ce qu’elles peuvent pour s’opposer à cette approche du gouvernement Nétanyahou.
La société civile en Israël continue à se mobiliser, et le traitement de ces mobilisations est l’un des indices de la santé de la vie démocratique. C’est contre cette reprise des combats que protestaient, le 18 mai 2025, des centaines d’activistes et de membres des familles des otages détenus à Gaza depuis 602 jours au moment de l’écriture de ce texte. La manifestation avait lieu le lendemain du lancement de l’opération militaire « Chariots de Gédéon ».
Le 16 mai 2025, Alon-Lee Green, le co-leader (avec Rula Daood) national du mouvement Standing Together, déclarait dans son appel à manifester qu’il était « interdit de fermer les yeux, interdit de rester indifférent » face aux actions du gouvernement qui visent les citoyens et les enfants de Gaza, ainsi que les otages. Les manifestations à la frontière de Gaza – « pour arrêter les massacres, la famine et pour faire revenir les otages » – continuent. Une deuxième a eu lieu le 23 mai, et une troisième est prévue pour les 4-6 juin. Et cela malgré les violences policières et les arrestations, dont celle d’Alon-Lee Green, des participants aux manifestations.
Le combat de Standing Together se caractérise précisément par la volonté suivante : montrer à la société israélienne que ce ne sont pas les lignes de division religieuses ou ethniques qui devraient être déterminantes pour elle. Selon le mouvement, les plus grandes difficultés des habitants de la région sont des conséquences des politiques d’exclusion néolibérales associées à une conception militarisée de l’État du gouvernement actuel, et d’une certaine droite de façon plus générale. Standing Together soutient aussi les manifestants anti-Hamas à Gaza, qui savent qu’ils risquent leur vie et qui pourtant, depuis des mois, s’opposent au régime meurtrier et totalitaire du Hamas.
Dans le récit populiste déployé par le gouvernement Nétanyahou repose sur des fantasmes nationalistes imaginés à partir d’une certaine vision de l’histoire analysée par le politiste Dani Filc, où une opposition est créée entre, d’un côté, les « vrais » Juifs et, de l’autre, les traîtres. Ce populisme est politiquement soutenu par l’extrême droite, particulièrement présente parmi les colons installés en Cisjordanie.
La façon de faire de la politique de ces colons n’a rien de démocratique ; elle s’apparente plutôt à un « fascisme clérical », caractérisé par l’union des objectifs religieux et nationaux. Ce fascisme n’a rien d’égalitaire, et s’accommode très bien de rapports de domination socio-économiques de plus en plus tendus. Le fascisme se nourrit du sentiment d’injustice, mais prétend ensuite donner sa propre justification insensée des nouvelles injustices qu’il crée ou qu’il fortifie.
Dans une conversation plus récente toutefois, Dani Filc nuance son récit : le Likoud, après le 7 octobre 2023, quitte progressivement ce terrain populiste pour épouser la rhétorique fasciste. Noa Shpigel l’a noté dans un texte publié par Haaretz, où elle cite Liran Harsgor, de l’École de sciences politiques de l’Université de Haïfa. Pour Harsgor, « les frontières idéologiques et rhétoriques entre le Likoud et Otzma Yehudit (mouvement d’extrême droite d’Itamar Ben Gvir) se sont considérablement estompées ces dernières années ». Toutefois, ce phénomène n’est pas propre à Israël : face à la montée en puissance de mouvements d’extrême droite, les partis de droite classiques adoptent également des positions plus extrêmes.
La direction exclusionnaire est soutenue en même temps par le populisme de droite de Nétanyahou et par les positions anti-démocratiques et pro-militaires de mouvements fascisants tels que Otzma Yehudit. Elle a été symboliquement annoncée en 2018, avec une nouvelle loi à valeur fondamentale, la « Loi Israël, État-nation du peuple juif ». Contrairement à la Déclaration de l’indépendance de 1948, le texte de 2018 ne fait aucune référence à l’égalité, et déclasse la langue arabe, qui jusqu’alors était l’une des deux langues officielles de l’État.
L’Europe doit aider les mouvements, les personnes, les partis et les institutions en Israël et en Palestine qui sont conformes aux valeurs de l’Union européenne, conformes aux exigences de la démocratie au sens fort, qui inclut le respect du pluralisme et des droits humains, et non seulement au sens du règne de la majorité. La tragédie de Gaza doit conduire à l’autodétermination des peuples sur place, donc le plus probablement à deux États. Comme il existe de nombreux pays qui ne possèdent pas d’armées, une telle restriction peut également concerner la Palestine, ce qui fait disparaître l’un des arguments clés contre l’établissement de ce pays. Le Canada, le Royaume-Uni et la France ont déjà fait un pas important dans ce sens, avec une déclaration commune :
« Nous sommes déterminés à reconnaître un État palestinien dans le cadre de la recherche d’une solution à deux États et sommes prêts à collaborer avec d’autres parties à cette fin. »
La démocratie israélienne se défend, comme en témoignaient quasiment tout au long de l’année 2023 des manifestations contre la réforme visant à limiter le pouvoir, et donc l’indépendance, du judiciaire.
Depuis le 7 Octobre, le sentiment d’une menace existentielle a certes modifié la hiérarchie des luttes, et la première semble être celle pour la libération des otages. Mais ce qui est rejeté aujourd’hui, à savoir la politique autoritaire et de conquête, est mené par ce même gouvernement qui a essayé d’introduire des réformes judiciaires qualifiées d’antidémocratiques.
Ce qui manque dans ces revendications est sans doute l’exigence de la fin de l’occupation de la Cisjordanie. S’ajoute au malaise des observateurs un sondage récent montrant qu’en mai 2025, « 82 % des personnes interrogées étaient favorables à l’expulsion des habitants de Gaza, tandis que 56 % étaient favorables à l’expulsion des citoyens palestiniens d’Israël ». L’augmentation de positions aussi hostiles est en grande partie circonstancielle, due à la propagande jouant avec le mythe biblique d’Amalek, l’ennemi ultime à faire disparaître. Le besoin d’une autre façon de penser la politique est urgent.
Aujourd’hui, la ligne de division la plus importante telle qu’elle est perçue par les sondages n’est pas entre les Juifs et les citoyens palestiniens d’Israël, mais entre la gauche et la droite. Toutefois, même si les questions ethniques sont importantes dans les considérations derrière cette polarisation, on peut espérer qu’elle signifie plutôt le retour à la politique dans les débats publics, plutôt qu’à des considérations purement identitaires.
Anna C. Zielinska fait partie des "Friends of Standing Together", mouvement cité dans l'article.
03.06.2025 à 16:33
Stéphane Lamaire, Professeur associé au CNAM en droit du travail, Conservatoire national des arts et métiers (CNAM)
Depuis un demi-siècle, les textes se succèdent pour aboutir à la parité de rémunération entre les hommes et les femmes. Des écarts non explicables subsistent. Comment expliquer le maintien de cette différence de traitement ? La mise en place de la transparence des salaires aboutira-t-elle enfin à l’égalité ? Ou les entreprises, dans leur ensemble, trouveront-elles des moyens de perpétuer un traitement injuste ?
Déclarée « grande cause nationale » du quinquennat par le président de la République (discours du président de la République du 25 novembre 2017), l’égalité professionnelle entre les femmes et les hommes s’escrime à sa réalisation. En effet, la loi n°72-1143 du 22 décembre 1972 a consacré « l’égalite de rémunération entre les hommes et les femmes ». Or, depuis plus d’un demi-siècle, une douzaine de lois a redoublé d’efforts sans parvenir à la réalisation de cet objectif d’intérêt public dont la réalisation dépend désormais de la négociation collective d’entreprise (ou de branche professionnelle).
À ce titre, la loi n° 2018-771 du 5 septembre 2018 a soumis les entreprises à une obligation de négocier sur ce sujet assorti d’une nécessité de résultat sous menace de sanction pécuniaire en cas d’échec. Elle a notamment créé l’index de l’égalité salariale femmes-hommes par entreprise dont les conclusions sont désormais publiques et par conséquent connues de tous. Toutefois, si les résultats de cette démarche gouvernementale sont plutôt positifs, ils ne correspondent pas avec la réalité d’une inégalité persistante dans le domaine.
En effet, l’Insee (Insee Focus-no 349 du 4 mars 2025) précise qu’en 2023, le salaire moyen des femmes dans le secteur privé (21 340 € net par an) est de 22,2 % inférieur à celui des hommes (27 430 €). Une partie de cet écart s’explique par des justifications structurelles et statistiques (ex : temps partiel féminin), mais le ministère du travail reconnaît qu’il demeure environ 9 % d’écarts de salaire injustifiés. Par conséquent, commençons par examiner la manière collective par laquelle le droit du travail tente de s’approcher d’un objectif d’égalité réelle, puis passons au crible la façon par laquelle une salariée victime d’une inégalité salariale peut éventuellement tenter individuellement de corriger cette situation avant de découvrir les espoirs que soulève la prochaine transposition en droit français d’une directive européenne consacrée à la transparence salariale.
Au sein des entreprises, les organisations syndicales et les employeurs doivent conclure un accord collectif en matière d’égalité professionnelle disposant de diverses actions qualitatives permettant d’atteindre des objectifs annuels de progression fondés sur des critères clairs, précis et opérationnels (embauche, formation, promotion professionnelle, qualification, classification, conditions de travail, santé et sécurité au travail, rémunération effective et articulation entre l’activité professionnelle et la vie personnelle et familiale). Cette opération contrôlée par l’administration déconcentrée du travail fait l’objet d’une obligation de résultat « renforcée » car en cas de défaillance les entreprises employant au moins cinquante salariés encourent une pénalité (articles L. 2242-5 et R. 2242-7 code du travail) pour inexécution de leurs obligations liées à l’égalité professionnelle (articles L. 2242-8 et R. 2242-2 du code du travail).
Au surplus, soulignons qu’à compter du 1er mars 2026, les entreprises d’au moins 1 000 salariés devront atteindre une proportion minimale de 30 % (40 % au 1er mars 2029) de personnes de chaque sexe parmi les cadres dirigeants et les cadres membres des instances dirigeantes (loi n° 2021-1774 du 24 décembre 2021 visant à accélérer l’égalité économique et professionnelle). Mais le droit va plus loin et pousse les entreprises (employant au moins cinquante salariés) dans leurs retranchements en matière d’égalité de rémunération. En effet, avant le 1er mars de chaque année, elles sont assujetties au calcul de l’index d’« écarts de rémunération » (signalons que la démarche a été étendue au sein des admirations publiques par la loi n° 2023-623 du 19 juillet 2023).
Par conséquent, en fonction de la taille de leur effectif, elles calculent et publient un certain nombre d’indicateurs ainsi que les actions mises en œuvre pour supprimer les écarts de salaires en question (Articles D. 1142-2-1 et D. 1142-3 du code du travail). Ainsi, elles doivent mesurer par tranche d’âge et par catégorie de « postes équivalents », les écarts de rémunération, de taux d’augmentations individuelles, et de promotions entre les femmes et les hommes. Elles doivent également recenser le nombre de salariés par genre parmi les dix salariés ayant perçu les plus hautes rémunérations ainsi que le pourcentage de salariées ayant bénéficié d’une augmentation dans l’année suivant leur retour de congé de maternité. Si la note globale est inférieure à un seuil réglementaire requis (désormais de 85 sur 100), des mesures correctrices doivent être adoptées par la négociation collective dans un délai de trois ans.
En définitive, l’employeur peut être soumis à une pénalité pour l’absence d’accord (ou de plan d’action) ou pour la non-conformité de celui-ci aux principes généraux de l’égalité professionnelle. Il peut également se voir appliquer une sanction financière pour la non-publication de sa note en matière d’égalité de rémunération ou pour ne pas voir remédier aux mauvais scores résultant de son action à ce sujet. Malgré l’ensemble des efforts déployés, le bilan de cette démarche est controversé car cette politique publique s’appuie sur un diagnostic principalement établi par l’employeur pouvant faire l’objet de nombreux biais statistiques.
Selon le bilan effectué par le ministère du travail, au 1er mars 2025, 80 % des entreprises concernées ont publié leur note, confirmant une augmentation continue depuis plusieurs années (54 % en 2020, à la même date). Néanmoins, en fin d’année 2024, plus de 10 % des entreprises assujetties ne l’avaient pas publié pour l’exercice précèdent. En outre, la note moyenne déclarée progresse encore à un haut niveau avec 88,5/100 en 2025 (contre 88/100 en 2024) mais seules 2 % des entreprises ont une note de 100/100 (soit 560 entreprises). Enfin, notons que 6 % des entreprises ont obtenu une note inférieure au seuil requis. Or, depuis 2019, 2 000 mises en demeure et 209 pénalités financières seulement ont été notifiées par les services de l’État aux entreprises défaillantes.
Quand bien même le nombre de sanctions n’est pas un indicateur d’efficacité, ces derniers chiffres ne s’avèrent pas être en rapport avec le nombre d’entreprises ne respectant pas leurs obligations en la matière. Malgré tout, réjouissons-nous de la réduction notable de l’écart de revenu salarial entre femmes et hommes entre 1995 et 2023 (passant de 34 % à 22,2 %) et notons que cette tendance s’est accélérée par une baisse plus rapide des inégalités salariales depuis 2019.
Abonnez-vous dès aujourd’hui !
Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).
Si cette trajectoire positive place la France dans le peloton de tête de l’Union européenne, nous savons qu’elle ne gomme que trop lentement certaines inégalités structurelles. En définitive, si cette politique a le mérite d’éclairer un objectif d’intérêt général, il flotte autour d’elle un parfum de suspicion au sujet de l’authenticité des résultats obtenus. Plus exactement, il peut effectivement demeurer un décalage entre la présentation de ces bons éléments statistiques et les injustices ressenties par de nombreuses salariées.
À lire aussi : Rémunérations hommes/femmes : « Show me the money ! », les défis de la directive européenne sur la transparence
Effectivement, malgré une note globalement positive de son entreprise, une salariée peut avoir une suspicion au sujet de sa propre situation salariale et considérer à tort ou à raison qu’elle est moins bien rémunérée que ses collègues masculins. Elle peut donc être contrainte d’engager une action judiciaire individuelle en matière d’égalité de rémunération dont la principale difficulté résidera dans l’établissement de la preuve.
À ce sujet, elle privilégiera la procédure devant le conseil des prud’hommes, car elle y bénéficiera d’un notable aménagement de la charge de la preuve. En effet, elle n’aura pas à prouver l’existence d’une discrimination, mais devra au moins « présenter des éléments de fait laissant supposer l’existence d’une discrimination directe ou indirecte ». Au vu de ces éléments, il incombera à l’employeur de démontrer que « sa décision est justifiée par des éléments objectifs étrangers à toute discrimination ». À charge pour le juge, en dernier lieu, de prendre en considération ces éléments d’appréciation pour former sa conviction après avoir éventuellement ordonné « toutes mesures d’instruction qu’il estime utiles ».
Quand cela sera possible, la salariée devra effectuer une comparaison de sa situation avec celle de ses collègues dans une situation « comparable ». Selon cette perspective, sont considérés comme ayant une « valeur égale », les travaux qui exigent des salariés un ensemble comparable de connaissances professionnelles consacrées par un titre, un diplôme ou une pratique professionnelle, ainsi que des capacités découlant de l’expérience acquise, de responsabilités, de charge physique ou nerveuse. En définitive, l’action judiciaire individuelle peut apparaître plus prosaïque et efficace que l’action collective embourbée dans ses divers biais statistiques. Toutefois si la voie judiciaire est efficace sa pente est tout de même rude.
Au centre de ce bilan mitigé surgit la directive (UE) 2023/970 du 10 mai 2023 visant à renforcer l’application du principe de l’égalité des rémunérations entre les femmes et les hommes qui devrait être transposée en droit français avant la fin de l’année 2025. Sous réserve des détails de sa transposition, elle apparaît comme ambitieuse à de nombreux égards. Elle commence par préciser la notion de « rémunération » afin de supprimer plusieurs biais comparatifs, puis impose au reste de l’Union européenne une politique publique proche de celle déjà en vigueur en France.
Nous verrons donc si elle incitera le législateur français à durcir cette dernière ou quelque peu la modifier. Au-delà de cette série de futures modifications techniques, elle impose deux bouleversements majeurs. Premièrement, elle permet aux candidats à une offre d’emploi de recevoir des informations sur la rémunération initiale du poste convoité ou la « fourchette de rémunération initiale sur la base de critères objectifs non sexistes ». Assurément, la bonne communication de ces informations devrait permettre à la salariée de négocier de manière éclairée et transparente sa rémunération. Secondement, au cours de l’exécution de son contrat, elle pourra demander à recevoir par écrit des informations sur son niveau de rémunération individuel comparé à la moyenne des salaires ventilée par sexe pour les catégories de travailleurs accomplissant le même travail. L’ambition de cette transparence est de permettre de se comparer à une moyenne afin de savoir ce qu’il en retourne réellement de sa situation. Cela permettra d’apprécier la réalité d’une égalité de rémunération et le cas échéant de déterminer la preuve d’une éventuelle discrimination.
En définitive, les difficultés rencontrées par les politiques publiques dans le domaine qui nous intéresse soulèvent la question de l’efficacité d’un droit peinant à rendre effective une égalité proclamée. Dès lors, la transparence des salaires aura-t-elle la vertu d’atteindre cette égalité réelle, ou se heurtera-t-elle à de hautes cloisons culturelles entravant sa réalisation ? La réponse à cette dernière question dépendra en grande partie des détails de la transposition en droit français des principes issus de la directive du 10 mai 2023.
Stéphane Lamaire ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
03.06.2025 à 16:27
Mathieu Ughetti, Illustrateur, vulgarisateur scientifique, Université Paris-Saclay
Franck Courchamp, Directeur de recherche CNRS, Université Paris-Saclay
La crise climatique n’avance pas seule : elle est indissociable de la crise de la biodiversité. Découvrez en exclusivité, chaque mercredi, les 10 épisodes de la BD concoctée par Mathieu Ughetti et Franck Courchamp. Dans l’épisode 6, on s’intéresse aux limites planétaires.
L’Héritage du dodo, c’est une bande dessinée pour tout comprendre à la crise du climat et de la biodiversité. Chaque semaine, on explore la santé des écosystèmes, on parle du réchauffement climatique mais aussi de déforestation, de pollution, de surexploitation… On y découvre à quel point nous autres humains sommes dépendants de la biodiversité, et pourquoi il est important de la préserver. On s’émerveille devant la résilience de la nature et les bonnes nouvelles que nous offrent les baleines, les bisons, les loutres…
On décortique les raisons profondes qui empêchent les sociétés humaines d’agir en faveur de l’environnement. On décrypte les stratégies de désinformation et de manipulation mises au point par les industriels et les climatosceptiques. Le tout avec humour et légèreté, mais sans culpabilisation, ni naïveté. En n’oubliant pas de citer les motifs d’espoir et les succès de l’écologie, car il y en a !
Retrouvez ici le sixième épisode de la série !
Ou rattrapez les épisodes précédents :
Épisode 1
Épisode 2
Épisode 3
Épisode 4
Épisode 5
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Rendez-vous la semaine prochaine pour l’épisode 6 !
Pour ne pas le rater, laissez-nous votre adresse mail
Ou abonnez-vous à L’Héritage du dodo sur :
Une BD de Franck Courchamp & Mathieu Ughetti
Qui sommes-nous ?
Republication des planches sur support papier interdite sans l’accord des auteurs
Créé en 2007 pour accélérer et partager les connaissances scientifiques sur les grands enjeux sociétaux, le Fonds Axa pour la Recherche a soutenu près de 700 projets dans le monde entier, menés par des chercheurs originaires de 38 pays. Pour en savoir plus, consultez le site Axa Research Fund ou suivez-nous sur X @AXAResearchFund.
Cette BD a pu voir le jour grâce au soutien de l’Université Paris Saclay, La Diagonale Paris-Saclay et la Fondation Ginkgo.
Mathieu Ughetti ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
03.06.2025 à 15:59
Teresa Ubide, ARC Future Fellow and Associate Professor in Igneous Petrology/Volcanology, The University of Queensland
L’Etna, le plus grand volcan en activité d’Europe, situé en Sicile (Italie) et culminant à 3 324 mètres, est entré en éruption le lundi 2 juin 2025, heureusement sans danger pour la population selon les sources locales.
Lundi 2 juin matin (heure locale), le mont Etna, en Italie, s’est mis à cracher une énorme colonne de cendres, de gaz chauds et de fragments rocheux.
Un formidable panache de fumée exhalé par le plus grand volcan actif d’Europe, l’Etna en Sicile, s’est élevé sur plusieurs kilomètres dans le ciel.
Si l’explosion a produit un spectacle impressionnant, l’éruption n’a, à ce qu’il semble, fait ni victimes ni dégâts, et c’est tout juste si les vols en provenance ou en partance de l’île ont été perturbés. On a coutume de nommer les éruptions de l’Etna « éruptions stromboliennes » ; cependant, comme on le verra, ce terme ne s’applique pas forcément à ce récent événement.
L’éruption a commencé par une augmentation de la pression des gaz chauds contenus dans le volcan. Ce réchauffement a entraîné l’effondrement partiel d’un des cratères qui se trouvent au sommet de l’Etna.
Cet effondrement a déclenché ce qu’on appelle un « flux pyroclastique » : un panache de cendres, de gaz volcaniques et de fragments de roches qui jaillit des entrailles du volcan et se déplace à toute vitesse.
Ensuite, la lave s’est mise à couler sur les flancs de la montagne, dans trois directions différentes. Ces écoulements sont désormais en train de refroidir. Lundi soir, l’Institut national de géophysique et de volcanologie italien a annoncé que l’activité volcanique avait pris fin.
L’Etna est l’un des volcans les plus actifs du monde, donc cette éruption n’a rien d’exceptionnel.
Les volcanologues classent les éruptions en fonction de leur puissance explosive. Plus elles sont explosives, plus elles sont dangereuses, car elles évoluent plus vite et couvrent une zone plus importante.
Les plus bénignes sont celles qui se produisent à Hawaï (États-Unis), dans l’océan Pacifique. Vous en avez probablement vu les images : la lave coule mollement, comme léthargique, sur les pentes du volcan. Certes, elle abîme ce qui se trouve sur son chemin, mais le rayonnement en est relativement restreint.
Quand les éruptions se font plus explosives, en revanche, elles essaiment de la cendre et des fragments de roche à de plus grandes distances.
Tout en haut de l’échelle, on a les éruptions pliniennes, les plus explosives de toutes. On peut compter parmi elles la célèbre éruption du Vésuve, en l’an 79 de notre ère, qui fut décrite par Pline le Jeune. C’est elle qui a enseveli les villes romaines de Pompéi et d’Herculanum sous des mètres de cendres.
Lors d’une éruption plinienne, les gaz chauds, la cendre et les rochers peuvent être expulsés avec une telle violence et à une telle hauteur qu’ils atteignent la stratosphère – et lorsque le panache d’éruption retombe, les débris s’abattent sur la terre et peuvent causer des dégâts monstrueux sur une zone assez étendue.
Qu’en est-il des éruptions stromboliennes ? Ces éruptions relativement modérées empruntent leur nom au Stromboli, un autre volcan italien qui connaît une éruption mineure toutes les dix à vingt minutes.
Dans une éruption strombolienne, les éclats de roches et les braises peuvent parcourir des dizaines ou des centaines de mètres dans les airs, mais rarement davantage.
Le flux pyroclastique de l’éruption d’hier, sur l’Etna, s’est avéré doté d’une puissance explosive supérieure à cette moyenne – il ne s’agissait donc pas, au sens strict, d’une éruption strombolienne.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Les éruptions volcaniques sont un peu comme le temps qu’il fait. Elles sont très difficiles à prédire avec précision, mais nous avons beaucoup progressé dans ce domaine. Pour comprendre le comportement futur d’un volcan, nous devons d’abord savoir ce qui se passe à l’intérieur à un moment X. On ne peut pas regarder dans le volcan directement, mais on dispose de mesures indirectes fiables.
Par exemple, que se passe-t-il avant que le magma d’éruption jaillisse des entrailles de la Terre ? En route vers la surface, le magma pousse des rochers et peut provoquer des tremblements de terre. En enregistrant les vibrations concomitantes, il nous est possible de suivre le trajet du magma jusqu’à la surface.
Le magma prêt à jaillir peut aussi provoquer un léger gonflement du terrain dans la région volcanique. Une affaire de quelques millimètres ou centimètres. L’observation attentive de ce phénomène, par exemple grâce à des satellites, nous permet de rassembler de précieuses informations sur une éruption à venir.
Certains volcans libèrent des gaz même en l’absence d’éruption stricto sensu. Il nous est possible d’analyser la composition chimique de ces gaz – si celle-ci se modifie, cela peut nous indiquer que le magma est de nouveau en route vers la surface.
Une fois qu’on a rassemblé toutes ces informations sur le fonctionnement interne d’un volcan, il est également indispensable de comprendre sa personnalité, pour savoir les analyser et comprendre ce qu’elles nous disent des éruptions à venir.
En tant que volcanologue, j’entends souvent dire qu’on a l’impression que les éruptions sont plus nombreuses de nos jours qu’autrefois. Ce n’est pas le cas.
Ce qui se produit, je l’explique à ceux qui m’interrogent sur le sujet, c’est que nous disposons désormais de meilleurs systèmes de mesure et d’un système médiatique mondialisé très actif. Donc on apprend systématiquement l’existence des éruptions – on en voit même des photos.
La surveillance est extrêmement importante. Nous avons la chance que de nombreux volcans – dans des pays comme l’Italie, les États-Unis, l’Indonésie et la Nouvelle-Zélande – soient équipés d’excellents systèmes de surveillance.
Cette surveillance permet aux autorités locales de prévenir la population en cas d’éruption imminente. Pour le visiteur ou le touriste venu admirer ces merveilles naturelles que sont les volcans, écouter ces avertissements est crucial.
Teresa Ubide ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
03.06.2025 à 15:59
Valentin Gachet, Doctorant en sciences de gestion, spécialisé en finance, Université Grenoble Alpes (UGA)
Alors que le confinement laissait entrevoir un avenir radieux pour Ubisoft, les dernières années ne semblent lui apporter que de mauvaises nouvelles. Entre franchises qui s’essoufflent, performances financières en berne et troubles internes allant jusqu’à un procès pour harcèlement sexuel et moral de trois anciens cadres, le géant français du jeu vidéo traverse une période délicate.
Depuis 2018, Ubisoft a plongé en bourse. Alors que son cours s’élevait jusqu’à 107 €, aujourd’hui le titre s’échange aux alentours de 10 €, soit une baisse de 86 % en cinq ans ! Et les résultats de l’exercice 2024-2025, communiqués le 14 mai dernier, n’ont pas rassuré les investisseurs avec des chiffres et prévisions en dessous de ce qu’avaient anticipé les analystes.
Dans une logique de réduction des coûts, Ubisoft s’est déjà séparé de 3 000 employés depuis 2022.
L’entreprise, qui bénéficie de plusieurs dizaines de millions d’aides publiques, a également annoncé en mars dernier la création d’une filiale qui va regrouper trois licences phares mais qui va surtout être détenue à 25 % par le géant chinois Tencent. De quoi alimenter l’hypothèse d’un rachat futur et d’un passage sous pavillon étranger. Le 9 octobre, un député a ainsi envoyé une lettre au premier ministre pour l’alerter sur « l’enjeu de souveraineté culturelle et industrielle forte » que représente la filière du jeu vidéo, sans citer expressément l’entreprise française.
Pourtant, Ubisoft, c’est aussi une histoire à succès. D’une petite entreprise de distribution de jeux vidéo fondée en 1986 en Bretagne, le groupe s’est depuis imposé comme l’un des plus grands éditeurs du globe. Connu pour ses licences phares Assassin’s Creed, Far Cry, Rainbow Six ou encore Just Dance, Ubisoft compte environ 17 000 employés et plus de 40 studios à travers le monde.
Sommes-nous donc en train d’assister à la chute du plus grand éditeur français ou est-ce le secteur du jeu vidéo qui se trouve en difficulté ?
En 2020, à la suite de témoignages sur les réseaux sociaux relatant des comportements abusifs au sein de l’entreprise, une enquête journalistique révèle les harcèlements moraux et les agressions sexuelles pratiqués par certains haut placés sur les employés. D’autres médias recueillent également des témoignages qui font apparaître un grave dysfonctionnement des ressources humaines. Toutes ces révélations amèneront au départ ou à la mise à pied de nombreuses personnes importantes au sein du studio, dont Serge Hascoët, directeur créatif considéré à l’époque comme le numéro 2 d’Ubisoft, validant la plupart des jeux développés. C’est également le cas de Guillaume Patrux, Game director, ou encore Michel Ancel, à l’origine de la saga à succès Rayman.
Ces évènements ne passent pas inaperçus et portent atteinte à l’image d’Ubisoft avec une baisse de plus de 9 % en bourse en une seule journée.
Mais ce n’est pas tout, la perte des personnes qui ont largement contribué au succès faramineux des jeux les plus connus et lucratifs de l’entreprise affecte les résultats de celle-ci : sur la période 2021-2022, le chiffre d’affaires est en baisse 4,4 % et il est en grande partie maintenu par le back-catalogue (+11 %), c’est-à-dire les anciens jeux publiés.
En 2022-2023, le back-catalogue est en recul et le chiffre d’affaires chute encore de 14,6 %, le résultat de sorties de jeux décevants (notamment Far Cry 6) et d’autres qui sont reportés (Skull and Bones, Avatar…).
Pour Ubisoft, la crise sociale ne s’arrête pas là…
En février dernier survenait en France une grève nationale lancée par le Syndicat des travailleurs et travailleuses du jeu vidéo (STJV) pour lutter contre les licenciements de plus en plus nombreux dans le milieu mais également pour revendiquer une réduction du temps de travail. En octobre 2024, c’étaient les syndicats d’Ubisoft qui avaient déjà appelé à la grève pour demander une revalorisation des salaires et contester une diminution des jours de télétravail. Un mouvement qui avait déjà été précédé par une autre grève en février 2024, là encore sur la question des salaires…
Ubisoft a donc, depuis quelques années, de réels problèmes de management, ce qui ternit son image et fait fuir ses talents. Tout cela ne rassure pas ses investisseurs, d’autant que le studio doit également faire face à un problème qui touche plus largement le secteur du jeu vidéo.
Si Ubisoft s’est retrouvé au cœur des polémiques en 2020, nul doute que le studio aura tout de même profité de l’impact positif qu’aura eu la pandémie dans ce milieu. En effet, en se basant sur les ratios financiers de grandes entreprises du jeu vidéo, une étude a ainsi démontré que l’industrie est l’un des rares secteurs à avoir prospéré économiquement pendant cette période de crise. Un constat qui s’explique par un temps de jeu qui a largement augmenté du fait des confinements. À ce moment, l’Organisation mondiale de la santé (OMS) avait d’ailleurs recommandé la pratique des jeux en ligne pour garder un lien social tout en restant à distance.
D’autres chercheurs ont également mis en avant le rôle de la pandémie dans la perception positive et la pratique du jeu vidéo, mais en rappelant toutefois que cela reste encore une fois lié au contexte particulier et temporaire de l’épidémie.
La période 2020-2022 a été la plus prolifique en termes de croissance, mais aussi d’investissements dans les jeux vidéo. Par exemple, entre 2020 et 2021, le nombre total d’investisseurs en capital-risque actifs dans le financement de studios ou éditeurs a été multiplié par quatre ! Il est clair que les investisseurs espéraient une croissance continue du secteur sur les années qui suivent.
Cependant, les chiffres délivrés par le Syndicat des éditeurs de logiciels de loisirs (Sell) révèlent plutôt une tendance stagnante qu’une réelle progression depuis 2020.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
L’année 2023 a été un peu particulière puisqu’elle était marquée par la sortie d’une nouvelle génération de consoles qui a dopé les ventes, mais les résultats de 2024 montrent un retour à un niveau similaire aux années précédentes. Ces chiffres établissent donc une assez bonne résilience du secteur, toutefois bien loin des résultats que l’on pourrait attendre après les investissements massifs qui ont été faits. Résultat, les investisseurs se désengagent avec, pour conséquence, une baisse des cours boursiers et des licenciements. Un constat auquel Ubisoft ne déroge évidemment pas.
Et malheureusement pour l’éditeur français, en plus du contexte économique du jeu vidéo et de ses problèmes de management, il est également attaqué sur l’orientation prise par ses derniers jeux.
Si, jusqu’en 2015, Ubisoft a fait sa renommée en proposant continuellement des jeux plus ambitieux et captivants, les années suivantes semblent marquer un essoufflement. Les quatre premiers jeux de la licence Far Cry ont ainsi tous récolté une note supérieure à 85 sur 100 sur Metacritic (agrégateur de notes reconnu dans le milieu), les suivants n’atteignent pas ce niveau avec 81 pour Far Cry 5 et seulement 73 pour Far Cry 6.
Même constat pour la saga Assassin’s Creed qui peine à ravir les fans de la première heure. Une étude de cas de cette licence a pu démontrer qu’Ubisoft a modifié sa stratégie marketing depuis Assassin’s Creed Origins (2017). La formule a été adaptée et universalisée pour s’adresser au public le plus large possible, quitte à laisser de côté les aspects plus narratifs.
Un virage aux résultats discutables car, si les ventes sont plutôt encourageantes, égalant voire surpassant les premiers jeux, il faut rappeler que le coût des derniers épisodes est bien plus conséquent puisque, aujourd’hui, les budgets des grosses productions atteignent les 200 millions de dollars. Ubisoft ne communique pas sur les coûts de ses jeux, mais on estime qu’Assassin’s Creed Unity (2014) aurait coûté 140 millions d’euros et le dernier opus, environ 300 millions d’euros, marketing inclus.
Mais, plus important encore, les notes n’atteignent pas celles des précédents opus et les derniers jeux sont pointés du doigt pour leurs ressemblances. Des critiques qui s’étendent à toutes les licences d’Ubisoft puisque la formule a été adoptée pour tous les derniers projets.
Ce choix attire la méfiance des joueurs et a un impact sur les ventes de l’éditeur. D’ailleurs, si Assassin’s Creed Shadows, sorti le 20 mars dernier, semble apporter suffisamment de recettes pour donner une bouffée d’air à Ubisoft, le studio n’a pas communiqué sur le nombre d’unités vendues, ce qui est rarement une bonne nouvelle… Sans compter que le 3 juin, XDefiant, un jeu de tir multijoueur aux ambitions énormes réalisé par Ubisoft en mai 2024, a fermé définitivement ses portes, faute d’audience. Un échec colossal qui marque donc à nouveau la fracture entre le studio et les attentes des joueurs.
Le 24 avril dernier sortait le jeu Clair Obscur : Expédition 33, développé par Sandfall Interactive, un studio français nouvellement créé et composé d’une trentaine de développeurs, pour la plupart des juniors (et quelques anciens de chez Ubisoft).
Il s’agit d’un jeu de rôle se jouant au tour par tour, un genre assez peu populaire qui est donc loin d’être tout public… et qui a été vendu plus de deux millions d’unités en moins de deux semaines. Il atteint par ailleurs l’excellente note de 92. Une réussite qui prouve que le secteur du jeu vidéo ne se porte pas si mal et qu’il est même possible de capter l’attention des joueurs avec un style de jeu d’ordinaire boudé par le public et les éditeurs.
Ce succès met en exergue les difficultés du géant Ubisoft qui peine à rester aussi agile et innovant que de petits studios. Si elle veut sortir la tête de l’eau, l’entreprise va donc devoir réussir rapidement à s’adapter aux transformations du secteur tout en réglant ses problèmes internes.
Valentin Gachet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
03.06.2025 à 14:39
Haoues Seniguer, Maître de conférences HDR en science politique. Spécialiste de l’islamisme et des rapports entre islam et politique, Sciences Po Lyon, laboratoire Triangle, ENS de Lyon
Philippe Corcuff, Professeur des universités en science politique, membre du laboratoire CERLIS (UMR 8070), Sciences Po Lyon
Le meurtre d’Aboubakar Cissé, assassiné dans la mosquée de la Grande-Combe (Gard) le 25 avril 2025, est le point d’acmé d’une culture du soupçon à l’égard de l’islam et des musulmans. Le récent rapport gouvernemental sur l’entrisme des Frères musulmans en France participe de cette logique de suspicion à tonalité conspirationniste qui s’est installée jusqu’au sommet de l’État. Au-delà de l'hostilité à l’égard des musulmans, les crimes racistes de Puget-sur-Argens (Var), ce 31 mai, soulignent la prégnance de la xénophobie dans l’espace public.
Aboubakar Cissé a été assassiné le 25 avril dernier. La trajectoire du meurtrier reste à préciser pour mieux cerner l’étendue de ses motivations. Néanmoins, cet événement revêt d’ores et déjà une portée emblématique à maints égards : d’abord, par la violence extrême de l’acte ; ensuite, par le fait qu’il s’agisse d’un musulman ordinaire, sans antécédents ; par le lieu du forfait, la mosquée de La Grand-Combe dans le Gard ; enfin, par le mode opératoire de l’assaillant, qui a pris soin de filmer son geste en l’accompagnant de paroles ouvertement anti-islam et antimusulmanes, les deux dimensions s’entremêlant dans les propos rapportés par l’AFP : « Ton Allah de merde. » Ce fait inordinaire ayant affecté un musulman du quotidien peut être interprété comme le point d’acmé d’une culture du soupçon à l’égard de l’islam et des musulmans qui s’est déplacée des marges de la sphère publique à son centre.
Dans une enquête de science politique publiée en 2022, nous avons mis en évidence que, depuis les attentats de 2015, des représentants de l’État ont glissé de la critique légitime des auteurs des attentats terroristes vers une suspicion plus étendue à l’égard du monde musulman, dans une « confusion conceptuelle entre conservatisme, rigorisme, radicalisation, séparatisme, islamisme et djihadisme ». Le récent rapport gouvernemental sur les Frères musulmans en France, en évoquant « un projet secret » sans « aucun élément sérieux pour le démontrer », selon les mots du politiste Franck Frégosi, participe de cette logique de suspicion à tonalité conspirationniste qui s’est installée jusqu’au plus haut niveau de l’État. Les acteurs incriminés sont sommés de faire constamment la preuve de leur innocence malgré leur légalisme affiché et revendiqué.
À lire aussi : Débat : Le traitement de l’islam en France est-il symptomatique d’une crise républicaine ?
Compte tenu des nombreux indices empiriques, il semble par conséquent difficile d’en ignorer la portée éminemment islamophobe. Pourtant, malgré ce qui relève de l’évidence factuelle – fondée tant sur le lieu du crime que sur les déclarations de l’assassin, confirmée par les premières investigations de la justice –, certains responsables politiques, journalistes et éditorialistes ont spontanément hésité à en admettre le caractère fondamentalement raciste, avec un aspect anti-islam remarquable.
Si le premier ministre François Bayrou a immédiatement qualifié ce meurtre d’« ignominie islamophobe », d’autres membres du gouvernement, et plus largement de la classe politique, n’ont pas adopté la même clarté. Les raisons de ces hésitations sont diverses. Le ministre de l’intérieur et des cultes Bruno Retailleau, après un silence inhabituel et sans se rendre directement sur les lieux du drame, s’est contenté d’évoquer la possibilité d’« un acte antimusulman », dans une prudence en décalage avec ses déclarations alarmistes sur la menace de « l’islamisme ».
Manuel Valls, ministre des outre-mer, a, pour sa part, parlé « d’un acte de haine à l’encontre des musulmans », tout en affirmant qu’il ne faut « jamais employer les termes de l’adversaire, ceux qui veulent la confrontation avec ce que nous sommes », car le terme islamophobie aurait été « inventé il y a plus de trente ans par les mollahs iraniens ».
Pourtant, les sociologues Abdellali Hajjat et Marwan Mohammed ont montré dès 2013, dans leur livre Islamophobie, que le mot apparaît en français dès 1910 chez des administrateurs coloniaux-ethnologues. Toutefois, au-delà de la fake news, Manuel Valls met en accusation la façon la plus courante de qualifier les actes antimusulmans au niveau des institutions internationales, dans les ONG et dans la recherche en sciences sociales, comme l’a mis en évidence Houda Asal en 2014. Or, en n’en faisant qu’une arme aux mains de ceux qui voudraient déstabiliser le pacte républicain français, l’ancien premier ministre risque d’amoindrir la condamnation d’un meurtre horrible, en la mettant en balance avec un autre danger flou aux tonalités conspirationnistes affectant cette fois l’ensemble de la communauté nationale.
Dans le champ médiatique, l’éditorialiste Caroline Fourest, disqualificatrice de longue date du terme islamophobie, s’est précipitée pour relayer sur X, le 28 avril 2025, la version du présumé coupable qui, selon son avocat italien, nierait toute intention antimusulmane. Puis, le lendemain sur LCI, elle est allée jusqu’à soutenir, de manière non documentée, que c’est le mot islamophobie « qui a beaucoup tué dans ce pays ». D’autres, comme le journaliste Alexandre Devecchio ou le politiste Gilles Kepel dans le Figaro, ont préféré insister sur les potentielles instrumentalisations du terme islamophobie à gauche ou dans les milieux dits « islamistes », plutôt que d’interroger sérieusement la responsabilité politique et idéologique d’un climat globalement dépréciatif à l’égard des manifestations publiques et légales de l’islamité. Un climat qui a pu créer des conditions facilitant un passage à l’acte aux relents racistes et islamophobes manifestes.
En association avec l’air du temps anti-musulmans, c’est hostilité à l’égard des étrangers et des migrants qui a été légitimée dans les débats publics. Les crimes racistes commis le 31 mai à Puget-sur-Argens (Var) par un sympathisant des idées d’extrême droite ayant posté des vidéos xénophobes en constituent un indice effrayant. Hichem Miraoui, de nationalité tunisienne, a été assassiné et un jeune homme de nationalité turque a été blessé par balles.
Depuis le 7 octobre 2023 en France, un antisémitisme d’atmosphère, qui ne constitue pas la cause mécanique d’actes antisémites en recrudescence documentés par le rapport 2024 de la Commission nationale consultative des droits de l’homme, mais qui se présente comme un bain idéologique propice, a rendu davantage légitime aux yeux d’une petite minorité de personnes le passage à des actes extrêmes. C’est le cas du viol et des violences antisémites à l’égard d’une fillette de 12 ans à Courbevoie, le 15 juin 2024, où la judéité de la victime a été associée par ses agresseurs à l’État d’Israël et à la Palestine. Dans ce bain idéologique, des porosités se sont développées entre la notion floue et à géométrie variable d’« antisionisme » et l’antisémitisme.
De manière analogue, il existe une islamophobie d’atmosphère, au sein de laquelle la violence islamophobe peut apparaître davantage acceptable aux yeux de quelques personnes. Cet air du temps idéologique a été alimenté par des personnalités politiques, journalistiques et intellectuelles, dans un soupçon vis-à-vis des pratiques musulmanes visibles (comme le voile) indûment associées à « l’islamisme », catégorie aux frontières d’ailleurs dilatées, amalgamant les islamoconservatismes légalistes, critiquables du point de vue d’une éthique de l’émancipation comme les catho-conservatismes ou les judéo-conservatismes mais pas juridiquement condamnables, et les djihadismes meurtriers faisant peser des dangers mortels sur la population.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Dans le cas de l’islamophobie, à la différence de l’antisémitisme actuel refoulé aux marges du débat public à cause de la mémoire des horreurs de la Shoah, la suspicion s’est exprimée jusqu’au sommet de l’État, lui donnant une légitimité forte. Ainsi la loi du 24 août 2021 « confortant le respect des principes de la République » a d’abord été présentée comme une « loi contre les séparatismes », faisant suite au discours prononcé par le président de la République aux Mureaux (Yvelines), le 2 octobre 2020, contre « le séparatisme islamiste ». Dès après le drame de La Grand-Combe (Gard), Emmanuel Macron a réitéré une logique de soupçon vis-à-vis du voile musulman sur TF1, le 13 mai 2025 : « Je suis pour la charte olympique qui interdit le port de tout signe religieux dans les compétitions » ; interdiction qui n’est d’ailleurs pas présente dans la Charte du Comité international olympique comme l’ont montré par la suite des vérifications journalistiques.
L’islamophobie d’atmosphère, l’antisémitisme d’atmosphère, mais aussi la xénophobie d’atmosphère se présentent comme des modalités de l’aimantation des débats publics par les extrêmes droites. Dans une enquête sur les transformations idéologiques des espaces publics en France à partir du milieu des années 2000, nous avons construit le concept de « confusionnisme » pour en rendre compte.
Le confusionnisme renvoie au développement d’interférences et d’hybridations entre des postures et des thèmes d’extrême droite, de droite, de gauche modérée et de gauche radicale favorisant l’extrême droitisation dans un contexte de recul du clivage gauche/droite. C’est, par exemple, la valorisation du national et la dévalorisation du mondial et de l’européen, ou la fixation positive (comme dans « l’identité nationale ») ou négative (comme avec « les musulmans ») sur des identités supposées homogènes et closes.
La concurrence entre les combats contre l’antisémitisme et contre l’islamophobie en a constitué un terrain de développement, à partir du début des années 2000, d’abord dans la galaxie antiraciste. Ainsi, la Ligue internationale contre le racisme et l’antisémitisme (Licra) et SOS Racisme ont refusé de participer à une manifestation contre tous les racismes (parce qu’incluant la question de l’islamophobie), initiée par le Mouvement contre le racisme et pour l’amitié entre les peuples (Mrap) et la Ligue des droits de l’homme (LDH), le 7 novembre 2004. Puis cette concurrence s’est étendue à la sphère politique. Ceux qui privilégient le combat contre l’antisémitisme vont dénigrer la notion d’islamophobie, comme Manuel Valls qui en fait, en 2013, « un cheval de Troie des salafistes ». Ceux qui privilégient l’islamophobie minorent l’antisémitisme, « résiduel » pour le leader de La France insoumise (LFI), Jean-Luc Mélenchon, en 2024.
En quoi cette compétition a-t-elle eu des effets confusionnistes ? Pour plusieurs raisons :
cela a travaillé des intersections avec la tendance à l’enfermement des débats publics autour d’identités homogènes et closes, portée par la galaxie de l’ultradroite : identitarisme antisémite, chez Dieudonné et Alain Soral, et identitarisme islamophobe, chez Éric Zemmour ou dans « la théorie du grand remplacement » de Renaud Camus ;
cela a participé à la cristallisation des identités collectives en compétition, en les avivant via des concurrences victimaires ; les porte-parole de chaque identité mise en avant réclamant la place de « plus grande victime » ;
cela a contribué à la banalisation des schémas conspirationnistes, avec deux pôles opposés « le grand remplacement » et « le complot islamiste » ;
et cela a enrayé les convergences antiracistes comme réponse à l’extrême droitisation, les antiracistes étant divisés.
Nous faisons l’hypothèse que le contexte idéologique islamophobe a joué un rôle dans le meurtre de La Grand-Combe, comme la xénophobie d’atmosphère constitue un facteur à l’œuvre dans les crimes racistes de Puget-sur-Argens. Mais il ne s’agit pas d’une cause directe en un sens déterministe, c’est-à-dire d’une cause unique produisant nécessairement de tels effets. C’est une invitation pour les sciences sociales, dans la douleur de drames, à penser autrement les relations entre des contraintes sociales structurelles, d’une part, et des itinéraires individuels et des dynamiques spécifiques de situation, d’autre part.
Le pari de connaissance propre aux sciences sociales sur ce plan consiste à se saisir du défi formulé par le philosophe Emmanuel Levinas dans son grand livre de la maturité de 1974, Autrement qu’être, ou au-delà de l’essence : « La comparaison de l’incomparable. » Il s’agit de mettre en tension ce qui se répète dans la vie sociale, à travers « la comparaison », et des singularités, en tant que relevant pour une part de « l’incomparable ». Et cela sans abdiquer le souci scientifique d’intelligibilités partielles, ni prétendre pour autant enfermer les pratiques humaines dans une totalité devenant complètement transparente aux savoirs scientifiques.
Haoues Seniguer a reçu des financements de la Fondation pour la mémoire de la Shoah (une bourse postdoctorale) entre 2013 et 2014
Philippe Corcuff est membre de l'association RAAR (Réseau d'Actions contre l'Antisémitisme et tous les Racismes)
03.06.2025 à 12:44
Kevin Parthenay, Professeur des Universités en science politique, membre de l'Institut Universitaire de France (IUF), Université de Tours
Rafael Mesquita, Professeur Associé à l’Université Fédérale du Pernambuco, Brésil
À la veille de la 3e Conférence des Nations unies sur l’océan (Unoc 3), où en est la gouvernance marine ? Se pencher sur l’histoire de la diplomatie des océans permet de mieux comprendre la nature des enjeux actuels : Nice doit être l’occasion de consolider un nouveau droit international des océans.
Le 9 juin 2025, la Conférence des Nations unies sur l’océan (Unoc) s’ouvrira à Nice (Alpes-Maritimes). Il s’agit de la troisième conférence du nom, après celle de New York en 2017 puis de Lisbonne en 2022. Organisée conjointement par la France et par le Costa Rica, elle rassemblera 150 États et près de 30 000 personnes autour de la « gestion durable de l’océan ».
Ce qui est présenté comme un moment fort pour les océans s’inscrit en réalité dans un changement de dynamique profond de la gouvernance marine, qui a été lancé il y a déjà plusieurs décennies. Jadis pensée pour protéger les intérêts marins des États, la gouvernance des océans doit désormais tenir compte des enjeux climatiques et environnementaux des océans.
Ce « moment politique » et médiatique ne devra ni occulter ni se substituer à la véritable urgence, qui est d’aboutir à des évolutions du droit international qui s’applique aux océans. Sans quoi, le sommet risque de n’être qu’un nouveau théâtre de belles déclarations vaines.
Pour comprendre ce qui se joue, il convient de débuter par une courte rétrospective historique de la gouvernance marine.
Participez au webinaire The Conversation France / Normandie pour la Paix, jeudi 19 juin à 18h : « Environnement et sécurité : quelle place pour l’Europe sur la scène mondiale ? » - Inscription gratuite ici
La gouvernance des océans a radicalement changé au cours des dernières décennies. Auparavant centrée sur les intérêts des États et reposant sur un droit international consolidé dans les années 1980, elle a évolué, depuis la fin de la guerre froide, vers une approche multilatérale qui mêle un large spectre d’acteurs (organisations internationales, ONG, entreprises, etc.).
Cette gouvernance est progressivement passée d’un système d’obligations concernant les différents espaces marins et leur régime de souveraineté associé (mers territoriales, zones économiques exclusives (ZEE) ou encore haute mer) à un système prenant en compte la « santé des océans », où il s’agit de les gérer dans une optique de développement durable.
Pour mieux comprendre ce qui se joue à Nice, il faut comprendre comment s’est opérée cette bascule. Les années 1990 ont été le théâtre de nombreuses déclarations, sommets et autres objectifs globaux. Leur efficacité, comme on le verra plus bas, s’est toutefois montrée limitée. Ceci explique pourquoi on observe aujourd’hui un retour vers une approche davantage fondée sur le droit international, comme en témoignent par exemple les négociations autour du traité international sur la pollution du plastique.
À lire aussi : Traité mondial contre la pollution plastique : en coulisses, le regard des scientifiques français présents
L’émergence du droit de la mer remonte à la Conférence de La Haye en 1930. Aujourd’hui, c’est essentiellement autour de la Convention des Nations unies sur le droit de la mer (CNUDM) de 1982 que la gouvernance marine s’est progressivement structurée.
L’Unoc 3 en est le prolongement direct. En effet, les réflexions sur la gestion durable des océans découlent des limites de ce texte fondateur, souvent présenté comme la « Constitution des mers ».
Adoptée en décembre 1982 lors de la Convention de Montego Bay (Jamaïque), la CNUDM est entrée en vigueur en novembre 1994, à l’issue d’un long processus de négociations internationales qui a permis à 60 États de ratifier le texte. Les discussions portaient au départ sur les intérêts des pays en développement, en particulier des pays côtiers, dans un contexte de crise du multilatéralisme, une dimension que les États-Unis sont parvenus à infléchir, et cela sans avoir jamais ratifié la Convention. Celle-ci constitue depuis un pilier central de la gouvernance marine.
Elle a créé des institutions nouvelles, comme l’Autorité des fonds marins (International Seabed Authority), dont le rôle est d’encadrer l’exploitation des ressources minérales des fonds marins dans les zones au-delà des juridictions nationales. La CNUDM est à l’origine de la quasi-totalité de la jurisprudence internationale sur la question.
Elle a délimité les espaces maritimes et encadré leur exploitation, mais de nouveaux enjeux sont rapidement apparus. D’abord du fait des onze années de latence entre son adoption et sa mise en œuvre, délai qui a eu pour effet de vider la Convention de beaucoup de sa substance. L’obsolescence du texte tient également aux nouveaux enjeux liés à l’usage des mers, en particulier les progrès technologiques liés à la pêche et à l’exploitation des fonds marins.
Le début des années 1990 a marqué un tournant dans l’ordre juridique maritime traditionnel. La gestion des mers et des océans a pu être inscrite dans une perspective environnementale, sous l’impulsion de grandes conférences et déclarations internationale telles que la déclaration de Rio (1992), la Déclaration du millénaire (2005) et le Sommet Rio+20 (2012). Il en a résulté l’Agenda 2030 et les Objectifs du développement durable (ODD), 17 objectifs visant à protéger la planète (l’objectif 14 concerne directement l’océan) et la population mondiale à l’horizon 2030.
À lire aussi : Un pacte mondial pour l’environnement, pour quoi faire ?
La Conférence des Nations unies sur l’environnement et le développement (CNUED) à Rio de Janeiro (Brésil) en 1992 a inauguré l’ère du « développement durable ». Elle a permis de faire le lien entre les questions environnementales et maritimes, notamment grâce aux découvertes scientifiques réalisées dans la décennie précédente.
Entre 2008 et 2015, les questions environnementales ont pris une place plus importante, avec l’adoption régulière de résolutions portant l’environnement et sur le climat.
Depuis 2015, deux thèmes sont devenus récurrents dans l’agenda international : la biodiversité et l’utilisation durable des océans (ODD 14). Dans ce contexte, les enjeux liés aux océans intègrent désormais leur acidification, la pollution plastique et le déclin de la biodiversité marine.
La résolution de l’Assemblée générale des Nations unies sur les océans et le droit de la mer (Oceans and the Law of the Seas, OLOS) est particulièrement utile pour comprendre cette évolution. Rédigée chaque année depuis 1984, elle couvre tous les aspects du régime maritime des Nations unies et permet de refléter les nouveaux enjeux et préoccupations.
Certains termes environnementaux étaient au départ absents du texte, mais sont devenus plus visibles depuis les années 2000.
Mais cette évolution se reflète aussi dans le choix des mots.
Tandis que les résolutions OLOS des années 1984 à 1995 étaient surtout orientées vers la mise en œuvre du traité et l’exploitation économique des ressources marines, celles des années plus récentes se caractérisent par l’usage de termes liés à la durabilité, aux écosystèmes et aux enjeux maritimes.
La prise de conscience des enjeux liés aux océans et de leur lien avec le climat a progressivement fait des océans une « dernière frontière » (final frontier) planétaire en termes de connaissances.
La nature des acteurs impliqués dans les questions océaniques a également changé. D’un monopole détenu par le droit international et par les praticiens du droit, l’extension de l’agenda océanique a bénéficié d’une orientation plus « environnementaliste » portée par les communautés scientifiques et les ONG écologistes.
L’efficacité de la gouvernance marine, jusqu’ici surtout fondée sur des mesures déclaratives non contraignantes (à l’image des ODD), reste toutefois limitée. Aujourd’hui semble ainsi s’être amorcé un nouveau cycle de consolidation juridique vers un « nouveau droit des océans ».
Son enjeu est de compléter le droit international de la mer à travers, par exemple :
l’adoption de l’accord sur la conservation et sur l’usage de la biodiversité marine au-delà des juridictions nationales (mieux connu sous le nom d’accord BBNJ) visant à protéger les ressources marines dans la haute mer ;
la négociation d’un traité sur la pollution (marine) par les plastiques, en chantier, qui n’est pas encore achevée ;
l’accord sur la subvention des pêches adopté à l’OMC pour préserver les stocks de poissons (mais qui peine encore à être pleinement respecté) ;
ou encore l’adoption d’un Code minier par l’Autorité des fonds marins, destiné à encadrer l’exploitation minière des fonds marins.
Parmi ces accords, le BBNJ constitue probablement le plus ambitieux. Le processus de négociation, qui a débuté de manière informelle en 2004, visait à combler les lacunes de la CNUDM et à le compléter par un instrument sur la biodiversité marine en haute mer (c’est-à-dire, dans les zones situées au-delà des juridictions nationales).
L’accord fait écho à deux préoccupations majeures pour les États : la souveraineté et la répartition équitable des ressources.
Adopté en 2023, cet accord historique doit encore être ratifié par la plupart des États. À ce jour, seuls 29 États ont ratifié ce traité (dont la France, en février 2025, ndlr) alors que 60 sont nécessaires pour son entrée en vigueur.
Le processus BBNJ se situe donc à la croisée des chemins. Par conséquent, la priorité aujourd’hui n’est pas de prendre de nouveaux engagements ou de perdre du temps dans des déclarations alambiquées de haut niveau.
La quête effrénée de minéraux critiques, dans le contexte de la rivalité sino-américaine, a par exemple encouragé Donald Trump à signer en avril 2025 un décret présidentiel permettant l’exploitation minière du sol marin. Or, cette décision défie les règles établies par l’Autorité des fonds marins sur ces ressources en haute mer.
À l’heure où l’unilatéralisme des États-Unis mène une politique du fait accompli, cette troisième Conférence mondiale sur les océans (Unoc 3) doit surtout consolider les obligations existantes concernant la protection et la durabilité des océans, dans le cadre du multilatéralisme.
Kevin Parthenay est membre de l'Institut Universitaire de France (IUF).
Rafael Mesquita ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
03.06.2025 à 11:14
Mickael Naassila, Professeur de physiologie, Directeur du Groupe de Recherche sur l'Alcool & les Pharmacodépendances GRAP - INSERM UMR 1247, Université de Picardie Jules Verne (UPJV)
Une étude prétend que consommer du champagne ou encore utiliser son ordinateur réduirait le risque d’arrêt cardiaque soudain. Mais elle présente des biais méthodologiques majeurs ! Ses soi-disant résultats ne doivent donc pas être pris en compte.
Il y a des études scientifiques qui font sourire, d’autres qui interrogent, et certaines qui, bien qu’habillées du vernis de la rigueur, diffusent des conclusions aussi fragiles que les bulles d’un verre de champagne.
C’est le cas d’un article récemment publié dans le Canadian Journal of Cardiology qui conclut, entre autres, que la consommation de champagne et/ou de vin blanc pourrait protéger contre l’arrêt cardiaque soudain.
Ce n’est pas une blague, c’est le résultat d’une étude sérieuse… du moins en apparence.
À lire aussi : Le « French paradox » démonté : non, une consommation modérée d’alcool n’a pas d’effet protecteur
L’étude, conduite par une équipe chinoise, repose sur l’analyse des données de la UK Biobank, une vaste base d’information médicale et comportementale rassemblée auprès de plus de 500 000 volontaires britanniques).
Les chercheurs ont sélectionné 125 « facteurs de risque modifiables » (comme la consommation d’alcool, le temps passé sur l’ordinateur ou les sentiments d’irritabilité) et ont évalué leur lien avec la survenue d’un arrêt cardiaque soudain, sur une période de près de quatorze ans.
Pourquoi 125 ? Pourquoi pas 300 ? Ou 28 859, qui correspond au nombre initial de variables ? On ne saura jamais. Ce choix arbitraire, filtré par des critères aussi opaques qu’un vin trop vieux, a permis de faire ressortir que les buveurs de champagne ou de vin blanc et les amateurs d’ordinateurs seraient mieux protégés des arrêts cardiaques.
Le tout repose sur une approche dite exposomique, qui vise à explorer sans a priori un grand nombre de facteurs environnementaux et comportementaux.
À lire aussi : « L’envers des mots » : Exposome
Pour aller plus loin, les auteurs ont utilisé une méthode sophistiquée – la randomisation mendélienne –, censée permettre d’inférer un lien de causalité entre certains comportements et les arrêts cardiaques.
Le résultat : 56 facteurs seraient associés au risque d’arrêt cardiaque, dont 9 considérés comme causaux. Parmi les facteurs mis en avant comme protecteurs : la consommation de champagne ou de vin blanc, la consommation de fruits secs, ou encore le temps passé sur un ordinateur.
Au passage, six autres facteurs sont présentés comme ayant un lien délétère : le sentiment de ras-le-bol, la quantité et le taux élevés de masse grasse mesurés au bras, l’indice de masse corporelle (IMC), la pression artérielle systolique et un niveau d’éducation inférieur.
La randomisation mendélienne est une méthode puissante, souvent présentée comme un « essai clinique naturel » fondé sur la génétique. L’idée est la suivante : certaines variantes génétiques influencent nos comportements ou traits biologiques (comme l’indice de masse corporelle) et, en les étudiant, on peut tenter d’estimer l’effet causal de ces comportements sur la santé, sans les biais habituels des études observationnelles.
À lire aussi : Voici comment les lois de la génétique nous aident à prévenir les maladies chroniques
Mais cette méthode repose sur trois hypothèses très fortes, qui doivent être absolument vérifiées pour pouvoir conclure :
Les gènes choisis doivent être fortement liés au comportement étudié (ex. : boire du champagne).
Ils ne doivent pas être associés à d’autres facteurs (pas de « confusion »). Or, il est peu probable que les buveurs de champagne aient exactement les mêmes conditions de vie que les autres.
Ils doivent influencer l’arrêt cardiaque seulement via la consommation de champagne, et non par d’autres biais sociétaux ou comportementaux (pléiotropie horizontale).
Chaque mardi, le plein d’infos santé : nutrition, bien-être, nouveaux traitements… Abonnez-vous gratuitement dès aujourd’hui.
Une étude récente réalisée par la Société française d’alcoologie a, par exemple, montré que la consommation d’alcool a un lien causal démontré par la randomisation mendélienne sur de nombreuses pathologies : les cancers de la cavité buccale, de l’oropharynx, de l’œsophage, le cancer colorectal, le carcinome hépatocellulaire et le mélanome cutané, ainsi que sur les maladies cardiovasculaires telles que l’hypertension, la fibrillation atriale (un trouble du rythme cardiaque qui accélère le cœur et le fait battre de manière irrégulière), l’infarctus du myocarde et les maladies vasculaires.
Dans l’étude publiée dans le Canadian Journal of Cardiology, plusieurs de ces hypothèses sont probablement faussées. Par exemple, les gènes supposés influencer la consommation de champagne ou de vin blanc pourraient tout aussi bien refléter un statut socio-économique élevé ou des préférences culturelles qui, eux-mêmes, sont liés au risque de maladies cardiovasculaires. C’est ce qu’on appelle la pléiotropie, un biais bien connu en génétique, (également évoqué plus haut dans l’article, ndlr).
L’étude repose en grande partie sur des données autodéclarées (consommation d’alcool, sentiments de ras-le-bol, usage de l’ordinateur), ce qui apporte un niveau de subjectivité supplémentaire. À cela s’ajoute une absence totale de prise en compte des changements dans le temps : boire du champagne à 55 ans n’implique pas qu’on en boira encore à 68, l’âge moyen des arrêts cardiaques dans cette cohorte.
Les résultats montrent un effet protecteur du champagne et de l’ordinateur. Sauf que… surprise ! Les méthodes de sensibilité, qui permettent de juger de la robustesse des résultats (randomisation mendélienne et médiane pondérée), ne trouvent souvent aucune significativité, voire un effet inversé.
La robustesse des résultats étant remise en cause, la prudence doit être de mise. Car les conclusions ne tiennent plus debout quand on change un peu les calculs et les hypothèses de départ. Cela révèle ainsi que ces résultats peuvent être influencés par des biais ou par des incertitudes cachées.
Le plus spectaculaire dans l’étude, ce n’est pas tant le champagne que les chiffres avancés : selon les auteurs, jusqu’à 63 % des arrêts cardiaques pourraient être évités si les facteurs de risque étaient corrigés. Ce chiffre impressionnant repose sur un calcul appelé « fraction de risque attribuable », qui suppose que l’on peut modifier les comportements sans que cela ne change rien d’autre dans la vie des personnes. Une hypothèse très contestable : améliorer son alimentation modifie aussi souvent le poids, le sommeil ou l’humeur.
Plus grave encore : seuls 9 des 56 facteurs identifiés seraient réellement causaux, selon les auteurs eux-mêmes. En d’autres termes, un lien de cause à effet ne serait avéré que pour 9 facteurs sur 56. Il est donc méthodologiquement incohérent de calculer une fraction de risque globale sur la base de données aussi incertaines.
Le problème ici n’est pas l’utilisation des données massives ni des outils statistiques modernes. C’est la surinterprétation des résultats, l’usage approximatif des méthodes et la communication d’un message qui frôle le sensationnalisme scientifique.
En faisant croire qu’un verre de champagne ou quelques heures d’écran pourraient sauver des vies, on détourne l’attention des véritables leviers de prévention : l’arrêt du tabac, la réduction de l’hypertension, la lutte contre les inégalités sociales et l’accès aux soins.
Le risque est de promouvoir une vision naïve de la prévention centrée sur des comportements individuels anodins, au détriment des politiques de santé publique ambitieuses.
Il est essentiel de rester critique face aux résultats trop beaux pour être vrais, surtout lorsqu’ils concernent des sujets graves comme l’arrêt cardiaque. La recherche épidémiologique a tout à gagner à la transparence méthodologique, à la prudence dans les interprétations, et à l’humilité dans la communication des résultats.
À lire aussi : Comprendre l’épidémiologie
Le champagne et le vin blanc ne sont pas des médicaments. Et une étude, même statistiquement sophistiquée, ne vaut que par la solidité de ses hypothèses.
Si vous voulez vraiment réduire votre risque cardiovasculaire, préférez une marche quotidienne à un verre de bulles, même si c’est moins festif.
Mickael Naassila est Président de la Société Française d'Alcoologie (SFA) et de la Société Européenne de Recherche Biomédicale sur l'Alcoolisme (ESBRA); Vice-président de la Fédération Française d'Addictologie (FFA) et vice-président junior de la Société Internationale de recherche Biomédicale sur l''Alcoolisme (ISBRA). Il est membre de l'institut de Psychiatrie, co-responsable du GDR de Psychiatrie-Addictions et responsable du Réseau National de Recherche en Alcoologie REUNRA et due projet AlcoolConsoScience
03.06.2025 à 11:14
Simone Burin-Chu, Enseignante-chercheuse contractuelle, Université d'Artois
Farole Bossede, Enseignante chercheure contractuelle, Université d'Artois
Appli, jeux vidéo actifs, montres intelligentes, plateformes… les outils numériques consacrés à l’activité physique ont-ils fait leurs preuves pour nous motiver à bouger davantage ? Et conviennent-ils à tous les publics, depuis les enfants jusqu’aux personnes âgées ? On fait le point.
L’activité physique est largement reconnue comme bénéfique pour la santé. À l’inverse, l’inactivité physique représente un facteur de risque majeur pour le développement de maladies non transmissibles. Face à ce constat, l’Organisation mondiale de la santé (OMS) a établi des recommandations.
Les adultes devraient pratiquer entre 150 et 300 minutes d’exercice aérobie d’intensité modérée (comme la marche rapide), ou entre 75 et 150 minutes d’activité soutenue par semaine. Pour les personnes âgées, ces recommandations incluent également des exercices d’équilibre tandis que, pour les enfants, 60 minutes d’activité physique quotidienne sont préconisées. Pourtant, une grande partie de la population ne parvient pas à atteindre ces niveaux de pratique.
À lire aussi : Activité physique et santé : aménager nos espaces de vie pour contrer notre tendance au moindre effort
Les outils numériques semblent constituer un levier prometteur pour l’adoption d’un mode de vie plus actif. Mais quels sont ces outils, et dans quelle mesure permettent-ils d’encourager la pratique d’une activité physique ?
Peuvent-ils constituer un moyen efficace d’engagement et de motivation, ou se heurtent-ils à des limites en termes d’accessibilité, d’usabilité ou de durabilité de leurs effets ?
L’engagement reflète l’implication d’un individu dans un domaine, tandis que la motivation est l’énergie qui le pousse à agir, qu’elle soit intrinsèque (plaisir personnel, bien-être) ou extrinsèque (influencée par des récompenses).
Dans le domaine des activités physiques et sportives, des études montrent que la motivation impacte les émotions, la vitalité et les performances des pratiquants. Celle-ci constitue un facteur clé de réussite, en lien avec la théorie de l’autodétermination, qui repose sur trois besoins psychologiques fondamentaux : l’autonomie, le lien social et le sentiment de compétence.
Engagement et motivation sont donc essentiels pour maintenir une pratique régulière et dépendent d’un ensemble de facteurs psychologiques, sociaux et environnementaux. À long terme, un mode de vie actif repose sur l’adoption de stratégies adaptées qui tiennent compte de ces différents déterminants.
Les outils numériques ont profondément transformé notre quotidien. Appliqués à l’activité physique, ils présentent plusieurs avantages, tels que la mesure et l’enregistrement des performances, le suivi des progrès, le partage des données avec d’autres pratiquants ou encore la gamification, c’est-à-dire l’intégration d’éléments de jeu à des contextes non ludiques, ce qui rend la pratique plus attractive.
Les objets connectés, notamment les montres intelligentes, développées par des marques comme Fitbit, Apple ou Garmin, sont de plus en plus populaires parmi les pratiquants.
Chaque mardi, le plein d’infos santé : nutrition, bien-être, nouveaux traitements… Abonnez-vous gratuitement dès aujourd’hui.
Ces dispositifs permettent de mesurer le nombre de pas, la fréquence cardiaque ou les calories brûlées, tout en encourageant l’atteinte d’objectifs quotidiens. Ils offrent également une vision claire de l’évolution des performances et renforce la motivation à poursuivre l’effort.
Avec plusieurs millions de téléchargements à travers le monde, les applications mobiles consacrées à l’activité physique sont devenues des outils incontournables pour encourager une pratique régulière.
Des plateformes telles que Strava, Fitbit, Nike Training Club ou MyFitness, proposent des programmes personnalisés adaptés aux objectifs des utilisateurs, qu’il s’agisse de perte de poids, de gain musculaire ou d’amélioration de l’endurance.
Certaines de ces applications incluent des fonctionnalités de suivi des progrès, des défis entre pratiquants et des rappels pour maintenir la régularité de la pratique. Ce type de gamification transforme l’effort physique en un défi motivant, tout en générant un sentiment d’accomplissement.
Les jeux vidéo actifs, ou exergames, s’avèrent particulièrement pertinents pour les enfants et les adolescents, en combinant exercice physique et jeu vidéo. Qu’il s’agisse d’exercices aérobiques, de renforcement ou d’équilibre, les consoles, comme la Nintendo Wii ou Switch, mais aussi la Xbox et la PlayStation, encouragent le mouvement de façon ludique.
Ces technologies sollicitent également certaines fonctions cognitives (attention, contrôle exécutif), ce qui peut présenter un intérêt chez les personnes âgées.
À lire aussi : Pour booster son cerveau, quelles activités physiques privilégier après 60 ans ?
Quant à la pratique de l’activité physique par le biais de visioconférences, elle a connu son essor durant la crise sanitaire, et est restée largement utilisée après la fin du confinement.
Ce mode d’entraînement à distance, accessible via des plateformes, comme Zoom, Teams ou Google Meet, permet de lever certains freins à la pratique, notamment chez les individus vivant dans zones géographiques éloignées ou confrontées à des limitations physiques, liées à l’âge ou à une pathologie, qui restreignent leurs déplacements.
Si ces outils ouvrent de nouvelles perspectives, notamment pour les groupes vulnérables, ils peuvent aussi présenter des limites, comme le renforcement de l’isolement, en remplaçant les activités de groupe par des pratiques individuelles.
Les enjeux financiers représentent également une barrière. Les outils plus performants étant souvent coûteux, ils risquent d’accentuer les inégalités d’accès. L’ergonomie peut aussi poser des freins, notamment pour les personnes âgées ou en situation de handicap, si les interfaces ne sont pas suffisamment adaptées.
Une complexité excessive peut en fait décourager les débutants et limiter l’adoption de ces outils par certaines populations. Et il reste à déterminer si les comportements peuvent vraiment être impactés par leur utilisation.
Le changement de comportement en matière d’activité physique désigne un processus graduel par lequel une personne modifie ses habitudes pour adopter une pratique régulière. Selon le modèle dit transthéorique du changement (développé par Prochaska et Di Clemente), outre la motivation et l’engagement, le soutien social et l’accessibilité représentent également des facteurs clés.
Une étude a montré que les applications pour l’activité physique intègrent des techniques de changement de comportement, telles que des instructions pour la réalisation des exercices, la fixation d’objectifs, la planification du soutien ou du changement social, ainsi que le feedback sur les performances. Ces outils semblent avoir des effets plus intéressants chez les néo-pratiquants, en augmentant leur motivation à débuter la pratique.
Concernant les preuves scientifiques relatives aux effets de ces technologies, une méta-analyse a révélé des augmentations significatives du niveau d’activité physique chez les participants soumis à des interventions basées sur des applications pour smartphones, par rapport aux groupes contrôles bénéficiant des séances classiques.
Ces résultats encourageants ont également été observés dans un essai contrôlé randomisé, où les applications mobiles ont considérablement augmenté le nombre moyen de pas quotidiens. En revanche, ces effets n’ont été étudiés que sur le court terme. Cette limite fréquemment relevée dans la littérature scientifique empêche d’évaluer pleinement leur potentiel à générer des changements de comportement durables. Par ailleurs, certaines recherches s’appuient sur des échantillons de petite taille, ce qui restreint la généralisation des résultats.
Si ces technologies suscitent un intérêt croissant – en grande partie grâce à leurs fonctionnalités et leur dimension ludique –, elles présentent à la fois des avantages et des limites, sur le plan pratique comme sur le plan scientifique.
Néanmoins, dans un contexte où l’inactivité physique atteint des niveaux préoccupants, toute solution susceptible de favoriser l’activité physique mérite une attention particulière.
À ce stade des connaissances, il apparaît pertinent de considérer ces outils numériques comme des moyens complémentaires pouvant contribuer à l’adoption d’un mode de vie plus actif.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
03.06.2025 à 08:20
Service Environnement, The Conversation France
La réglementation française a évolué concernant la réutilisation des eaux de pluie et des eaux grises à des fins d’usage non potable, domestique et non domestique. L’enjeu de ces textes, nous expliquent Julie Mendret (université de Montpellier) et Thomas Harmand (Aix-Marseille Université) : valoriser ces eaux « non conventionnelles » pour économiser et limiter la pression sur les ressources en eau.
L’eau de pluie est précieuse, tant au plan écologique qu’économique : jardins, chasses d’eau, lavage des voitures… Jusqu’à peu, leur réutilisation était strictement encadrée par un arrêté de 2008, qui n’autorisait leur usage que dans plusieurs cas très précis (évacuation des excrétas, lavage des sols ou encore arrosage des espaces verts à certaines conditions).
Ce cadre juridique a évolué en 2023 et 2024 : les usages non domestiques de l’eau de pluie sont désormais autorisés, et un nouveau cadre réglementaire s’applique à ses usages domestiques. Par exemple, il est maintenant permis de laver son linge, d’arroser des jardins potagers ou de laver son véhicule à son domicile. Il faut toutefois en passer par une déclaration en mairie – et pour une déclaration supplémentaire au préfet pour le lavage du linge ou l’alimentation des fontaines décoratives non destinées à la consommation humaine. Dans ce cas, les eaux de pluie utilisées doivent aussi atteindre des objectifs de qualité précis.
Autre nouveauté législative : il est désormais possible d’utiliser ces eaux dans les établissements de santé, thermaux ou encore scolaires, dans les mêmes conditions de déclaration que précédemment.
Au-delà des eaux de pluie, les nouveaux textes de loi autorisent aussi la réutilisation des eaux grises (qui proviennent des éviers, lavabos, douches, baignoires et machines à laver et ne contiennent pas de matières fécales, ou encore qui proviennent des piscines à usage collectif). Les conditions sont toutefois plus strictes que pour les eaux de pluie : la procédure minimale est ici une déclaration préfectorale.
Les usages sont théoriquement plus limités : au niveau domestique, il s’agit de l’alimentation des fontaines décoratives non destinées à la consommation humaine, de l’évacuation des excrétas, du nettoyage des surfaces extérieures, ainsi que de l’arrosage des espaces verts à l’échelle du bâtiment. Le lavage du linge, le nettoyage des sols en intérieur et l’arrosage des jardins potagers font toutefois l’objet d’une procédure dérogatoire, et peuvent être autorisés à titre expérimental. L’évaluation de ces expérimentations aura lieu en 2035, et leur généralisation éventuelle sera décidée en conséquence.
Pour les établissements recevant du public sensible, la procédure est encore plus stricte pour la réutilisation des eaux grises ou de piscines, où il faut obtenir une autorisation.
Les contraintes de surveillance diffèrent également. Pour les usages soumis à des exigences de qualité, un suivi sanitaire est requis. Il est à effectuer jusqu’à six fois par an. On le devine, il sera plus difficile de mettre en œuvre ce type de valorisation dans ces établissements.
Ces textes représentent malgré tout une avancée : les sources d’eaux non conventionnelles sont désormais identifiées par la réglementation, et peuvent être intégrées à la gestion de l’eau.
Cet article a été édité par le service Environnement de The Conversation à partir de la version longue écrite par Julie Mendret (Maître de conférences, HDR, Université de Montpellier) et Thomas Harmand (Doctorant en droit de l'eau, Aix-Marseille Université).
02.06.2025 à 17:03
Adam Simpson, Senior Lecturer, International Studies, University of South Australia
Le nouveau président, un historien ouvertement nationaliste largement aligné sur Donald Trump, refuse l’entrée de l’Ukraine dans l’UE et l’OTAN, critique Bruxelles sur de nombreux dossiers et est opposé au droit à l’avortement.
C’est peu dire que le résultat du second tour de l’élection présidentielle polonaise a contrarié, en Pologne et partout ailleurs sur le Vieux continent, les tenants du camp pro-européen.
Historien de formation, Karol Nawrocki, connu pour son nationalisme intransigeant et pour son alignement sur Donald Trump, a battu de justesse le maire libéral et pro-UE de Varsovie, Rafal Trzaskowski, avec 50,89 % des suffrages contre 49,11 %.
Le président polonais a peu de pouvoirs exécutifs, mais il peut opposer son veto à l’adoption de nouvelles lois. Cela signifie que les conséquences de la victoire de Nawrocki seront ressenties avec acuité, tant en Pologne que dans le reste de l’Europe.
Nawrocki, qui s’est fait élire en tant qu’indépendant mais qui sera soutenu par le parti conservateur Droit et Justice (PiS), fera sans aucun doute tout son possible pour empêcher le premier ministre libéral Donald Tusk et la coalition formée autour du parti de celui-ci, la Plate-forme civique, de mettre son programme en œuvre.
Le blocage législatif promis à la Pologne pour les prochaines années pourrait bien voir Droit et Justice revenir au gouvernement lors des élections législatives de 2027, et remettre le pays sur la voie anti-démocratiques que le parti avait empruntée lors de son dernier passage au pouvoir, de 2015 à 2023. Durant ces huit années, le PiS avait notamment affaibli l’indépendance du pouvoir judiciaire polonais en prenant le contrôle des nominations aux plus hautes fonctions judiciaires et à la Cour suprême.
Au-delà de la Pologne elle-même, la victoire de Nawrocki a donné un coup de fouet aux forces pro-Donald Trump, antilibérales et anti-UE à travers le continent. C’est une mauvaise nouvelle pour l’UE et pour l’Ukraine.
Pendant la majeure partie de la période qui a suivi la Seconde Guerre mondiale, la Pologne n’a eu qu’une influence limitée au niveau européen. Ce n’est plus le cas aujourd’hui. L’économie polonaise est en plein essor depuis l’adhésion à l’UE en 2004. Elle consacre près de 5 % de son produit intérieur brut à la défense, soit près du double de ce qu’elle dépensait en 2022, au moment de l’invasion massive de l’Ukraine par la Russie.
La Pologne possède aujourd’hui une plus grande armée que le Royaume-Uni, que la France ou encore que l’Allemagne. Et son PIB par habitant en parité de pouvoir d’achat vient de dépasser celui du Japon.
Ajoutée au Brexit, cette progression a entraîné un déplacement du centre de gravité de l’UE vers l’est, en direction de la Pologne. Puissance militaire et économique montante de 37 millions d’habitants, la Pologne contribuera à façonner l’avenir de l’Europe.
L’influence dont la Pologne bénéficie aujourd’hui en Europe est illustrée de façon éclatante par le rôle central qui est le sien dans l’appui de l’UE à l’Ukraine contre la Russie. On l’a encore constaté lors du récent sommet de la « Coalition des volontaires » à Kiev, où Donald Tusk, aux côtés des dirigeants des principales puissances européennes – la France, l’Allemagne et le Royaume-Uni —, s’est engagé à rehausser le niveau de soutien de l’Union à l’Ukraine et à son président Volodymyr Zelensky.
Ce soutien inconditionnel de la Pologne à l’Ukraine est désormais menacé, car Nawrocki a eu des propos très durs à l’encontre des réfugiés ukrainiens arrivés dans son pays et s’oppose à l’intégration de l’Ukraine à l’UE et à l’OTAN.
Pendant sa campagne, Nawrocki a reçu le soutien de l’administration Trump. Lors de la récente Conservative Political Action Conference, tenue en Pologne, Kristi Noem, la secrétaire à la sécurité intérieure des États-Unis, a déclaré :
« Nous avons chez nous un leader fort, Donald Trump. Mais vous avez la possibilité d’avoir un leader tout aussi fort si vous faites de Karol le leader de votre pays. »
Trump a d’ailleurs accueilli Nawrocki dans le Bureau ovale alors que celui-ci n’était qu’un simple candidat à la présidence. Il s’agit là d’un écart important par rapport au protocole diplomatique standard des États-Unis, qui consiste à ne pas se mêler des élections à l’étranger.
Nawrocki n’est pas aussi favorable à la Russie que la plupart des autres dirigeants internationaux estampillés « MAGA », mais cela est dû en grande partie à la géographie de la Pologne et à l’histoire de ses relations avec la Russie. La Pologne a été envahie à plusieurs reprises par les troupes russes ou soviétiques dans ses plaines orientales. Elle a des frontières communes avec l’Ukraine ainsi qu’avec le Bélarus, État client de la Russie, et avec la Russie elle-même à travers l’enclave fortement militarisée de Kaliningrad, située sur la mer Baltique.
J’ai fait l’expérience de l’impact que peut avoir sur la Pologne la proximité de ces frontières lors d’un terrain en 2023, quand j’ai effectué un voyage en voiture de Varsovie à Vilnius, la capitale lituanienne, en passant par le corridor de Suwalki.
Cette frontière stratégiquement importante entre la Pologne et la Lituanie, longue de 100 kilomètres, relie les États baltes au reste de l’OTAN et de l’UE au sud. Elle est considérée comme un point d’ignition potentiel si la Russie venait à occuper ce corridor afin d’isoler les États baltes.
À lire aussi : Kaliningrad au cœur de la confrontation Russie-OTAN
Du fait de ce contexte géopolitique, les conservateurs nationalistes polonais sont nettement moins pro-russes que ceux de Hongrie ou de Slovaquie. Nawrocki, par exemple, n’est pas favorable à l’arrêt de l’approvisionnement en armes de l’Ukraine.
Il n’en demeure pas moins que son accession à la présidence Nawrocki ne constitue pas une bonne nouvelle pour Kiev. Pendant la campagne, Nawrocki a déclaré que Zelensky « traite mal la Pologne », reprenant ainsi le type de formules que Trump lui-même aime à employer.
L’importance de l’élection s’est traduite par un taux de participation record de près de 73 %.
L’alternative qui se présentait aux électeurs polonais entre Nawrocki et Trzaskowski était extrêmement tranchée.
Trzaskowski souhaitait une libéralisation des lois polonaises sur l’avortement – l’IVG avait de facto été interdite en Pologne sous le gouvernement du PiS – et l’introduction de partenariats civils pour les couples LGBTQ+. Nawrocki s’oppose à de telles mesures et à ces changements et mettra très probablement son veto à toute tentative de loi allant dans ce sens.
Un sondage Ipsos effectué à la sortie des urnes a mis en évidence les divisions sociales qui traversent aujourd’hui le pays.
Comme lors d’autres élections récentes dans le monde, les femmes et les personnes ayant un niveau d’éducation élevé ont majoritairement voté pour le candidat progressiste (Trzaskowski), tandis que la plupart des hommes et des personnes ayant un niveau d’éducation moins élevé ont voté pour le candidat conservateur (Nawrocki).
Après le succès surprise du candidat à la présidence libéral et pro-UE aux élections roumaines il y a quinze jours, les forces pro-UE espéraient un résultat similaire en Pologne. Ces espoirs ont été déçus : les libéraux du continent devront désormais s’engager dans une relation difficile avec ce dirigeant trumpiste de droite qui jouera un rôle majeur au sein d’un pays devenu, à bien des égards, le nouveau cœur battant de l’Europe.
Adam Simpson ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
02.06.2025 à 16:02
Ralph Hertwig, Director, Center for Adaptive Rationality, Max Planck Institute for Human Development
Stephan Lewandowsky, Chair of Cognitive Psychology, University of Bristol
La psychologie sociale explique pourquoi le risque d’effondrement démocratique n’est pas suffisamment pris au sérieux par les populations qui vivent en démocratie depuis longtemps. Quels outils mobiliser pour amener à une prise de conscience ?
La chute du mur de Berlin en 1989 a ouvert la voie à la démocratisation de nombreux pays d’Europe de l’Est et a triomphalement inauguré l’ère de la démocratie libérale mondiale que certains universitaires ont célébrée comme « la fin de l’histoire ». L’idée était que l’histoire politique de l’humanité aurait suivi une progression inéluctable, culminant avec la démocratie libérale occidentale, perçue comme le point final d’une forme sécurisée de gouvernement. Malheureusement, les événements se sont déroulés quelque peu différemment.
Les 20 dernières années n’ont pas suivi la trajectoire du progrès énoncé, encore moins marqué « la fin de l’histoire ». Le succès électoral croissant des partis d’extrême droite dans de nombreux pays occidentaux, de la France à la Finlande, des Pays-Bas à l’Allemagne, a transformé « la fin de l’histoire » en un possible écroulement de la démocratie.
Qu’est-ce qui pousse autant d’Européens à se détourner d’un système politique qui a permis de reconstruire le continent après la Seconde Guerre mondiale et de le transformer en marché unique le plus prospère au monde ?
Les raisons sont multiples : crises économiques, inégalités croissantes, impact négatif des médias sociaux sur le comportement politique, violations des normes démocratiques par les élites. Mais il existe un autre facteur qui est rarement discuté : le pouvoir de l’expérience personnelle.
Au cours des deux dernières décennies, les spécialistes du comportement ont largement exploré la manière dont nos actions sont guidées par nos expériences. La douleur, le plaisir, les récompenses, les pertes, les informations et les connaissances acquises au cours d’événements vécus nous aident à évaluer nos actions passées et à guider nos choix futurs.
Une expérience positive associée à une option donnée augmente la probabilité que celle-ci soit à nouveau choisie ; une expérience négative a l’effet inverse. Cartographier les expériences des individus – en particulier face aux risques de la vie – peut nous éclairer sur des comportements déroutants, comme le fait de construire des habitations sur des zones inondables, en région sismique ou au pied d’un volcan actif.
La dernière éruption violente du Vésuve, la « bombe à retardement » de l’Europe, date d’il y a 81 ans. Le Vésuve est considéré comme l’un des volcans les plus dangereux au monde. Pourtant, quelque 700 000 habitants vivent dans la « zone rouge » à ses pieds, semblant ignorer les avertissements alarmants des volcanologues.
Pour comprendre cette relative indifférence face à un possible Armageddon, il faut analyser l’expérience individuelle et collective face à ce risque. La plupart des habitants de la zone rouge n’ont jamais vécu personnellement l’éruption du Vésuve. Leur expérience quotidienne leur donne probablement le sentiment rassurant que « tout va bien ».
De nombreuses études psychologiques ont confirmé comment ce type de comportement peut émerger. Notre expérience tend à sous-estimer la probabilité et l’impact des événements rares pour la simple raison qu’ils sont rares.
Les crises exceptionnelles, mais dont la portée est désastreuse, en particulier sur le marché financier, ont été appelés « cygnes noirs ». Les négliger a contribué à une réglementation bancaire insuffisante et à des effondrements majeurs comme la crise financière mondiale de 2008.
Les populations d’Europe occidentale vivent dans des démocraties prospères depuis plus de 70 ans. Elles ont été épargnées, jusqu’à présent, par les prises de pouvoir autoritaires, et par ce fait, sous-estiment le risque d’un effondrement démocratique.
Paradoxalement, le succès même des systèmes démocratiques peut semer les graines de leur propre destruction. C’est un phénomène comparable au paradoxe de la prévention des maladies : lorsque les mesures préventives, comme les vaccins infantiles, sont efficaces, la perception de leur nécessité diminue, entraînant une méfiance quant à la vaccination.
Une autre connexion inquiétante existe entre l’érosion d’un système démocratique et les expériences vécues par ses citoyens. L’histoire a montré que les démocraties ne s’effondrent pas brutalement, mais périssent lentement, coup par coup, jusqu’à atteindre un point de basculement.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Le public ne perçoit généralement pas un risque pour la démocratie lorsqu’un dirigeant politique rompt avec une convention. Mais lorsque les violations répétées des normes démocratiques par les élites sont tolérées, que les transgressions rhétoriques s’intensifient, et qu’un flot de mensonges et de manipulations devient « normal », le fait que le public ne sanctionne pas ces signes précoces dans les urnes, peut avoir des conséquences dramatiques.
Tout comme une centrale nucléaire peut sembler fonctionner en toute sécurité jusqu’à ce que la dernière soupape de sécurité lâche, une démocratie peut sembler stable jusqu’à basculer dans l’autocratie.
Un moyen de contrer ces problèmes peut être de simuler l’expérience des risques, même si ce n’est que par procuration. Par exemple, les centres de formation aux catastrophes au Japon miment l’expérience d’un tremblement de terre d’une manière bien plus réaliste que toute alerte sous forme de graphiques.
Nous soutenons qu’il est aussi possible de simuler ce que l’on ressent sous un régime autoritaire. L’Europe accueille des centaines de milliers d’immigrés qui ont subi le joug des autocraties et qui peuvent être invités dans les salles de classe pour partager leur vécu. Les expériences détaillées vécues par procuration sont susceptibles de s’avérer très persuasives.
De même, est-il possible pour tout à chacun de mieux comprendre ce que signifiait être un prisonnier politique en visitant des lieux tels que l’ancienne prison de la Stasi, Hohenschönhausen à Berlin, en particulier lorsque le guide est un ancien détenu. Il existe de nombreuses autres façons de reproduire les traits caractéristiques de l’oppression et de l’autoritarisme, permettant ainsi d’informer ceux qui ont eu la chance de ne jamais les avoir endurés.
L’absence persistante d’événements à risque peut être séduisante et trompeuse. Mais nous ne sommes pas condamnés par ce que nous n’avons pas encore vécu. Nous pouvons également utiliser le pouvoir positif de ces expériences afin de protéger et d’apprécier nos systèmes démocratiques.
Ralph Hertwig remercie la Fondation Volkswagen pour son soutien financier (subvention "Récupérer l'autonomie individuelle et le discours démocratique en ligne : Comment rééquilibrer la prise de décision humaine et algorithmique") et de la Commission européenne (subvention Horizon 2020 101094752 SoMe4Dem).
Stephan Lewandowsky remercie le Conseil européen de la recherche (ERC) pour son soutien financier dans le cadre du programme de recherche et d'innovation Horizon 2020 de l'Union européenne (convention de subvention avancée n° 101020961 PRODEMINFO), la Fondation Humboldt pour une bourse de recherche, la Fondation Volkswagen (subvention ``Reclaiming individual autonomy and democratic discourse online : Comment rééquilibrer la prise de décision humaine et algorithmique"), et la Commission européenne (subventions Horizon 2020 964728 JITSUVAX et 101094752 SoMe4Dem). Il est également financé par Jigsaw (un incubateur technologique créé par Google) et par UK Research and Innovation (par l'intermédiaire du centre d'excellence REPHRAIN et de la subvention de remplacement Horizon de l'UE numéro 10049415).
02.06.2025 à 16:02
Carla Bader, Assistant Professor en Management et Stratégie, IÉSEG School of Management
Maximiliano Marzetti, Associate Professor of Law, IESEG School of Management, Univ. Lille, CNRS, UMR 9221 - LEM - Lille Économie Management, IÉSEG School of Management
Avec la réforme « Omnibus », l’Union européenne opère un retour en arrière sur le dispositif du devoir de vigilance. Pour quelles leçons de sa mise en application dans certaines entreprises françaises pionnières ? L’abrogation de la loi française 2017-339, votée à la suite du drame du Rana Plaza en 2013, obligeant les entreprises à prendre en compte les risques sociaux et environnementaux sur l’ensemble de leurs filiales, sera-t-elle envisagée ?
Le 26 février dernier, la Commission européenne présente un paquet de mesures de simplification baptisé « Omnibus ». Elles ont pour effet de reporter, voire supprimer l’application des obligations de vigilance et de reporting pour les entreprises, tout en modifiant leur champ d’application. Cette procédure Omnibus est critiquée pour son calendrier précipité, son manque de débat, l’exclusion des acteurs de la société civile… et un retour en arrière dans la création de normes sociales et environnementales.
Les lois sur le devoir de vigilance sont votées en réaction au scandale du Rana Plaza. En 2013, cet immeuble au Bangladesh abritant des ateliers de textile, sous-traitants de grandes marques comme H&M, s’effondre et entraîne la mort de plus de 1 000 salariés. La France réagit en 2017 avec une loi pionnière. La directive européenne du 13 juin 2024 étend ce concept à l’ensemble de ses États membres. Elle impose aux entreprises – d’au moins 5 000 salariés en France et de plus de 10 000 salariés dans l’Hexagone ayant leur siège social ailleurs dans le monde – de repenser leur approche des risques sociaux, environnementaux et de gouvernance.
Ce dispositif s’étend aux activités de leurs filiales et de leurs partenaires commerciaux. Une façon de responsabiliser les entreprises à tracer tous leurs sous-traitants. Pour mieux comprendre comment les entreprises françaises vivent ces évolutions, nous avons interrogé des managers de terrain dans des secteurs d’activité divers : responsables de conformité, dirigeants en responsabilité sociale et environnementale (RSE) et de contrôle qualité.
Pour les entreprises interrogées, se conformer à la loi implique des ressources importantes et des capacités organisationnelles solides. Elles attestent de la nécessité à former leurs équipes et développer des systèmes de contrôle performants. C’est pourquoi les départements de conformité jouent un rôle clé, avec divers départements tels le développement durable, les directions d’achats et les équipes de qualité.
Face à une incertitude juridique s’ajoute la complexité des chaînes d’approvisionnement mondiales ; de facto, une grande difficulté dans l’établissement des cartographies de risques. La traçabilité et la transparence deviennent difficiles à assurer, notamment au-delà du premier niveau de sous-traitance où l’identification des partenaires est beaucoup moins aisée. Un dirigeant en RSE dans une entreprise de production et distribution d’articles de sport, questionne la complexité pour connaître les impacts de ses partenaires, fournisseurs ou sous-traitants :
« Si nous sommes capables d’identifier les impacts de notre activité, il n’est pas aussi évident de le faire pour les impacts sectoriels de nos partenaires. Quelle est notre connaissance des impacts du secteur de transport, du e-commerce, des services de prestations informatiques ? »
Si certains fournisseurs sont réticents à partager les informations de leurs partenaires, l’application du devoir de vigilance est caduque pour certaines parties de la chaîne de valeur. Les entreprises n’ont pas d’autres choix que de renégocier leurs contrats avec des clauses spécifiques en matière d’éthique et de conformité ; des négociations souvent longues et potentiellement conflictuelles. Les audits environnementaux, en particulier, sont difficiles à mener en raison de réglementations différentes dans les pays comme le traitement de l’eau et la gestion des déchets par exemple :
« On peut demander des matières recyclées/recyclables à nos fournisseurs, mais comment gèrent-ils leurs déchets si au local ils ne sont pas assujettis à des exigences particulières de traitement des eaux ? », se demande un responsable conformité du secteur de la grande distribution
Pour les groupes opérant dans des secteurs d’activités très différents – tels Elo, Aedo, Engie, LVMH et d’autres –, la demande d’une cartographie unique, censée regrouper tous les risques identifiés, est souvent perçue comme ambiguë, voire inadaptée. Il leur est difficile de produire un document unique à la fois pertinent, opérationnel et fidèle à la diversité de leurs métiers et de leurs chaînes de valeur. Les managers rencontrés soulignent le caractère itératif et évolutif de ce processus, ainsi que l’importance d’ajuster en permanence les pratiques en fonction de la réévaluation continue des risques.
Abonnez-vous dès aujourd’hui !
Chaque lundi, des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH, marketing, finance…).
Le retour d’expérience des professionnels interviewés confirme un bilan positif. Les activités de conformité s’alignant sur des objectifs organisationnels plus larges, notamment les initiatives de RSE, créent souvent un chevauchement significatif entre les rapports extrafinanciers et les obligations du devoir de vigilance. Résultat ? Un effet de levier. Les entreprises s’appuient sur des outils de suivi des risques environnementaux et sociaux ainsi que sur des données extra-financières pour établir leur plan de vigilance et harmoniser leur reporting de durabilité.
Certaines entreprises, comme Air Liquide et Orange, se distinguent même par des plans de vigilance exemplaires, récompensés par le prix du Meilleur Plan de vigilance des entreprises du CAC40. Air Liquide a été saluée pour son approche globale et la transparence de la cartographie des risques, l’évaluation régulière de ses sous-traitants, ses actions de prévention ciblées et son mécanisme d’alerte développé en collaboration avec les syndicats. Orange, de son côté, a intégré la vigilance dans les formations de ses employés. Cette valorisation illustre l’importance de stratégies de vigilance solides, fondées sur la transparence, la gouvernance et le dialogue.
Le rôle des ONG dans la mise en œuvre du devoir de vigilance est à la fois essentiel et source de tensions. En France, de nombreux managers reconnaissent que, si les organisations non gouvernementales jouent un rôle clé en matière de défense des droits humains et de l’environnement, leur approche est parfois perçue comme trop dogmatique. Certaines ONG se positionnent en gardiennes absolues des normes éthiques, ce qui freine la possibilité d’un travail réellement collaboratif avec les entreprises.
Sur le dialogue avec les ONG, un responsable RSE dans le secteur du BTP déclare : « Très peu d’ONG collaborent avec nous, et c’est vraiment dommage. Les ONG nous reprochent de faire du profit, mais elles oublient souvent que c’est justement grâce à ce profit qu’on peut investir dans des solutions durables ou dans des outils techniques pour mesurer notre impact environnemental. Il y a quand même quelque chose de vertueux dans le profit – ce n’est pas le diable. »
Les attentes sont souvent mal alignées : les ONG méconnaissent parfois les contraintes opérationnelles, juridiques et économiques auxquelles sont confrontées les entreprises, rendant les échanges difficiles et parfois peu productifs. Une coopération plus ouverte entre entreprises et ONG serait pourtant cruciale.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
02.06.2025 à 16:01
Guillaume Desagulier, Professeur de linguistique anglaise, Université Bordeaux Montaigne
Les agents conversationnels tels que ChatGPT facilitent parfois notre quotidien en prenant en charge des tâches rébarbatives. Mais ces robots intelligents ont un coût. Leur bilan carbone et hydrique désastreux est désormais bien connu. Un autre aspect très préoccupant l’est moins : l’intelligence artificielle pollue les écrits et perturbe l’écosystème langagier, au risque de compliquer l’étude du langage.
Une étude publiée en 2023 révèle que l’utilisation de l’intelligence artificielle (IA) dans les publications scientifiques a augmenté significativement depuis le lancement de ChatGPT (version 3.5). Ce phénomène dépasse le cadre académique et imprègne une part substantielle des contenus numériques, notamment l’encyclopédie participative Wikipedia ou la plate-forme éditoriale états-unienne Medium.
Le problème réside d’abord dans le fait que ces textes sont parfois inexacts, car l’IA a tendance à inventer des réponses lorsqu’elles ne figurent pas dans sa base d’entraînement. Il réside aussi dans leur style impersonnel et uniformisé.
La contamination textuelle par l’IA menace les espaces numériques où la production de contenu est massive et peu régulée (réseaux sociaux, forums en ligne, plates-formes de commerce…). Les avis clients, les articles de blog, les travaux d’étudiants, les cours d’enseignants sont également des terrains privilégiés où l’IA peut discrètement infiltrer des contenus générés et finalement publiés.
La tendance est telle qu’on est en droit de parler de pollution textuelle. Les linguistes ont de bonnes raisons de s’en inquiéter. Dans un futur proche, la proportion de données en langues naturelles sur le Web pourrait diminuer au point d’être éclipsée par des textes générés par l’IA. Une telle contamination faussera les analyses linguistiques et conduira à des représentations biaisées des usages réels du langage humain. Au mieux, elle ajoutera une couche de complexité supplémentaire à la composition des échantillons linguistiques que les linguistes devront démêler.
À lire aussi : L’IA au travail : un gain de confort qui pourrait vous coûter cher
Cette contamination n’est pas immédiatement détectable pour l’œil peu entraîné. Avec l’habitude, cependant, on se rend compte que la langue de ChatGPT est truffée de tics de langage révélateurs de son origine algorithmique. Il abuse aussi bien d’adjectifs emphatiques, tels que « crucial », « essentiel », « important » ou « fascinant », que d’expressions vagues (« de nombreux… », « généralement… »), et répond très souvent par des listes à puces ou numérotées. Il est possible d’influer sur le style de l’agent conversationnel, mais c’est le comportement par défaut qui prévaut dans la plupart des usages.
Un article de Forbes publié en décembre 2024 met en lumière l’impact de l’IA générative sur notre vocabulaire et les risques pour la diversité linguistique. Parce qu’elle n’emploie que peu d’expressions locales et d’idiomes régionaux, l’IA favoriserait l’homogénéisation de la langue. Si vous demandez à un modèle d’IA d’écrire un texte en anglais, le vocabulaire employé sera probablement plus proche d’un anglais global standard et évitera des expressions typiques des différentes régions anglophones.
L’IA pourrait aussi simplifier considérablement le vocabulaire humain, en privilégiant certains mots au détriment d’autres, ce qui conduirait notamment à une simplification progressive de la syntaxe et de la grammaire. Comptez le nombre d’occurrences des adjectifs « nuancé » et « complexe » dans les sorties de l’agent conversationnel et comparez ce chiffre à votre propre usage pour vous en rendre compte.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
La linguistique étudie le langage comme faculté qui sous-tend l’acquisition et l’usage des langues. En analysant les occurrences linguistiques dans les langues naturelles, les chercheurs tentent de comprendre le fonctionnement des langues, qu’il s’agisse de ce qui les distingue, de ce qui les unit ou de ce qui en fait des créations humaines. La linguistique de corpus se donne pour tâche de collecter d’importants corpus textuels pour modéliser l’émergence et l’évolution des phénomènes lexicaux et grammaticaux.
Les théories linguistiques s’appuient sur des productions de locuteurs natifs, c’est-à-dire de personnes qui ont acquis une langue depuis leur enfance et la maîtrisent intuitivement. Des échantillons de ces productions sont rassemblés dans des bases de données appelées corpus. L’IA menace aujourd’hui la constitution et l’exploitation de ces ressources indispensables.
Pour le français, des bases comme Frantext (qui rassemble plus de 5 000 textes littéraires) ou le French Treebank (qui contient plus de 21 500 phrases minutieusement analysées) offrent des contenus soigneusement vérifiés. Cependant, la situation est préoccupante pour les corpus collectant automatiquement des textes en ligne. Ces bases, comme frTenTen ou frWaC, qui aspirent continuellement le contenu du Web francophone, risquent d’être contaminées par des textes générés par l’IA. À terme, les écrits authentiquement humains pourraient devenir minoritaires.
Les corpus linguistiques sont traditionnellement constitués de productions spontanées où les locuteurs ignorent que leur langue sera analysée, condition sine qua non pour garantir l’authenticité des données. L’augmentation des textes générés par l’IA remet en question cette conception traditionnelle des corpus comme archives de l’usage authentique de la langue.
Alors que les frontières entre la langue produite par l’homme et celle générée par la machine deviennent de plus en plus floues, plusieurs questions se posent : quel statut donner aux textes générés par l’IA ? Comment les distinguer des productions humaines ? Quelles implications pour notre compréhension du langage et son évolution ? Comment endiguer la contamination potentielle des données destinées à l’étude linguistique ?
On peut parfois avoir l’illusion de converser avec un humain, comme dans le film « Her » (2013), mais c’est une illusion. L’IA, alimentée par nos instructions (les fameux « prompts »), manipule des millions de données pour générer des suites de mots probables, sans réelle compréhension humaine. Notre IA actuelle n’a pas la richesse d’une voix humaine. Son style est reconnaissable parce que moyen. C’est le style de beaucoup de monde, donc de personne.
À partir d’expressions issues d’innombrables textes, l’IA calcule une langue moyenne. Le processus commence par un vaste corpus de données textuelles qui rassemble un large éventail de styles linguistiques, de sujets et de contextes. Au fur et à mesure l’IA s’entraîne et affine sa « compréhension » de la langue (par compréhension, il faut entendre la connaissance du voisinage des mots) mais en atténue ce qui rend chaque manière de parler unique. L’IA prédit les mots les plus courants et perd ainsi l’originalité de chaque voix.
Bien que ChatGPT puisse imiter des accents et des dialectes (avec un risque de caricature), et changer de style sur demande, quel est l’intérêt d’étudier une imitation sans lien fiable avec des expériences humaines authentiques ? Quel sens y a-t-il à généraliser à partir d’une langue artificielle, fruit d’une généralisation déshumanisée ?
Parce que la linguistique relève des sciences humaines et que les phénomènes grammaticaux que nous étudions sont intrinsèquement humains, notre mission de linguistes exige d’étudier des textes authentiquement humains, connectés à des expériences humaines et des contextes sociaux. Contrairement aux sciences exactes, nous valorisons autant les régularités que les irrégularités langagières. Prenons l’exemple révélateur de l’expression « après que » : normalement suivie de l’indicatif, selon les livres de grammaire, mais fréquemment employée avec le subjonctif dans l’usage courant. Ces écarts à la norme illustrent parfaitement la nature sociale et humaine du langage.
La contamination des ensembles de données linguistiques par du contenu généré par l’IA pose de grands défis méthodologiques. Le danger le plus insidieux dans ce scénario est l’émergence de ce que l’on pourrait appeler un « ouroboros linguistique » : un cycle d’auto-consommation dans lequel les grands modèles de langage apprennent à partir de textes qu’ils ont eux-mêmes produits.
Cette boucle d’autorenforcement pourrait conduire à une distorsion progressive de ce que nous considérons comme le langage naturel, puisque chaque génération de modèles d’IA apprend des artefacts et des biais de ses prédécesseurs et les amplifie.
Il pourrait en résulter un éloignement progressif des modèles de langage humain authentique, ce qui créerait une sorte de « vallée de l’étrange » linguistique où le texte généré par l’IA deviendrait simultanément plus répandu et moins représentatif d’une communication humaine authentique.
Guillaume Desagulier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
02.06.2025 à 16:00
Camille Mazé-Lambrechts, Directrice de recherche en science politique au CNRS, titulaire de la chaire Outre-mer et Changements globaux du CEVIPOF (Sciences Po), fondatrice du réseau de recherche international Apolimer, Officier de réserve Marine nationale CESM/Stratpol, Sciences Po
Jordan Hairabedian, Enseignant en climat, biodiversité et transformations socio-environnementales, Sciences Po
Mathieu Rateau, Assistant researcher en politiques environnementales., Sciences Po
Une ombre nommée Donald Trump devrait planer sur la troisième Conférence des Nations unies sur l’océan (Unoc 3), qui va se dérouler à Nice (Alpes-Maritimes), en juin 2025. Dès son premier mandat et depuis son retour en janvier dernier à la Maison Blanche, Trump a altéré les positions des États-Unis. Celles-ci ont influencé négativement les engagements pour la biodiversité ailleurs dans le monde. Y compris en Europe, quoi qu’indirectement.
Le climat n’est pas le seul enjeu international à souffrir des décisions prises par le président américain Donald Trump, qui vont à l’encontre du consensus scientifique mondial sur l’environnement.
De fait, celui-ci a déjà retiré les États-Unis de l’accord de Paris sur le climat, a fait disparaître l’expression même de « changement climatique » des sites de l’administration, a rétropédalé sur des mesures telles que l’interdiction des pailles en plastique et continue de soutenir les hydrocarbures et leur exploitation. De telles politiques vont à l’encontre des besoins des populations, tels que définis par la campagne One Planet, One Ocean, One Health, par exemple.
De telles décisions affectent la transition socio-écologique globale dans son ensemble, y compris en dehors des États-Unis. L’action internationale pour préserver la biodiversité devrait donc également en pâtir. Une question cruciale alors que va débuter la troisième Conférence des Nations unies pour l’océan (Unoc 3) et que les tensions se renforcent sur les arbitrages à réaliser entre climat, biodiversité, économie et autres enjeux de société.
Nous aborderons ici deux cas d’étude pour comprendre comment les politiques trumpiennes peuvent influencer le reste du monde en matière de multilatéralisme pour la biodiversité : d’abord la COP 16 biodiversité, à Cali (Colombie), qui s’est récemment conclue à Rome en février 2025, puis le Pacte vert pour l’Europe, ensemble de textes qui doivent permettre à l’Union européenne (UE) d’atteindre la neutralité carbone à l’horizon 2050 et d’établir un vaste réseau de zones protégées, sur terre et en mer (30 %).
Participez au webinaire The Conversation France / Normandie pour la Paix, jeudi 19 juin à 18h : « Environnement et sécurité : quelle place pour l’Europe sur la scène mondiale ? » - Inscription gratuite ici
La COP 16 sur la biodiversité, qui s’est tenue à Cali (Colombie) du 21 octobre au 1er novembre 2024, avait pour objectif d’accélérer la mise en œuvre du Cadre mondial de la biodiversité de Kunming-Montréal. Celui-ci est l’équivalent de l’accord de Paris sur le climat.
Il prévoit notamment la conservation de 30 % des zones terrestres, des eaux intérieures et des zones côtières et marines, la restauration de 30 % des écosystèmes dégradés, tout en finançant l’action biodiversité à l’international. Ce dernier point fut le principal point de tension lors des négociations lors de la COP 16.
Les États-Unis ne sont pas membres de la Convention sur la diversité biologique (CDB), adoptée en 1992 lors du Sommet de la Terre à Rio, qui est l’un des textes fondateurs de la diplomatie internationale en matière de biodiversité. Mais ils influencent les discussions par leur poids économique et politique.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
L’élection de Trump, survenue peu après la COP 16, et son retrait renouvelé de l’accord de Paris accompagné de politiques pro-fossiles ont rapidement assombri les perspectives de coopération internationale. Ce revirement a affaibli la confiance dans les engagements multilatéraux et a rendu plus difficile la mobilisation de fonds pour la préservation de l’environnement et la conservation de la biodiversité.
À lire aussi : La COP16 de Cali peut-elle enrayer l’effondrement de la biodiversité ?
Malgré ce contexte international préoccupant, la COP 16 a pu aboutir à des avancées notables pour donner davantage de place au lien entre biodiversité et changement climatique, laissant espérer une appréhension plus transversale de la protection de l’environnement. De fait, la deuxième partie des négociations, en février 2025, a permis d’aboutir à un accord sur les financements.
La stratégie adoptée, qui doit être déployée sur cinq ans, est supposée permettre de débloquer les 200 milliards de dollars nécessaires à la mise en œuvre du Cadre mondial de la biodiversité. Toutefois, comme certaines des cibles de ce cadre doivent être atteintes d’ici 2030, le risque est que le délai soit trop court pour permettre la mobilisation des ressources nécessaires.
En parallèle, une décision historique a permis la création d’un organe de représentation permanent des peuples autochtones ainsi que la reconnaissance du rôle des communautés afro-descendantes, afin que leurs positions soient mieux prises en compte dans les négociations. La contribution des peuples autochtones à la conservation de la biodiversité est effectivement reconnue par la CDB, bien que son ampleur soit discutée.
La COP 16 a également permis des progrès en termes de protection des océans. Une décision y a ainsi défini des procédures pour décrire les zones marines d’importance écologique et biologique (en anglais, EBSA, pour Ecologically or Biologically Significant Marine Areas).
Ceci constitue l’aboutissement de 14 ans de négociations et ouvre la voie à la création d’aires protégées en haute mer et à des synergies potentielles avec le Traité de la haute mer (Biodiversity Beyond National Jurisdiction, BBNJ).
Ce traité reste bien plus significatif que l’EBSA, ce dernier n’ayant pas de dimension contraignante. Le problème reste qu’à ce jour, seuls 29 États ont ratifié cet accord alors qu’il en nécessite 60. La perspective d’une ratification de l’accord BBNJ par les États-Unis sous la présidence de Donald Trump semble bien improbable, d’autant plus depuis la signature d’un décret en avril 2025 pour autoriser l’exploitation minière des grands fonds marins en haute mer, au-delà des zones économiques exclusives.
Le vent des politiques trumpistes souffle jusque sur les côtes du continent européen. Depuis le premier mandat de Donald Trump entre 2016 et 2020 et ses décisions anti-environnementales, l’Europe a, elle aussi, ajusté ses politiques en matière d’action environnementale.
Annoncé en 2019 pour la décennie 2020-2030, le Pacte vert européen (Green Deal) a récemment cherché à se réinventer face aux décisions américaines. Dès les élections européennes de juin 2024, le Parlement s’est renforcé à sa droite et à son extrême droite, motivant une évolution de ses politiques internes.
Ainsi, en réaction au culte des énergies fossiles outre-Atlantique, l’Union européenne a récemment développé certaines dimensions du Green Deal destinées à mettre la focale sur les technologies bas carbone en Europe. En février 2025, le Pacte pour une industrie propre (Clean Industrial Deal) a ainsi été présenté, en cohérence avec le rapport Draghi de septembre 2024. Ce dernier s’inscrivait dans une logique libérale en faveur d’une stratégie de dérégulation.
Cela étant, les solutions présentées comme contribuant à la réduction des émissions de gaz à effet de serre dans le Pacte pour une industrie propre n’ont pas toujours des effets bénéfiques en matière de biodiversité. Les bioénergies, les technologies de stockage du carbone ou encore l’hydroénergie présentent des externalités négatives – c’est-à-dire, des effets indésirables – notables pour le vivant.
Il est intéressant de noter qu’à l’inverse, très peu d’actions en faveur de la biodiversité nuisent à l’action climatique, comme le montre le schéma ci-dessus. C’est ce qu’ont démontré le Giec et la Plateforme intergouvernementale scientifique et politique sur la biodiversité et les services écosystémiques (IPBES) (l’instance onusienne équivalente pour la biodiversité), dans leur rapport commun de 2021, une première.
En parallèle, ces volontés de dérégulation ont contribué à détricoter plusieurs mesures environnementales clés pour l’UE. Or, ces ajustements risquent de compromettre les efforts de protection de la biodiversité tout au long des chaînes de valeur économique :
les réglementations relatives aux critères environnement-social-gouvernance (ESG) vont être simplifiées, ce qui devrait marquer un net recul en matière de transparence et d’incitation à l’action pour les entreprises ;
la directive qui impose aux entreprises la publication d’informations sur la durabilité (CSRD), bien qu’elle conserve la biodiversité dans son périmètre ainsi que l’approche en double matérialité, a vu son impact réduit par l’exclusion de 80 % des organisations initialement concernées et par plusieurs reports d’application ;
même la taxonomie environnementale de l’UE, outil clé pour classifier des activités économiques ayant un impact favorable sur l’environnement, a vu son périmètre revu à la baisse, ce qui limitera les effets incitatifs qu’elle devait avoir sur la transition écologique pour orienter les financements.
Enfin, la directive sur le devoir de vigilance (CSDDD) a été édulcorée en adoptant la vision allemande. Les impacts socio-environnementaux devront être analysés uniquement au niveau des sous-traitants directs. Cela exclut du périmètre des maillons critiques comme les exploitations agricoles, qui sont les plus en lien avec la biodiversité.
Malgré ces renoncements, plusieurs politiques publiques importantes pour la biodiversité ont pu être maintenues.
C’est notamment le cas de la Stratégie biodiversité 2030 de l’UE, de la loi sur la restauration de la nature et de la loi contre la déforestation importée (bien que reportée d’un an dans son application).
Un paquet spécifique sur l’adaptation est également attendu d’ici fin 2025 dans le cadre du Programme Horizon Europe 2025, dont la consultation publique s’est récemment terminée.
Ainsi, l’action pour le climat et la biodiversité est à la croisée des chemins. Plus que jamais, il appartient à la communauté internationale de défendre un cadre de gouvernance robuste fondé sur la science et la solidarité pour que la préservation de la biodiversité ne soit pas sacrifiée sur l’autel de la rentabilité immédiate.
Au-delà des déclarations d’intention, il faut mettre en place cette gouvernance de façon efficace, à travers des mesures politiques, des outils de protection et de surveillance adaptés, et surtout, à travers l’adaptation du droit. Une telle transdisciplinarité se révèle ici déterminante pour la solidarité écologique. En ce sens, l’Unoc est une bonne occasion, pour l’UE, de rester unie et forte face à la volonté de Trump de débuter l’exploration et l’exploitation des grands fonds marins.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
02.06.2025 à 15:56
Kevan Gafaïti, Enseignant à Sciences Po Paris en Middle East Studies, Président-fondateur de l'Institut des Relations Internationales et de Géopolitique, doctorant en science politique - relations internationales au Centre Thucydide, Université Paris-Panthéon-Assas
Des discussions directes sont en cours entre les représentants de l’administration Trump et ceux de l’Iran. Objectif : aboutir à un accord encadrant le programme nucléaire iranien et permettant à Washington de s’assurer que Téhéran ne pourra jamais se doter de l’arme atomique. En contrepartie, l’Iran obtiendrait la levée des sanctions économiques dont il fait l’objet. Mais après les nombreuses tractations passées et l’échec de l’accord de Vienne signé en 2015 et que Trump avait quitté lors de son premier mandat, la plus grande prudence est de mise.
« Je veux que l’Iran soit un pays merveilleux, grand et heureux, mais ils ne peuvent pas avoir d’arme nucléaire », déclarait en avril dernier Donald Trump, détonant avec son ton usuellement très véhément à l’encontre de la République islamique d’Iran, qu’il qualifiait, il y a quelques années encore, de « plus grand État sponsorisant le terrorisme ».
Si Trump se montre aujourd’hui plus avenant envers Téhéran, cela s’explique par un contexte international qui semblait difficile à imaginer il y a peu : Iraniens et Américains négocient de manière bilatérale et directe – et ce, à l’initiative du locataire de la Maison Blanche. Le déroulement de ces discussions – dont l’objectif annoncé est de parvenir à un accord encadrant le programme nucléaire iranien en contrepartie de la levée de sanctions économiques américaines – renforce chaque jour la possibilité d’une entente entre ces deux États systémiquement opposés depuis 1979.
La prudence est cependant de mise, tous les scénarios restant possibles – d’un accord approfondi à un échec des négociations et une confrontation ouverte au Moyen-Orient.
Depuis le début de l’année 2025, des discussions directes et bilatérales entre les États-Unis et l’Iran sur le programme nucléaire de ce dernier ont été annoncées en grande pompe, mais leur contenu est et reste complètement opaque.
Menées en avril à Mascate, capitale du sultanat d’Oman, sous l’égide du ministre omanais des affaires étrangères Badr bin Hamad al-Busaidi, ces négociations ont connu plusieurs séquences, à Rome puis de nouveau à Oman, un quatrième round prévu pour le 3 mai ayant finalement été reporté.
Si aucun communiqué officiel ni image n’a filtré, des déclarations de part et d’autre laissent entrevoir une désescalade réelle et des avancées tangibles. Le vice-président américain J. D. Vance a, par exemple, déclaré le 7 mai que les négociations étaient « sur la bonne voie ».
La médiation discrète, mais efficace, d’Oman a ainsi permis de rétablir des canaux de communication (à l’image de l’accord de Vienne, ou JCPOA de 2015, dont les négociations secrètes entre Iraniens et Américains s’étaient également déroulées à Mascate).
Washington exige un arrêt net de l’enrichissement de l’uranium, estimant que le niveau actuel est trop élevé. Téhéran souligne, pour sa part, son droit à un nucléaire civil. Malgré des divergences de fond, les deux parties partagent désormais un langage commun : celui du compromis pragmatique. Le ministre iranien des affaires étrangères Abbas Araghchi qualifie de « constructifs » ces échanges bilatéraux, tandis que le Guide suprême Ali Khamenei, plus circonspect, estime que certaines exigences américaines restent « excessives et scandaleuses ».
Le caractère fastidieux des négociations ne saurait masquer le fait que le dialogue se poursuit, avec une fréquence inédite depuis 2018 et la sortie américaine du JCPOA, ce qui dévoile un infléchissement stratégique majeur de part et d’autre. Dans cette séquence encore incertaine, le choix d’Oman, acteur patient et neutre, symbolise une volonté commune d’éviter la rupture et d’explorer les marges d’un possible accord.
Malgré des tensions persistantes et la difficulté de déceler précisément les points d’achoppement dans ces discussions, les négociations entre les États-Unis et l’Iran ont progressé vers ce qui pourrait être un accord-cadre bilatéral, en dehors du cadre du Conseil de sécurité des Nations unies ou du P5+1 (le groupe des cinq membres permaments du Conseil de sécurité + l’Allemagne). Donald Trump a même annoncé le 15 mai que l’Iran aurait « en quelque sorte » accepté les termes d’un futur accord.
Après des échanges d’ordre politique à Oman, Téhéran et Washington sont, selon Mascate, convenus de s’entendre sur des aspects techniques du programme nucléaire iranien. Sur une base régulière quasi hebdomadaire, les négociateurs américains et iraniens se retrouvent ainsi à Rome et à Mascate pour former des groupes de travail et établir un cadre général de discussions.
Le contenu précis d’un potentiel accord reste cependant difficile à déterminer, tant les parties elles-mêmes sont encore en phase de tractation, sans qu’aucune information officielle et substantielle ne filtre. Il est cependant possible d’avancer que s’il y avait un nouvel accord, ce dernier serait bien différent du JCPOA de 2015, tant la situation présente est distincte de celle d’il y a dix ans.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Depuis la constatation de l’obsolescence de l’accord de Vienne causée par le retrait américain de 2018, l’Iran enrichit son uranium à environ 60 % selon l’AIEA (ce qui est techniquement proche de l’enrichissement à 90 % nécessaire pour fabriquer une arme nucléaire). Pourtant, Téhéran n’a jamais explicitement affirmé vouloir développer une arme atomique, arguant même d’une fatwa du Guide suprême Khamenei qualifiant une telle arme de « contre-islamique » par nature. Les États-Unis, pour leur part, semblent chercher à conclure rapidement un accord, Trump espérant obtenir « son deal » après avoir fait échouer celui négocié par l’administration Obama.
Les demandes américaines se cantonnent au seul domaine nucléaire (écartant d’office d’autres sujets, comme la politique régionale de Téhéran ou son programme balistique) sans vouloir s’encombrer d’un accord aussi technique que celui de 2015, long de plusieurs centaines de pages : Donald Trump déclarait ainsi à la mi-mai qu’il n’avait « pas besoin de 30 pages de détail. Cela tient en une phrase : ils ne peuvent pas avoir d’arme nucléaire. »
Bien que des avancées notables dans ces négociations se fassent jour (le principe même que Téhéran et Washington renouent le dialogue est positif en soi), de réels défis restent à surmonter avant la conclusion d’un accord nucléaire durable. Aux divergences et voix dissonantes au sein même des deux États impliqués s’ajoutent des tensions régionales, Israël et les monarchies arabes du golfe Persique étant réfractaires, à des degrés divers, à un accord Téhéran-Washington.
Côté iranien, le Guide suprême Ali Khamenei estime que certaines exigences américaines sont « dépourvues de sens » et fait preuve d’un lourd scepticisme quant à l’issue des pourparlers. Le ministre iranien des affaires étrangères a ainsi récemment rappelé que l’enrichissement de l’uranium iranien était un droit « non négociable ».
Côté états-unien, bien que l’administration Trump puisse conclure un accord exécutif sans l’aval du Congrès, le pouvoir législatif est un paramètre incontournable dans ces négociations avec l’Iran. Alors que la perspective des élections de mi-mandat, traditionnellement défavorables au parti présidentiel, commence à peser sur les équilibres politiques, le Congrès a exprimé le 8 mai 2025, par une résolution non contraignante, une opposition significative menaçant la pérennité de tout accord. Bien que majoritaires à la Chambre des représentants et au Sénat, les élus républicains restent usuellement farouchement opposés à tout rapprochement ou accord avec l’Iran, qui pourrait être perçu comme une forme de faiblesse à leurs yeux. Par ailleurs, des groupes de pression pro-israéliens tels que l’AIPAC (American Israel Public Affairs Committee) ou le CUFI (Christians United for Israel) pèsent de tout leur poids pour s’opposer à un tel rapprochement.
À lire aussi : Le sionisme chrétien, une influence majeure sur la nouvelle administration Trump
Côté Moyen-Orient enfin, Israël se cantonne à un réflexe pavlovien, affirmant depuis des décennies que l’Iran serait sur le point d’obtenir l’arme nucléaire, ce qui constituerait une menace existentielle à son encontre. Tel-Aviv s’est maintes fois dit prêt à lancer une action militaire unilatérale contre les installations nucléaires iraniennes, quitte à justement déclencher une escalade incontrôlable. Benyamin Nétanyahou, reçu à Washington par le président Trump début avril, n’a pas fait varier sa ligne sur ce sujet.
Les monarchies arabes du golfe Persique suivent également ce dossier de près et ont adopté une position plus mesurée qu’il y a dix ans : elles cherchent à s’assurer du parrainage politique de Washington et de sa protection contre toute menace réelle ou potentielle, iranienne ou infra-étatique. Ces mêmes États arabes du golfe Persique renouvellent par ailleurs un dialogue fourni avec l’Iran.
Si l’Union européenne a longtemps incarné un médiateur diplomatique central dans les négociations nucléaires avec l’Iran, elle semble aujourd’hui complètement délaissée. Avec l’échec du JCPOA et son incapacité à maintenir des relations économiques (malgré INSTEX, mécanisme de troc avec l’Iran lancé par les Européens), l’UE a malheureusement perdu en crédibilité aux yeux de Téhéran, l’alignement de facto sur les sanctions extraterritoriales américaines dès mai 2018 achevant la confiance iranienne.
Les négociations de Vienne, pourtant lancées dès 2021 par l’administration Biden et auxquelles les diplomates européens continuent de participer, n’ont jamais abouti à un résultat concret et rien ne semble indiquer une évolution à cet endroit. Pis encore, l’auteur a relevé au cours d’entretiens avec des diplomates des pays européens signataires du JCPOA qu’ils n’étaient ni informés ni consultés par leurs homologues transatlantiques, qui les laissent complètement dans l’ignorance quant au lancement et au déroulé de leurs négociations bilatérales.
Cette marginalisation est aujourd’hui diplomatique et serait demain économique en cas d’accord : la perspective d’une levée des sanctions américaines primaires (c’est-à-dire visant uniquement les entités américaines) s’accompagnerait d’un maintien voire d’un durcissement des sanctions secondaires (s’appliquant de facto aux entités non américaines, donc européennes). Le marché iranien (90 millions de consommateurs férus de produits occidentaux) serait alors ouvert exclusivement aux États-Unis, laissant les Européens complètement hors jeu. Cela serait le produit non pas d’un désintérêt européen pour la question, mais le signe d’une perte de crédibilité stratégique et économique de Bruxelles. Sans bouclier bancaire crédible et levier politique autonome et sincère, les Européens (et la France au premier rang) sont durablement exclus du « Grand Jeu » iranien.
Kevan Gafaïti ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
02.06.2025 à 15:56
Devi Veytia, Dr, École normale supérieure (ENS) – PSL
Adrien Comte, Chargé de recherche, Institut de recherche pour le développement (IRD)
Frédérique Viard, Directrice de recherche en biologie marine, Université de Montpellier
Jean-Pierre Gattuso, Research Professor, CNRS, Iddri, Sorbonne Université
Laurent Bopp, Research Professor, CNRS, École normale supérieure (ENS) – PSL
Marie Bonnin, Research Director in marine environmental law, Institut de recherche pour le développement (IRD)
Yunne Shin, Chercheuse en écologie marine, Institut de recherche pour le développement (IRD)
Dans quelques jours, la troisième Conférence des Nations unies sur l’océan (Unoc 3) se tiendra en France, à Nice (Alpes-Maritimes). Elle réunira des dirigeants, des décideurs, des scientifiques et des parties prenantes du monde entier dans le but « d’accélérer l’action et de mobiliser tous les acteurs pour conserver et utiliser durablement l’océan », avec à la clé, peut-être, un « accord de Nice » qui serait constitué d’une déclaration politique négociée à l’ONU et de déclarations volontaires — c’est, du moins, l’objectif des organisateurs, la France et le Costa Rica.
Pour soutenir ces décisions, des informations scientifiques sont indispensables – quel est le statut des recherches dans le monde et, en France, pour exploiter les solutions que l’océan peut offrir face à la crise climatique ?
La France joue un rôle essentiel pour progresser vers l’objectif de conserver et utiliser durablement l’océan, puisqu’avec la deuxième plus grande zone économique exclusive du monde, elle détient une grande partie du pouvoir d’orientation concernant l’utilisation des ressources océaniques.
Cependant, remplir un mandat aussi nécessaire qu’ambitieux d’accélération et de mobilisation de l’action ne sera pas simple. Les discussions de l’Unoc 3 se dérouleront dans un contexte où l’océan est confronté à des défis sans précédent dans l’histoire de l’humanité, notamment en raison des impacts de plus en plus prégnants du changement climatique.
Ces effets se manifestent avec une intensité croissante dans toutes les régions du monde, de la surface aux eaux les plus profondes de l’océan Austral autour du continent antarctique aux zones côtières densément peuplées où les risques climatiques s’accumulent, affectant notamment les pêcheries.
Les options fondées sur l’océan pour atténuer le changement climatique (par exemple en utilisant des énergies renouvelables marines qui limitent l’émission de gaz à effet de serre) et s’adapter à ses impacts (par exemple en construisant des digues) sont essentielles.
Pour optimiser leur déploiement, une synthèse exhaustive et objective des données scientifiques est indispensable. En effet, une évaluation incomplète des preuves disponibles pourrait en effet conduire à des conclusions biaisées, mettant en avant certaines options comme particulièrement adaptées tout en négligeant leurs effets secondaires ou des lacunes critiques dans les connaissances.
Au milieu de ce maelström de défis, quelle est la contribution de la France à la recherche et au déploiement d’options fondées sur l’océan ?
Grâce à une étude de 45 000 articles publiés entre 1934 à 2023, nous montrons que les chercheurs français publient une part importante des recherches scientifiques mondiales sur les options d’adaptation, mais qu’il reste néanmoins de nombreux leviers d’actions.
Par exemple, l’expertise scientifique française pourrait être développée au service de recherches sur l’adaptation des petits États insulaires en développement, qui sont particulièrement vulnérables au changement climatique. Par ailleurs, il conviendrait d’amplifier les recherches sur les options d’atténuation, par exemple dans le domaine des énergies marines renouvelables.
L’océan couvre 70 % de la surface de la Terre et a absorbé 30 % des émissions humaines de dioxyde de carbone. Pourtant, jusqu’à récemment, il était négligé dans la lutte contre le changement climatique.
Aujourd’hui, de nombreuses options fondées sur l’océan émergent dans les dialogues entre scientifiques, décideurs politiques et citoyens. Ces « options fondées sur l’océan » concernent des actions qui :
atténuent le changement climatique et ses effets en utilisant les écosystèmes océaniques et côtiers pour réduire les émissions de gaz à effet de serre atmosphériques ; il s’agit ici par exemple d’interventions utilisant l’océan pour la production d’énergie renouvelable ;
soutiennent l’adaptation des communautés et des écosystèmes côtiers aux impacts toujours croissants du changement climatique ; la gestion des pêches et la restauration des écosystèmes mais aussi la construction d’infrastructures protégeant les côtes des submersions font partie de ces options.
L’un des rôles clés de la science est de fournir une synthèse impartiale des données scientifiques pour éclairer les décisions. Cependant, l’explosion du nombre de publications scientifiques rend de plus en plus difficile, voire impossible, de réaliser ces évaluations de manière exhaustive.
C’est là qu’interviennent l’intelligence artificielle (IA) et les grands modèles de langage, qui ont déjà un succès notable, depuis les robots conversationnels aux algorithmes de recherche sur Internet.
Dans un travail de recherche en cours d’évaluation, nous avons étendu ces nouvelles applications de l’IA à l’interface science-politique, en utilisant un grand modèle de langage pour analyser la contribution de la France dans le paysage de la recherche sur les options fondées sur l’océan. Grâce à ce modèle, nous avons classé environ 45 000 articles scientifiques et dédiés aux options fondées sur l’océan.
Au niveau mondial, nous constatons que la recherche est inégalement répartie puisque 80 % des articles portent sur les options d’atténuation. Les auteurs de travaux de recherche affiliés à la France jouent ici un rôle important, car ils sont parmi les principaux contributeurs des travaux dédiés aux options d’adaptation.
Cette priorité de la recherche sur l’adaptation est également présente dans les travaux des chercheurs affiliés à des institutions de petits États insulaires en développement, qui présentent un risque élevé de dangers côtiers exacerbés par le changement climatique, avec les évènements climatiques extrêmes et l’élévation du niveau de la mer.
L’impact de la recherche française s’étend bien au-delà de ses frontières, suscitant l’intérêt via les réseaux sociaux et les médias traditionnels à travers l’Europe, l’Amérique du Nord et l’Australie.
À mesure que l’accès à l’information et aux plateformes de diffusion accroît la portée et l’influence de l’opinion publique dans l’élaboration des politiques, il devient crucial non seulement de communiquer, mais aussi d’impliquer d’autres acteurs afin de traduire la science en dispositions réglementaires et, à terme, en actions concrètes.
Cette évolution, de l’idée à l’action, est une progression classique dans le cycle de vie d’une intervention. D’abord, un problème ou un impact potentiel est identifié, ce qui motive la recherche scientifique à en étudier les causes et à développer des solutions pour y répondre. Une fois cette étape franchie, l’intervention peut être intégrée dans la législation, incitant ainsi les parties prenantes à agir. Mais ce processus est-il applicable aux options fondées sur l’océan, ou y a-t-il des obstacles supplémentaires à considérer ?
Nous avons étudié cette situation en France pour deux options technologiques prêtes à être déployées et d’ores et déjà mises en œuvre : les énergies marines renouvelables, proposées pour atténuer le changement climatique, et les infrastructures construites et technologies d’adaptation sociétales face à la montée du niveau des mers.
Concernant les énergies marines renouvelables – une intervention jugée efficace à l’atténuation du changement climatique et dont les risques sont bien documentés et modérés –, le déploiement en France semble lent au regard du reste du monde (ligne en pointillé dans la figure ci-dessous).
En revanche, les leviers d’actions en faveur des infrastructures d’adaptation sociétales semblent plus mobilisés face aux pressions croissantes exercées par les risques climatiques côtiers.
Ainsi, nous constatons qu’à mesure que l’élévation du niveau de la mer s’accentue et, par conséquent, entraîne un besoin croissant de protections côtières, la recherche, la législation et l’action (représentée par le nombre de communes françaises exposées aux risques côtiers bénéficiant d’un plan de prévention des risques naturels (PPRN)) augmentent également, en particulier après 2010.
En résumé, concernant les énergies marines renouvelables, la France accuse un certain retard dans le passage de l’idée à l’action par rapport au reste du monde. Cela pourrait s’expliquer par une priorité accordée à d’autres mesures d’atténuation (par exemple, l’énergie nucléaire). Cependant, nous ne devrions pas nous limiter à une ou à quelques options dans l’objectif d’accroître notre potentiel d’atténuation global. La France a la possibilité d’investir davantage dans les recherches et actions d’atténuation.
La France affiche un très bon bilan en matière de recherche et de mise en œuvre d’options d’adaptation au changement climatique. Par ailleurs, sur ce type d’options, nous avons constaté un besoin global de recherche dans les pays en développement exposés aux risques côtiers — ce qui pourrait ouvrir de nouvelles opportunités, pour les institutions de recherche françaises, en termes de soutien à la recherche et de renforcement de leurs capacités dans ces domaines.
Alors que nous approchons de l’Unoc 3 – un moment critique pour la prise de décision – une chose est claire : il n’y a pas une seule solution mais des choix sont nécessaires ; il est donc essentiel de trouver les moyens d’évaluer et de synthétiser rapidement les preuves scientifiques pour éclairer nos actions d’aujourd’hui, ainsi que proposer de nouvelles pistes de recherche en amont des actions innovantes de demain.
Devi Veytia a reçu des financements du Programme Prioritaire de Recherche (PPR) « Océan et Climat », porté par le CNRS et l’Ifremer.
Frédérique Viard a reçu des financements de l'Agence Nationale de la Recherche (ANR) et de l'Europe (programme Horizon Europe).
Jean-Pierre Gattuso a reçu des financements de Comission européenne, Fondation Prince Albert II de Monaco.
Laurent Bopp est Membre du Conseil Scientifique de la Plateforme Ocean-Climat. Il a reçu des financements de recherche dans le cadre de projet de mécennat de la société Chanel et de de Schmidt Sciences.
Marie Bonnin a reçu des financements de l'Agence Nationale de la Recherche (ANR) et de l'Europe (programme Horizon Europe).
Yunne Shin a reçu des financements de l'Europe (programme Horizon Europe)
Adrien Comte ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
02.06.2025 à 15:54
Dorian Vancoppenolle, Doctorant en Sciences de l'Éducation et de la Formation, Université Lumière Lyon 2
Alors que les lycéens reçoivent leurs résultats sur Parcoursup, les étudiants qui envisagent de changer de voie se connectent de nouveau à la plateforme. Près d’un sur cinq choisit désormais de se réorienter après une première année dans l’enseignement supérieur. Un record qui soulève des questions cruciales sur les dynamiques de réussite, d’inégalités et d’orientation.
Depuis les années 1960, la massification scolaire a permis un accès élargi au baccalauréat, puis aux études supérieures, sans toutefois mettre fin aux inégalités : celles-ci se recomposent à travers la hiérarchisation des parcours, la segmentation des filières ou encore des effets d’orientation différenciée selon l’origine sociale et le genre.
L’accès aux études supérieures est plus large, mais inégal selon les filières, ce qui limite l’effet redistributif de la massification. Le système éducatif français tend ainsi à reproduire, voire à produire, des inégalités sociales, culturelles et scolaires tout au long des parcours, malgré l’idéal méritocratique affiché par les pouvoirs publics.
À lire aussi : Le mérite est-il encore un idéal démocratique ?
Aujourd’hui, l’un des effets les plus visibles de ces tensions réside dans les trajectoires étudiantes après le bac, en particulier lors de la première année, marquée par un taux de réorientation important.
Conséquence indirecte de la massification scolaire, la réorientation n’est pas nécessairement un aveu d’échec. Elle devient une étape de redéfinition des trajectoires, révélant à la fois les aspirations des jeunes et les limites d’un système qui, tout en se démocratisant, continue de reproduire des inégalités sociales.
Dans un contexte marqué par les réformes du bac, de l’accès aux études de santé et de la refonte du diplôme universitaire de technologie (DUT) en bachelor universitaire de technologie (BUT), ces constats interrogent : pourquoi tant de jeunes entament-ils une réorientation après une seule année, et quelles en sont les conséquences ?
Notre analyse porte sur les données Parcoursup entre 2018 et 2023, en se concentrant sur les étudiants qui se sont réinscrits après une première année dans le supérieur. Seuls les parcours passés par la plateforme sont pris en compte, ce qui exclut les formations hors Parcoursup, comme certaines écoles privées ou classes préparatoires internes, en raison de l’absence de données disponibles.
Contrairement à l’idée reçue selon laquelle une réorientation serait synonyme de rupture totale, les données montrent que la plupart des étudiants restent dans un univers disciplinaire proche de leur formation d’origine. Celles et ceux qui commencent une licence de sciences humaines et sociales, de droit ou de sciences expérimentales poursuivent souvent dans ces mêmes domaines ou dans des filières voisines. La logique dominante n’est donc pas celle du grand saut, mais plutôt celle de l’ajustement progressif.
Certaines formations font néanmoins figure de points de départ majeurs. C’est le cas de la filière santé, qu’elle s’appelle « première année commune aux études de santé (Paces) » ou « parcours accès santé spécifique (Pass) » : chaque année, une partie importante des étudiants s’en détourne après la première année, en se réorientant vers des licences scientifiques, des diplômes du secteur sanitaire et social ou, plus rarement, vers les filières juridiques ou littéraires. Malgré sa réforme, le Pass reste ainsi un espace de réajustement des parcours très fréquent.
À l’inverse, d’autres filières apparaissent comme des points d’arrivée privilégiés. Les brevets de technicien supérieur (BTS), en particulier, accueillent chaque année un grand nombre d’étudiants venus d’horizons très divers : université, santé, sciences humaines, etc.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Enfin, certains domaines, comme les licences Arts, Lettres, Langues ou Droit, Économie, Gestion, connaissent des flux relativement stables : les réorientations y restent internes, comme si les étudiants cherchaient moins à changer de cap qu’à modifier leur angle d’approche (contenus, options, établissements, etc.).
En somme, nous pouvons affirmer que les trajectoires étudiantes se complexifient. Derrière ces mouvements, il ne faut pas voir un simple signe d’instabilité : les réorientations dessinent de nouvelles manières de construire un projet, par essais, par détours et par réajustements.
Les titulaires d’un bac général sont surreprésentés parmi les étudiants en réorientation après une première année dans l’enseignement supérieur : ils représentaient 73 % des candidats acceptant une nouvelle proposition en 2023, contre 68 % en 2019. À l’inverse, la part des bacheliers technologiques et professionnels parmi les étudiants en réorientation a reculé entre 2019 et 2023, passant respectivement de 22 % à 19 % et de 10 % à 8 %. À des fins de contextualisation, les titulaires d’un bac général représentaient 54 % des diplômés du bac en 2022, contre 20 % pour les technologiques et 26 % pour les professionnels, ce qui indique une plus forte réorientation des généralistes.
Cette dynamique peut refléter une plus grande flexibilité des parcours ou, à l’inverse, des obstacles spécifiques freinant la mobilité académique des autres bacs.
Durant la même période, une logique semblable se retrouve du côté des catégories sociales : les enfants de cadres et professions intellectuelles supérieures passent de 30 % à 32 % du public en réorientation, tandis que les enfants d’ouvriers reculent de 14 % à 11 %. Ces chiffres sont à mettre en regard de leur poids dans la population (21,7 % pour les cadres, 18,6 % pour les ouvriers) et parmi les bacheliers : un quart des titulaires du bac sont issus d’un milieu de cadres. Leur surreprésentation en réorientation s’inscrit donc dans une continuité sociale.
La réussite scolaire précédente a aussi une influence : les réorientés sans mention au bac représentaient 47 % du public en 2018, contre 33 % en 2023. Dans le même temps, la part des mentions « assez bien » augmente, devenant même majoritaire en 2022 (36 %). Cette évolution suit celle du système d’évaluation, qui est marqué par l’essor du contrôle continu.
Enfin, le sexe administratif révèle des disparités genrées : en 2023, 59 % des réorientés sont des filles contre 41 % de garçons, en hausse par rapport à 57 % et 43 % en 2018. Ces écarts sont cohérents avec les taux d’obtention du bac (93 % des filles contre 88 % des garçons en 2022), mais aussi avec des stratégies différenciées de choix d’orientation selon le genre.
Comment l’expliquer ? La réorientation mobilise des ressources inégalement distribuées : compréhension des mécanismes d’affectation, capacité à formuler des vœux stratégiques, anticipation des calendriers, accès à un accompagnement souvent familial ou encore confiance en sa légitimité à changer de voie. Autant d’éléments qui prolongent la critique d’un système scolaire méritocratique en apparence, mais inégalitaire dans les faits.
L’évolution des usages de Parcoursup montre une chose : les étudiants utilisent de plus en plus la première année pour « tester », voire réajuster, leur orientation. Ce n’est pas un mal en soi : expérimenter, essayer, se tromper fait partie de la vie étudiante. Mais, cela suppose que les institutions suivent, avec des capacités d’accueil adaptées, un accompagnement renforcé, et surtout une équité entre les primo-entrants et les réorientés.
Or, sur ces points, les politiques publiques accusent un retard : les réorientations ne sont ni anticipées ni outillées, et les étudiants les plus fragiles restent ceux qui en payent le prix.
Les lycéens et les étudiants souhaitant se réorienter en première année d’études supérieures passent par la même plateforme. Ce phénomène complexifie la gestion des places, car les candidats peuvent postuler tout en restant inscrits dans leur formation actuelle. Pensée comme un outil d’accès à l’enseignement supérieur, Parcoursup joue désormais aussi un rôle central et parfois flou dans les réorientations.
La réorientation ne peut pas être considérée comme un échec, c’est souvent la preuve d’un ajustement lucide. Encore faut-il que les outils suivent, et que les logiques d’exclusion ne se perpétuent pas. Plutôt que de juger les étudiants qui changent de voie, il est temps de reconnaître qu’au vu de l’évolution du système éducatif, la première année d’études est devenue un moment d’exploration souvent nécessaire.
Il s’agit maintenant collectivement de faire en sorte qu’elle ne devienne pas une fabrique de tri social. Cela suppose d’adapter les bourses, logements, et dispositifs d’aide aux étudiants déjà inscrits dans le supérieur. C’est une manière de réduire les inégalités de « mobilité scolaire ».
Dorian Vancoppenolle ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
02.06.2025 à 14:52
Simon Chadwick, Professor of AfroEurasian Sport, EM Lyon Business School
Paul Widdop, Associate Professor of Sport Business, Manchester Metropolitan University
Ronnie Das, Associate Professor in Data Science, Sports Analytics and AI, The University of Western Australia
La finale masculine de la Ligue des champions 2025 de l’UEFA s’est terminée par un triomphe du Paris Saint-Germain sur l’Inter de Milan (5-0). PSG et Inter, deux équipes stars de football. Paris et Milan, deux villes emblématiques de la mode. Fonds qatari Qatar Sports Investments et fonds états-unien Oaktree, deux propriétaires richissimes.
Quelle qu’ait été l’équipe gagnante, l’UEFA loue le succès de son nouveau format, impliquant plus d’équipes, plus de matchs et plus de fans. Bien sûr, tout le monde n’est pas d’accord avec ce nouveau format. Mais en résultats commerciaux, il ne fait aucun doute que la Ligue des champions continue de générer d’énormes sommes d’argent pour toutes les personnes impliquées.
Grâce aux droits de diffusion lucratifs, aux accords de sponsoring et à la vente de billets, les sommes distribuées aux clubs à l’issue de la compétition de cette saison sont exorbitantes : plus de 2,4 milliards d’euros de prix en jeu, contre 2 milliards d’euros l’an dernier.
En atteignant la finale, le Paris Saint-Germain (PSG) a déjà gagné 138 millions d’euros, et l’Inter Milan 137,39 millions d’euros.
Le PSG a reçu une récompense supplémentaire de 6,46 millions d’euros, tandis que la victoire devrait également générer environ 35,58 millions d’euros de revenus futurs en participant à des tournois comme la Supercoupe d’Europe.
La qualification pour la finale a également stimulé la valeur de la marque des clubs et l’engagement des fans. Dans les dernières étapes du tournoi, l’Inter Milan a connu une énorme croissance de son nombre de followers sur les réseaux sociaux.
Mais malgré tous les chiffres importants figurant sur les relevés de revenus et les comptes de médias sociaux, la finale de cette année a une dimension culturelle qui est difficile à mesurer uniquement en chiffres.
Paris et Milan sont toutes deux des capitales mondiales de la mode, abritant des créateurs célèbres et des marques convoitées dans le monde entier. Le PSG et l’Inter Milan ont pour mission d’imiter ces marques, avec un football attrayant qui apporte prestige et héritage.
Certains parallèles peuvent être établis entre le style des équipes et les deux villes rivales. Le PSG, par exemple, en se concentrant sur la construction d’une équipe remplie de jeunes talents locaux, a réussi à refléter la sophistication et la flamboyance de Paris.
À lire aussi : Derrière la rivalité des clubs de football, celle (de l’ego) de leurs présidents
Les partenariats de l’équipe avec Jordan et Dior positionnent le club comme un réceptacle pour l’image mondiale de la ville : audacieuse, luxueuse, cosmopolite.
L’Inter de Milan, quant à elle, bien qu’elle manque de joueurs de renom, incarne une approche italienne classique, disciplinée et défensive du football – historiquement appelée catenaccio, et pouvant se traduire par « verrou ». Un accord parfait avec le style vif et distinctif des maisons de couture basées à Milan.
Cette identité n’est pas enracinée dans la flamboyance, mais dans le raffinement et la rigueur – à l’image de la confection précise de Prada et Armani. Si le PSG est l’emblème du luxe mondial, l’Inter est le modèle de la culture du design italien, moins performatif, mais plus exigeant.
Ensemble, le PSG et l’Inter sont les ambassadeurs de l’identité urbaine pour ces villes. Paris et Milan cherchent à exercer une influence bien au-delà de leurs frontières, une stratégie de soft power non seulement à travers l’architecture ou le tourisme, mais aussi à travers la performance esthétique du sport.
De cette façon, le football devient le théâtre d’une compétition symbolique entre les villes, où l’identité civique est canalisée à travers des images symboliques et matérielles telles que des kits, des campagnes et des fans internationaux. Dans cette finale, il y a un choc d’ambition urbaine, un jeu de soft power entre deux des métropoles les plus soucieuses de leur image en Europe.
Sur le plan géopolitique, les enjeux sont nombreux. La deuxième participation du PSG à une finale de la Ligue des champions est d’une importance capitale pour les propriétaires qataris du club. Le président Nasser al-Khelaïfi a passé des années à investir dans des joueurs vedettes étrangers pour aider à construire l’image de l’État du Golfe. Ces dernières saisons, le club a changé de stratégie vers la signature de jeunes talents locaux.
Cela a permis au PSG de se positionner comme un club parisien tout en renforçant les relations qatariennes avec le gouvernement français. C’est particulièrement important à l’heure actuelle car, à partir de la saison prochaine, le PSG aura un rival local. L’année dernière, LVMH a acquis le Paris FC, qui semble prêt à se battre avec son rival local pour le titre de club le plus en vue de la capitale.
Pour sa part, l’Inter a récemment changé de propriétaire, en passant des mains de la famille Zhang à celles du fonds d’investissement Oaktree. Acquis par une entreprise chinoise en 2016, le club a connu des difficultés – malgré une autre finale de Ligue des champions en 2023 – alors que la tentative de révolution du football chinois a échoué.
En mai 2024, le club a été racheté par un fonds d’investissement américain. Ces dernières années, il s’agit d’une tendance dans le football européen selon laquelle le capital-investissement américain a triomphé des investissements soutenus par les États.
Tout cela met en place une autre bataille de football classique de notre époque. Alors que 450 millions de personnes regardent une finale de la Ligue des champions, le ballon rond est devenu un choc d’idéologies autant qu’il s’agit de stars, de villes et de mode.
Simon Chadwick teaches for UEFA's Academy and is a Programme Lead for the European Club Association.
Paul Widdop et Ronnie Das ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
02.06.2025 à 12:46
Sophie Renault, Professeur des Universités en Sciences de Gestion et du Management, Université d’Orléans
Adoptés par de nombreuses marques, les visuels de figurines sous starter pack ont rapidement envahi les réseaux sociaux. Derrière cette stratégie virale en apparence efficace se cache une communication mimétique, simplificatrice qui s’est rapidement trouvée en situation d’essoufflement. Une tendance qui en dit long sur les dérives de la communication à l’ère de l’instantanéité.
En avril 2025, il était difficile d’échapper à la vague des « starter packs ». Les réseaux sociaux LinkedIn, Instagram ou bien encore Facebook ont été submergés par des visuels, tous construits selon le même schéma : une figurine numérique, enfermée dans un blister plastique, entourée d’accessoires miniatures et nommée selon un profil type : « Consultante dynamique », « Manager HPI », « RH en télétravail »… Le tout génère immédiatement un effet de connivence : l’on s’identifie, on like, on partage.
Le plus souvent généré par intelligence artificielle, le starter pack reprend l’idée d’associer une série d’objets représentatifs à un profil type, en l’inscrivant dans l’esthétique du jouet. De madame et monsieur Tout-le-Monde aux personnalités publiques comme Élodie Gossuin ou Alexia Laroche-Joubert, en passant par différentes organisations, tous ont contribué à populariser le format starter pack. France Travail, l’Afpa, Basic Fit, Lidl, Paul, Vichy, Michelin ou bien encore Extrême Ice Cream… nombreuses sont les organisations ayant décliné leur univers sous forme de figurines stylisées.
Le format séduit, car il est immédiatement lisible, amusant, propice à l’interaction. Il permet aussi aux acteurs institutionnels ou marchands d’adopter un ton plus léger, plus complice.
Mais cette efficacité visuelle repose sur une logique de standardisation, voire de blanding. In fine, ce qui fait la force du starter pack, c’est-à-dire sa clarté formelle et sa facilité de mise en œuvre, est aussi ce qui a rapidement causé sa perte.
En quelques semaines à peine, la mécanique se retourne contre elle-même. Les publications se ressemblent, les accessoires deviennent interchangeables, les profils sont redondants. L’œil se lasse, l’attention baisse, l’effet de surprise disparaît.
La tendance se banalise au point de susciter l’ironie et la lassitude des internautes. Ce rapide essoufflement est typique des feux de paille numériques, où la viralité repose sur l’imitation, jusqu’à l’overdose.
Mais ici, l’enjeu est plus profond : il interroge la stratégie des marques elles-mêmes. Car en reprenant ce format sans en questionner les limites, elles contribuent à une communication mimétique, standardisée, où l’unicité du message est sacrifiée au profit de la visibilité à très court voire ultra court terme.
À lire aussi : Marketing sur les réseaux sociaux : à chaque produit son influenceur…
Au-delà de la redondance visuelle, le format pose problème dans ce qu’il représente : il réduit une personne, un métier ou un style de vie à une série d’attributs figés. La mise en perspective des métiers en tension par France Travail est de ce point de vue symptomatique. Enfermés dans leur « starter pack », un agriculteur avec fourche, tracteur et pot à lait ou bien encore l’aide de cuisine avec une poêle et un faitout. La caricature n’est pas seulement visuelle. L’humour masque mal la simplification excessive. Et cette simplification est d’autant plus problématique que nombre des organisations qui ont surfé sur cette tendance se veulent inclusives.
Le choix esthétique du blister plastique n’est pas anodin. Il évoque l’univers de l’objet standardisé, du produit prêt à consommer, de la figurine figée. Cette symbolique plastique, ludique en apparence, entre en dissonance avec les discours actuels sur la responsabilité des marques, la durabilité ou bien encore l’authenticité.
Abonnez-vous dès aujourd’hui !
Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).
Autre élément sujet à polémiques : la plupart de ces visuels sont générés par intelligence artificielle (IA). La promesse de gain de temps et d’efficacité graphique masque une réalité moins reluisante : production massive de contenus à faible valeur ajoutée, mais dont l’empreinte carbone est croissante. La multiplication d’images par IA interroge profondément à l’heure où la sobriété numérique devient un objectif affiché par les organisations. Combien de « prompts » avant d’obtenir le starter pack espéré ?
Face à cette standardisation accélérée, une contre-tendance artisanale a vu le jour. En écho à l’initiative du dessinateur français Patouret, plusieurs illustrateurs ont lancé le hashtag #StarterPackNoAI pour proposer des versions dessinées à la main de ces figurines, revendiquant une démarche 100 % humaine et incarnée.
Une manière de remettre de la singularité dans un format devenu générique et de rappeler que la créativité n’a pas à être automatisée pour être pertinente.
Beaucoup d’organisations ont ainsi, au travers de ce choix de communication, ouvert la voie aux critiques. Citons les commentaires suscités par la mise en perspective des métiers en tension par France Travail :
« Pas ouf d’utiliser cette trend polluante, terriblement gourmande en ressources naturelles et un véritable pied-de-nez aux artistes alors que des graphistes inscrits [à France Travail] seraient ravis de rejoindre les équipes de Com’ en DR [direction régionale], DT [direction territoriale], DG [direction générale]… […] Surfer sur les tendances de ce genre, pour moi, c’est remettre en question le sérieux de l’institution. Encore une fois, il y a des graphistes qui cherchent du taf, et ça n’a jamais dérangé différentes strates de France Travail de faire appel à des prestataires… »
ou bien encore un laconique :
« Pas de RSE à FT [France Travail], juste “greenwashing et trendsurfing”. »
Le succès éclair du starter pack en dit long sur les tensions qui traversent aujourd’hui la communication des marques.
Tiraillées entre la nécessité de produire vite, de suivre les tendances, d’être vues, et la volonté de construire du sens, elles cèdent trop souvent à l’appel de formats prêts à l’emploi, esthétiques mais creux.
Le starter pack aura été un joli emballage pour peu de messages. Un outil de communication qui amuse un instant, mais ne construit ni confiance ni engagement durable. Ce n’est pas un nouveau langage, c’est un symptôme : celui d’une communication fascinée par l’effet, mais en perte de sens.
Sophie Renault ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
02.06.2025 à 12:46
Clara Letierce, Enseignante-Chercheure en Management Stratégique, Burgundy School of Business
Anne-Sophie Dubey, Maîtresse de conférences en Théorie des organisations (Cnam), PhD Sciences de gestion/Éthique des affaires (Polytechnique Paris), MSc Philosophie et Politiques publiques (LSE), Conservatoire national des arts et métiers (CNAM)
Caroline Mattelin-Pierrard, Maître de conférences en sciences de gestion et du management, Université Savoie Mont Blanc
Matthieu Battistelli, Maitre de conférences en sciences de gestion, IAE Savoie Mont Blanc
Dans l’entreprise libérée, le rôle de décideur se partage au sein des équipes. Alors, sans chef pour trancher, qui ose prendre des décisions difficiles ? L’entreprise libérée donne-t-elle du courage ? Oui, à condition qu’elle équilibre autonomie individuelle et préservation du collectif, et fasse du courage une pratique partagée au quotidien.
En mars dernier, Jean-François Zobrist, à la tête de la fonderie d’Hallencourt de 1983 à 2009, est mort. Ce dirigeant d’entreprise singulier a mis en place son concept de « l’entreprise libérée ». Ses mantras : la confiance plus que le contrôle, l’homme est bon alors faisons-lui confiance.
Traditionnellement, le manager incarne un nœud de pouvoir et porte, souvent seul, les responsabilités des décisions. Dans l’entreprise libérée, ce rôle de décideur se partage au sein des équipes. Alors, sans chef pour trancher, qui prend la responsabilité de dire à ses collègues quand ils ne sont « plus dans le coup », que l’entreprise perd en efficacité, qu’un recrutement ne fonctionne pas. En résumé, qui ose dire et prendre des décisions difficiles ?
Les entreprises libérées semblent exiger davantage de courage. Comment créer un environnement favorable à ces actions courageuses ? Ou, dis autrement, comment permettent-elles de construire des organisations encourageantes ? Longtemps perçu comme une vertu individuelle au sens d’Aristote, le courage au travail mérite d’être repensé collectivement. En nous inspirant de la philosophie néo-aristotélicienne et de travaux récents en sciences de gestion, nous avons étudié trois entreprises – FlexJob, Innovaflow et Fly The Nest – assimilées entreprise libérée pour comprendre ce qui permet aux salariés d’oser être, dire et agir, tout en préservant le ciment du collectif.
Les salariés participent activement aux choix moraux et à leur incarnation dans le déploiement stratégique de l’entreprise. Ils vont parfois jusqu’à refuser des projets incompatibles avec leurs valeurs communes.
« L’éthique, c’est se dire : “On se fait suffisamment confiance dans la collaboration, on vient se nourrir l’un l’autre.” On ne se met pas en mode : “Je viens prendre ce que j’ai à prendre et je me casse.” Donc il y a ce côté-là entre nous. Et ça se décline aussi sur l’éthique professionnelle avec les clients. » (Innovaflow)
Ces discussions sont complexes, car elles font appel aux valeurs et expériences personnelles. Elles exposent les vulnérabilités de chacun. Il ne s’agit pas seulement d’oser, mais de savoir quand et comment le faire pour préserver le collectif en limitant les tensions. Autrement dit, les décisions courageuses doivent intégrer leur impact émotionnel sur le collectif. Les salariés doivent discerner quand et où partager leurs arguments. Les questions financières et salariales, par exemple, peuvent en fait devenir éthiques au regard des enjeux émotionnels qu’elles provoquent.
« En sachant que la [question de l’argent] va faire vivre des émotions parce qu’on est des humains et que l’argent, c’est un sujet tabou qui cristallise plein de choses… […] il y a une logique de performance, de développement de l’activité, de justice… Le salaire n’est pas forcément toujours juste vis-à-vis d’autres dans la boite par rapport à qui apporte effectivement plus. » (FlexJob)
Pour encourager ces délibérations, ces entreprises mettent en place des dispositifs pour « outiller » le courage :
« Je prends l’exemple du plan de charge d’une personne qui a onze jours, une personne qui a deux jours. Si la règle c’est de tous viser sept ou huit jours, on s’appuie sur cette règle et probablement qu’il n’y aura même pas besoin de le dire. […] Tu n’as même plus besoin de gérer les tensions. Mais pour ça, il faut créer les conditions. » (Flexjob)
« On a remis à jour notre process de décision en se disant : “Déjà, c’est quoi, une décision très stratégique, une décision moyennement stratégique ?” Et à chaque fois, il y a un process différent. Et on donne la possibilité de faire à l’écrit ou à l’oral. Certains ont dit :“Moi, j’ai besoin d’avoir du temps avant de décider.” Donc on a dit : “D’abord, tu envoies un message à l’écrit et après, on décide à l’oral.” Donc, de séparer des temps. » (Fly The Nest)
Plutôt que de subir les règles imposées par des normes financières ou sociales, les entreprises libérées développent une approche évolutive de leurs pratiques, ce qui demande du courage. Chez FlexJob, l’un des principes fondateurs est la capacité permanente à questionner et modifier les règles existantes. Chaque processus, chaque outil de gestion peut être revu et amélioré si le collectif estime qu’il ne correspond plus aux besoins de l’entreprise.
Abonnez-vous dès aujourd’hui !
Chaque lundi, des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH, marketing, finance…).
« Nous avons commencé à compter notre temps de travail. Nous, on veut travailler idéalement 32 heures par semaine. Tous les mois, mon cercle va demander aux gens : “Est-ce que vous vous situez à peu près à 32 heures par semaine ?” […] Voilà, c’est des petites choses, c’est du test, mais pour encourager l’individu qui essaie de gérer beaucoup trop de choses, à faire ce qui est bon pour elle et l’organisation. » (Fly The Nest)
Si l’entreprise libérée se veut un espace propice au courage, elle soulève aussi tensions et paradoxes :
1. Trop de bienveillance empêche-t-elle le courage ?
La culture de la bienveillance, souvent mise en avant dans ces entreprises, peut paradoxalement freiner l’expression d’un courage authentique. Les employés peuvent hésiter à exprimer un désaccord par peur de heurter le collectif.
« Moi, j’ai encore du mal à faire des feedbacks, j’ai encore du mal à le faire, parce que je suis de nature très empathique, parce que je déteste le conflit. » (Fly The Nest)
2. L’autonomie est-elle oppressive ?
Le collectif peut instaurer des normes implicites de comportement qui restreignent la liberté individuelle. Si chaque individu est responsable de ses actes, la pression sociale peut ainsi devenir un substitut à la hiérarchie traditionnelle ou à la règle. Ce phénomène est documenté dans certaines entreprises libérées, où l’adhésion aux valeurs communes devient une injonction difficile à questionner.
3. Le courage du désaccord est-il réellement encouragé ?
L’un des piliers des entreprises libérées est la prise de décision collective. Le désaccord est souvent sous-exploité dans ces entreprises. Le mécanisme d’objection, bien que prévu, n’est pas facilement utilisé, par peur de dégrader la relation à l’autre et de se voir exclu du collectif (c’est ce que l’on nomme le « dilemme relationnel »).
« Je propose d’essayer non pas de définir des règles plus claires pour qu’il y ait moins de conflits, mais au contraire de définir des zones communes plus grandes pour qu’il y ait plus de conflits, et régler systématiquement ces conflits pour qu’on s’habitue à se dire les choses et qu’on crée la confiance, en “s’affrontant” sur des choses un peu plus triviales, pour être capables de dire quand ça ne va pas. » (Fly The Nest)
Au-delà de son outillage, le courage au travail se nourrit de mécanismes de distanciation critique. Incarnée par des rituels et des moments de recul, elle introduit une culture du courage permettant aux salariés de partager librement leurs doutes et d’être soutenus dans leurs prises de décision. Cette régulation collective prévient les risques de dérives individualistes et/ou sectaires, identifiés comme des dangers dans les entreprises libérées.
Le courage n’est pas qu’un état d’esprit : il repose sur des dispositifs organisationnels aidant les individus à gérer leurs craintes des répercussions négatives de leurs actes. Plutôt que d’évacuer à tout prix les émotions, il s’agit de les interroger pour y réagir dans la juste mesure, dans la lignée de la pensée d’Aristote. Il n’y a pas de courage sans peur, ce qui implique comme corollaire que le courage ne doit pas devenir une fin en soi.
Le courage, c’est parfois ne pas céder à une franchise prématurée, c’est savoir attendre ou se taire, pour protéger la qualité de la relation au travail et choisir le bon moment. Finalement, l’entreprise libérée est-elle véritablement encourageante ? Oui, à condition qu’elle équilibre autonomie individuelle et préservation du collectif et faire du courage une pratique partagée au quotidien. Loin d’être un simple laisser-faire, ces entreprises mettent en place des dispositifs pour structurer et cultiver l’exercice du courage afin que chacun soit encouragé à oser être, dire et agir en toute responsabilité.
Anne-Sophie Dubey est co-fondatrice du Disruptive Co-Consulting Group (DCG) LLC. Anne-Sophie Dubey a mené une thèse CIFRE (bourse de l'ANRT et financement par La Fabrique de l'industrie).
Caroline Mattelin-Pierrard a reçu des financements de la Fondation de l'Université Savoie Mont Blanc.
Matthieu Battistelli a reçu des financements de la Fondation de l'Université Savoie Mont Blanc.
Clara Letierce ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
02.06.2025 à 12:45
Caroline Diard, Professeur associé - Département Droit des Affaires et Ressources Humaines, TBS Education
Hybridation et hyperconnectivité : une stratégie d’évitement pour échapper aux tâches domestiques ? Débranche et revenons à nous ! Une étude menée en 2022 conclut que les hommes prennent davantage part aux tâches domestiques et familiales en situation de télétravail à domicile. Le télétravail, le jackpot de l’équilibre vie professionnelle-personnelle ?
Cinq années après la pandémie de Covid-19 et le télétravail massif, les scientifiques en organisation ont mis en lumière les effets secondaires du travail hybride : agencement organisationnel, brouillage des frontières vie privée/vie professionnelle et surcharge de travail. Le télétravail touche aujourd’hui un quart des salariés en France, deux tiers des cadres. Il est particulièrement répandu chez les personnes en CDI, les plus diplômées, chez les plus jeunes et dans le secteur privé.
Cette révolution copernicienne du travail produit des effets dans la sphère intime du couple. Le rapport du Haut Conseil à l’égalité entre les femmes et les hommes, « Pour une mise en œuvre du télétravail soucieuse de l’égalité entre les femmes et les hommes », mentionne de nombreuses inégalités subies par les femmes, notamment en matière de répartition des tâches domestiques et de charge mentale. Le déséquilibre entre hommes et femmes serait amplifié avec le télétravail. En cause les difficultés de garde d’enfants et l’espace de travail inadapté.
Nouvelle donnée : ce mode de travail hybride permet d’échapper à certaines tâches domestiques. Pour ce faire, nous avons mené une étude quantitative entre le 3 février et le 3 mars 2022 auprès de 211 télétravailleurs à domicile, au lendemain de la levée de l’obligation de télétravailler. Elle conclut que, parmi notre échantillon, les hommes prennent davantage part aux tâches domestiques et familiales en situation de télétravail à domicile. Une meilleure conciliation des temps de vie et une moindre participation aux tâches domestiques pourraient ainsi s’avérer favorables aux femmes.
Alors le télétravail à domicile peut-il réduire les inégalités professionnelles de genre en créant un ré-équilibrage des tâches en faveur des femmes ?
Pour la sociologue Marianne Le Gagneur, le télétravail ne redistribue pas les cartes d’une division sexuelle du travail domestique inégalitaire. Les télétravailleuses tablent sur cette journée pour laver leur linge ou faire la vaisselle par exemple, elles n’ont plus de véritables pauses. L’enquête 2023 de l’UGIC-CGT suggère également que le télétravail se solde pour les femmes par des journées plus intenses. Ce contexte de difficultés techniques rend leur activité moins fluide et plus hachée que celle des hommes – problèmes de connexion, de matériel, d’applications numériques.
Nos résultats vont partiellement à l’encontre de ces études et enquêtes. Ils enrichissent ceux de Safi qui conclut à une répartition plus équitable des tâches domestiques en situation de télétravail. À la question « Quand vous travaillez à domicile, profitez-vous de l’occasion pour vous occuper de vos enfants le cas échéant ? 16 % des hommes répondent « souvent ou très souvent » contre 8 % pour les femmes.
À la question « Quand vous travaillez à domicile, en profitez-vous pour vous occuper des tâches domestiques ? » 29 % des hommes sont concernés contre 28 % pour les femmes.
Les hommes prennent part aux tâches domestiques et familiales. Ces résultats ambivalents et surprenants pointent le télétravail comme un enjeu au cœur du rééquilibrage des temps et une répartition différente des contraintes domestiques entre les hommes et les femmes.
Pour 82 % des répondants à l’étude de l’UGIC-CGT, le télétravail est plébiscité pour garantir un meilleur équilibre vie professionnelle/vie personnelle. Cette promesse d’une meilleure articulation des temps de vie s’accompagne d’une augmentation du temps de travail – 35,9 % des répondants – et de difficultés à déconnecter. Seulement 36 % des répondants bénéficient d’un dispositif de droit à la déconnexion, alors même que ce droit se trouve dans le Code du travail. Cela suggère que le télétravail, qu’il soit exclusif ou en alternance, est associé à des niveaux de tensions d’équilibre pro/perso inférieurs à ceux du travail exclusivement en présentiel.
Abonnez-vous dès aujourd’hui !
Chaque lundi, des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH, marketing, finance…).
Les derniers chiffres de l’Observatoire de l’infobésité sont éloquents : 20 % des e-mails sont envoyés hors des horaires de travail (9 heures-18 heures) ; 25 % des managers se reconnectent entre 50 et 150 soirs par an ; 22 % des collaborateurs ont entre 3 et 5 semaines de congés numériques (sans e-mails à envoyer) par an. Alors que les emails sont identifiés comme source de stress générant des comportements d’évitement.
La notion d’évitement correspond à des efforts volontaires d’un individu pour faire face à une situation qu’il évalue comme stressante. Elle implique que cette situation est perçue comme difficile à surmonter et menaçante pour son bien-être. Un individu met en place différents processus entre eux. Il peut ressentir cet événement comme menaçant. L’enjeu est d’échapper à une situation inconfortable.
La dépendance à l’hyperconnectivité peut s’expliquer par des injonctions implicites ou une forme d’autocontrôle et d’autodiscipline. Cela suggère une servitude volontaire où les employés répondent aux sollicitations professionnelles à tout moment. Cette hyperconnectivité pourrait être un prétexte pour échapper aux tâches domestiques considérées comme peu valorisantes. Le collaborateur, volontairement ou non, se connecte ou répond à des sollicitations en dehors des horaires classiques de travail. Peut-être pour échapper à des contraintes personnelles et familiales ? Et s’investir dans un champ unique limitant la charge mentale.
L’imbrication croissante des espaces de travail et de vie personnelle due à l’hyperconnectivité engendre des conflits de rôle. Elle ajoute un stress supplémentaire aux individus et compromet leur bien-être. Autrefois, les frontières entre les temps et lieux de travail et de vie privée étaient claires : on se connectait au bureau à 9 heures et on se déconnectait à 18 heures, laissant ainsi le travail derrière soi. Aujourd’hui, ces frontières se sont effacées, rendant la déconnexion plus difficile à gérer.
Cette hybridation des espaces de vie, où le travail et les activités domestiques ou familiales s’entremêlent, apporte certes de la flexibilité. Elle permet par exemple d’emmener ses enfants à la crèche avant de se connecter au travail. Mais ce « mélange des genres » peut aussi être source de stress. Il génère un sentiment d’incapacité à tout gérer en même temps, provoquant des conflits de rôle, où les exigences professionnelles empiètent sur la vie personnelle et inversement.
Caroline Diard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
01.06.2025 à 20:24
Pierre-Nicolas Baudot, Docteur en science politique, Université Paris-Panthéon-Assas
Le 5 juin, les militants du Parti socialiste désigneront leur premier secrétaire – les finalistes étant Olivier Faure et Nicolas Mayer-Rossignol. Longtemps hégémonique à gauche, parti de gouvernement, le PS s’est effondré en 2017 puis a connu sa plus lourde défaite électorale avec la candidature d’Anne Hidalgo (1,7 % des voix) lors de la présidentielle de 2022. Quelles sont les causes structurelles de ce lent déclin ? Le PS peut-il se remettre en ordre de bataille pour les municipales de 2026 et la présidentielle de 2027 ?
À l’occasion de son 81e congrès à Nancy, le Parti socialiste (PS) s’est mis en ordre de bataille pour désigner sa direction et arrêter ses principales orientations. À un an d’un scrutin municipal qui lui est traditionnellement favorable et à deux ans d’une élection présidentielle encore illisible, cet exercice expose au grand jour les maux profonds du parti. Il donne à voir le tableau paradoxal d’une organisation marginalisée électoralement sur la scène nationale, mais engluée dans des logiques anciennes de professionnalisation et de présidentialisation.
La lecture des trois textes d’orientation du congrès de Nancy dessine quelques lignes idéologiques communes : la défense du rôle de la puissance publique dans la gestion de l’économie, une meilleure répartition des richesses, la nécessité de la transition écologique ou encore la confiance au projet européen. Cependant, au-delà de ces emblèmes, la réflexion apparaît particulièrement peu poussée sur plusieurs enjeux cardinaux, comme le rapport au capitalisme et à la mondialisation, la stratégie géopolitique ou, plus largement encore, la singularité d’un projet socialiste dans le monde actuel. Pour autant, tous les textes en appellent à la reprise d’un travail sur les idées et au rétablissement des liens avec la société civile.
Des éléments qui reviennent comme des airs populaires à chaque congrès du parti, depuis maintenant plusieurs décennies. Et de fait, le congrès de Nancy peine à paraître pour autre chose qu’un combat de personnes. Même l’alliance avec La France insoumise (LFI) n’est plus véritablement en jeu, puisque les différents textes proposent une alliance de la gauche non insoumise. Ce rapport du PS à la production d’idées permet de dépasser l’immédiate actualité du congrès pour saisir quelques tendances de plus long terme éclairant l’état actuel du parti.
Évoquant leur identité intellectuelle, les socialistes brandissent volontiers la référence à la social-démocratie, pour se démarquer tant du macronisme que d’une gauche de rupture renvoyée à son irresponsabilité et à sa naïveté. Cependant, la conversion du PS en parti de gouvernement a largement conduit – à l’instar des partis sociaux-démocrates étrangers – à faire de cette référence le signifiant d’une pratique du pouvoir plutôt que d’un contenu idéologique précis. Cela traduit, plus largement, l’érosion continue des capacités du parti à produire des idées et à justifier intellectuellement sa propre existence. Ce que Rafaël Cos a diagnostiqué comme un « évidement idéologique du Parti socialiste » s’exprime, par exemple, dans la faible portée idéologique de la formation des militants, la distance avec les intellectuels, la disparition des revues de courants ou le faible intérêt pour la production programmatique.
Plus encore, c’est la capacité du parti à travailler collectivement qui est en question. Les secrétariats nationaux, qui constituent les lieux ordinaires de l’expertise partisane, sont la plupart du temps très peu investis. S’ils se sont formellement multipliés au fil des années, c’est surtout pour accroître le nombre de places à la direction du parti. De même, si diverses conventions thématiques ont régulièrement été organisées, leurs conclusions sont traditionnellement vite laissées de côté. À l’inverse, les conflits sont légion et ont pris, à l’occasion des alliances avec LFI, des tours particulièrement violents. Et cela, alors même que l’éloignement idéologique entre courants est sans commune mesure avec ce que le parti a pu connaître par le passé.
Ce constat tient d’abord à des logiques sociales. À mesure qu’il s’est converti en un parti de gouvernement à partir des années 1980 et qu’il a accumulé des positions électorales, le parti s’est considérablement professionnalisé. Non seulement la part des élus dans ses instances de direction s’est accrue, mais de plus le travail quotidien du parti a de plus en plus été pris en charge par des collaborateurs d’élus, formés au métier politique.
Dans le même temps, la part des militants extérieurs à cet univers s’est réduite. En particulier, les militants simultanément engagés dans les secteurs associatifs ou syndicaux se sont considérablement raréfiés. Les relations avec ces espaces s’en sont mécaniquement trouvées modifiées : outre qu’elles se sont distendues, elles se sont professionnalisées dès lors que les relations avec le parti transitent essentiellement par les élus.
Cette dynamique s’articule bien sûr à l’évolution idéologique du parti, et notamment aux conséquences de sa mue sociale-libérale sur son image auprès des profils les plus populaires, mais également auprès des fonctionnaires (notamment des enseignants) pourtant historiquement proches du PS.
Cette professionnalisation a aussi eu pour conséquence, comme l’écrivent Rémi Lefebvre et Frédéric Sawicki, de « bouleverser l’économie interne et morale » du parti, au point que « les intérêts électoraux sont devenus prépondérants à tous les niveaux ». Cela s’est accompagné d’une place croissante laissée aux mesures professionnalisées de l’opinion, que constituent les médias et les sondages.
La professionnalisation du parti s’est également répliquée sur le fonctionnement collectif du parti. D’abord, ses succès électoraux depuis les années 1970 et jusqu’en 2017 ont permis au PS de constituer ce qui s’est apparenté à une véritable rente électorale. L’enjeu pour les principaux courants devenait alors de se maintenir à la direction du parti, pour participer à la gestion des ressources électorales et à la distribution des investitures.
S’est alors progressivement instauré ce que le politiste Thierry Barboni a qualifié de « configuration partisane multipolaire ». Cette expression décrit la présence, au sein de la majorité du parti, de plusieurs sous-courants s’entendant pour gérer le parti. Les désaccords idéologiques se trouvent alors minorés, derrière des jeux d’allégeance peu lisibles et un important flou stratégique considéré comme une condition de l’unité politique. Surtout, ces désaccords sont dissociés des enjeux de désignation de la direction. C’est ce dont témoigne le congrès du Mans, en 2005, qui aboutit à une synthèse générale entre des courants qui s’étaient pourtant fortement affrontés peu avant au sujet du Traité constitutionnel européen.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
La défaite du PS en 2017 puis, surtout, les alliances à gauche de la Nouvelle Union populaire écologique et sociale (Nupes) et du Nouveau Front populaire (NFP) ont de nouveau mis face à face plusieurs camps distincts. Les espaces de la délibération collective du parti ne s’en sont pas, non plus, trouvés revigorés pour autant. La compétition pour la direction encourage une forme de maximisation des différences, quand bien même les divers textes d’orientation convergent vers de nombreux points, mais les débats collectifs demeurent peu nombreux. Surtout, ils ont peu à voir avec la définition d’un contenu idéologique.
C’est ce dont témoigne encore la candidature de Boris Vallaud, ancien soutien d’Olivier Faure, à la direction du parti. Si le dépôt d’une motion par le président du groupe socialiste à l’Assemblée nationale contre le premier secrétaire est un événement, il répond en réalité davantage aux enjeux d’incarnation qu’à une alternative politique profonde.
Ainsi le parti doit-il gérer l’expression interne du pluralisme et s’évertuer à contenir les divisions que laisse paraître la démocratie partisane, sans pour autant en tirer de réels bénéfices collectifs.
Enfin, le parti a connu une forte présidentialisation, c’est-à-dire que son organisation s’est largement faite autour des logiques imposées par l’élection présidentielle. Dès les lendemains de la seconde élection de François Mitterrand, en 1988, les différentes écuries présidentielles se sont développées autour des principaux « présidentiables du parti ». Cette logique a été maximisée dans les années 2000, puis institutionnalisée avec l’adoption des primaires. Chaque écurie est alors incitée à constituer ses propres ressources expertes, sans les mettre à la disposition de l’ensemble du parti au risque d’en voir les bénéfices appropriés par d’autres. L’accumulation d’expertise au fil du temps et la stabilisation d’une ligne commune dépendent donc largement de l’état des rapports de force.
Ainsi, si d’une part la « configuration partisane multipolaire » tend à suspendre le débat collectif, les différentes écuries entretiennent leurs propres espaces de travail hors du parti. Aujourd’hui encore, c’est moins l’accès des socialistes à diverses expertises qui est en jeu que la capacité du parti à travailler collectivement. Cela vaut d’autant plus que les faibles perspectives électorales du parti sur le plan national renforcent les divisions avec l’échelon local. En effet, nombre d’élus n’entendent pas renier les stratégies adoptées localement, au nom d’une stratégie nationale dont les retombées électorales paraissent faibles.
Ces évolutions ont accompagné la domination du PS sur l’ensemble de la gauche plusieurs décennies durant. Si elles ont un temps préservé la machine électorale des divisions, elles ont également conduit à dévitaliser fortement le parti. Ses capacités de médiation entre l’opinion publique et les espaces de pouvoir se sont largement affaiblies. À mesure que s’érodaient ses réseaux dans la société, ses facultés à tirer profit de l’activité du mouvement social s’amenuisaient, de même que ses possibilités de voir ses propositions et ses mots d’ordre infuser dans divers espaces sociaux. C’est également la place des militants qui a été modifiée, en raison de leur faible implication dans l’élaboration programmatique et dans la gestion de la vie du parti. Il en résulte que, non seulement ceux-ci sont aujourd’hui très peu nombreux (41 000 au congrès de Marseille en 2023), mais que de plus ils ont une faible emprise sur les destinées du parti.
En définitive, le PS paraît difficilement pouvoir faire l’impasse d’une refonte organisationnelle profonde. Il s’est construit au fil des décennies autour d’importantes ressources électorales et d’un statut de parti de gouvernement. Son effondrement national a cependant révélé un modèle adapté à la gestion de positions de pouvoir, plutôt qu’à la conquête électorale. Il en résulte le constat paradoxal d’une organisation aux perspectives de victoire présidentielle faible, mais encore paralysée des effets de la professionnalisation et de la présidentialisation.
Pierre-Nicolas Baudot ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
01.06.2025 à 17:06
Marie-Claire Considère-Charon, Université Marie et Louis Pasteur (UMLP)
En ce mois de mai 2025, le premier ministre britannique a réussi à sceller un accord avec Washington qui permet à son pays d’échapper dans une certaine mesure à la hausse des droits de douane promulguée par Donald Trump, et un autre avec l’UE, qui solde certains effets du Brexit.
C’est dans un contexte de nouvelles menaces sur son économie, déjà affaiblie par les répercussions commerciales du Brexit, que le Royaume-Uni s’est rapproché de ses deux principaux partenaires, les États-Unis et l’Union européenne, en vue de conclure des accords. En invoquant l’exemple de son illustre prédécesseur, Winston Churchill, le premier ministre britannique Keir Starmer s’est d’emblée montré résolu à ne pas « choisir entre l’Europe et le grand large ».
L’objectif du leader du parti travailliste, en poste depuis le 5 juillet 2024, est de concilier deux objectifs essentiels mais peu compatibles, semble-t-il : raffermir la relation transatlantique d’une part, et relancer les relations avec l’UE, d’autre part.
Dans le cadre du désordre géopolitique provoqué par les décisions intempestives de la Maison Blanche de taxer lourdement les produits importés aux États-Unis, le premier ministre s’est d’abord tourné vers son interlocuteur américain pour tenter de le convaincre d’appliquer au Royaume-Uni un traitement préférentiel.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Dès le 26 février 2025, à l’occasion de sa visite à la Maison Blanche, il avait tenté d’amadouer le président Trump en lui remettant l’invitation du Roi Charles à une seconde visite d’État, qui a été acceptée avec enthousiasme.
Le 3 avril 2025, au lendemain de l’annonce par la Maison Blanche d’une augmentation à 25 % des droits de douane sur les importations d’automobiles britanniques, Starmer a choisi de ne pas riposter mais d’agir à l’égard de son partenaire américain avec calme et sang-froid, selon ses propres termes, en soulignant que toutes ses décisions seraient uniquement guidées par l’intérêt national et les intérêts de l’économie britannique.
Sa démarche, au nom de la « relation spéciale » qui unit les deux pays, a également été étayée par des arguments commerciaux : il a rappelé que son pays n’enregistrait pas d’excédent commercial avec les États-Unis et qu’il était naturel que le président revoie à la baisse les droits de douane à l’encontre des produits britanniques. Il était en effet crucial pour Londres d’obtenir de moindres taux d’imposition, voire des exonérations, de façon à sauver des milliers d’emplois menacés, dans les secteurs de l’industrie automobile et de la sidérurgie.
Le volontarisme de Starmer, qui a pu compter sur une équipe soudée et des conseillers compétents et avisés, s’est toutefois heurté à des partenaires coriaces et à un Donald Trump versatile et peu conciliant, ce qui augurait mal d’une issue positive. Mais le moment s’est révélé propice au rapprochement, lorsque les États-Unis ont commencé à subir l’effet boomerang de leurs mesures punitives, à l’heure où les porte-conteneurs sont arrivés à moitié vides dans les ports américains.
Starmer est en effet parvenu, le 8 mai dernier, à signer avec Trump un accord par lequel Trump revenait sur son engagement à ne pas accorder d’exonérations ou de rabais sectoriels. Les droits de douane sont passés de 25 % à 10 % pour 100 000 voitures britanniques exportées chaque année. Les États-Unis ont également consenti à créer de nouveaux quotas pour l’acier et l’aluminium britanniques sans droits de douane, et à être plus cléments envers le Royaume-Uni lorsqu’ils imposeront à l’avenir des droits de douane pour des raisons de sécurité nationale sur les produits pharmaceutiques et d’autres produits.
En contrepartie, le Royaume-Uni a sensiblement élargi l’accès à son marché des produits de l’agroalimentaire américain comme le bœuf, ainsi que le bioéthanol mais n’a toutefois pas cédé à la pression de Washington, qui souhaitait le voir réviser à la baisse les normes britanniques en matière de sécurité alimentaire. Il s’agissait d’une condition préalable à toute forme d’assouplissement des échanges de denrées alimentaires et de végétaux entre le Royaume-Uni et l’Union européenne.
L’accord du 8 mai 2025 a une portée limitée car il ne couvre que 30 % des exportations britanniques, et l’industrie pharmaceutique n’a pas été prise en compte. Il devrait être suivi d’un accord commercial complet, mais aucun calendrier n’a été programmé. Et Trump peut revenir à tout moment sur les concessions qu’il a accordées au Royaume-Uni. Une autre critique majeure à l’encontre de cet accord est qu’il enfreint la clause de la nation la plus favorisée, qui figure en général dans les accords de commerce international, et permet à chaque pays de se voir appliquer une égalité de traitement par ses partenaires commerciaux.
Cet accord, qui est intervenu une semaine après la signature de l’Accord de libre-échange avec l’Inde, représente pour le premier ministre britannique une victoire politique, d’autant mieux accueillie qu’elle survient au moment où sa cote de popularité n’est plus qu’à 23 %, tant les critiques se sont multipliées quant à son déficit de leadership et à des mesures souvent jugées inéquitables. Keir Starmer s’est également attelé à une autre tâche primordiale : celle de la réinitialisation des relations avec l’Union européenne, qui s’était amorcée sous le mandat de son prédécesseur Rishi Sunak avec la signature du cadre de Windsor, qui allégeait le dispositif des échanges en mer d’Irlande.
Dans ce domaine comme dans celui de la relation transatlantique, il s’est agi d’un travail de longue haleine, jalonné par une longue série de rencontres et de réunions entre les autorités britanniques et la présidente de la Commission européenne, ainsi qu’entre leurs équipes, sous la direction du Britannique Nick Thomas-Symonds, ministre en charge du Cabinet office, de la Constitution et des Relations avec l’Union européenne, et du vice-président de la Commission européenne Maros Sefcovic.
Le sentiment, partagé entre les deux parties, de l’impérieuse nécessité de relancer des relations abîmées par « les années Brexit », obéissait à des raisons à la fois commerciales et géopolitiques. Il a permis l’émergence d’une nouvelle dynamique, où la défiance n’était plus de mise. Sans qu’il soit question de revenir sur l’engagement britannique du non-retour au marché unique ni à l’union douanière, l’ambition des Britanniques, comme celle des Européens, était de renforcer la coopération et la coordination en vue de nouvelles dispositions et d’actions conjointes au niveau des échanges et de la politique de sécurité et de défense.
Dans un contexte économique très difficile, il était urgent pour les Britanniques d’apporter des solutions au problème persistant des échanges entre le Royaume-Uni et son principal partenaire commercial, l’UE, qui avaient chuté de 15 % depuis 2019, désormais dépassées en volume par celles à destination des pays hors Union européenne.
L’accord signé le 19 mai 2025 avec l’UE à Lancaster House officialise une nouvelle phase des relations entre les deux parties et constitue une première étape vers une coopération renforcée. Il apporte des réponses concrètes sur certains dossiers critiques, comme celui des échanges transfrontaliers de marchandises, ou sensibles, comme celui de la pêche, et ouvre des perspectives prometteuses sur d’autres dossiers comme celui d’un partenariat de sécurité et de défense ainsi que celui de la mobilité des jeunes Européens et Britanniques.
Les nouvelles dispositions commerciales auront pour effet de réduire sensiblement l’impact de la frontière en mer d’Irlande sur les échanges de marchandises, en particulier entre la Grande-Bretagne et l’Irlande du Nord, qui continuent à pâtir du dispositif douanier, malgré la signature du Cadre de Windsor. En introduisant la mise en place d’une zone sanitaire et phytosanitaire entre le Royaume-Uni et l’UE, il met fin aux certificats sanitaires d’exportation et ouvre la voie vers un « alignement dynamique » des normes réglementaires des deux parties.
Les Européens demandaient que soient reconduits les droits de pêche qui, en vertu de l’Accord de commerce et de coopération entre le Royaume-Uni et l’UE de 2021, permettaient aux pêcheurs de l’UE d’accéder aux eaux territoriales britanniques jusqu’en 2026. Le Royaume-Uni a accepté la reconduction des droits de pêche des Européens pour 12 années de plus, jusqu’en 2038. Ces concessions ont été obtenues en échange de dispositions visant à faciliter l’entrée des denrées alimentaires sur le marché européen. Elles ont également ouvert la voie vers la mise en œuvre d’un pacte de défense et de sécurité.
Les turbulences géopolitiques déclenchées par l’administration Trump, ainsi que la poursuite de la guerre en Ukraine, ont donné un nouvel élan à la coopération en matière de défense et de sécurité entre le Royaume-Uni et l’UE. Le partenariat de sécurité et de défense signifie l’engagement mutuel à s’entendre sur les sujets majeurs comme celui du soutien à l’Ukraine et celui de l’avenir de l’OTAN, et les moyens de réduire la dépendance militaire vis-à-vis des États-Unis. Il ouvre la voie vers l’accès du Royaume-Uni au fonds européen de financement des États membres de l’UE, SAFE (Security Action for Europe) à hauteur de 150 milliards d’euros, qui sert à financer des équipements et des opérations militaires conjointes des pays de l’UE.
La mise en œuvre d’un programme de mobilité des jeunes afin de faciliter les échanges culturels et les projets pilotes était une question difficile dans la mesure où les jeunes Européens sont beaucoup plus nombreux à fréquenter les universités britanniques que l’inverse. L’accord intitulé « Youth Experience » n’est en réalité qu’un engagement à progresser dans la direction d’une plus grande ouverture aux jeunes Européens et du rétablissement du programme Erasmus.
Le Brexit a considérablement compliqué les échanges du Royaume-Uni avec l’Union européenne, son premier partenaire commercial. Il l’a tout autant rendu plus vulnérable à l’insécurité à l’échelle mondiale. Keir Starmer a compris la nécessité de sortir son pays de l’isolement où l’a cantonné le Brexit, en cultivant ou en restaurant les relations avec ses deux partenaires privilégiés, les États-Unis et l’Union européenne. Il y a toutefois lieu de se demander si, compte tenu du dérèglement de l’ordre mondial provoqué par le président des États-Unis, ainsi que de son hostilité affichée à l’égard de l’Europe, le premier ministre britannique pourra encore longtemps refuser de choisir son camp entre l’Europe et l’Amérique.
Marie-Claire Considère-Charon est membre du comité éditorial de l'Observatoire du Brexit et membre du groupe de recherche CREW (Center for Research on the English-speaking Wordl) Sorbonne nouvelle.
01.06.2025 à 14:15
Mehdi Guelmamen, Doctorant en sciences économiques, Université de Lorraine
Alexandre Mayol, Maître de conférences HDR en sciences économiques, Université de Lorraine
Justine Le Floch, Doctorante en sciences de gestion, Université Paris 1 Panthéon-Sorbonne
Stéphane Saussier, Professeur des universités, IAE Paris – Sorbonne Business School
Après les sécheresses de 2022 et de 2023, la disponibilité de l’eau potable en France n’a plus rien d’une évidence. Le modèle économique de distribution de l’eau imaginé à un moment où la ressource semblait infinie mérite d’être repensé. La tarification, d’une part, et l’exploitation, d’autre part, sont au cœur des réflexions à mener.
La France, longtemps épargnée par le stress hydrique grâce à un climat tempéré, découvre désormais la rareté de l’eau potable, comme en témoignent les sécheresses de 2022 et 2023. Ces épisodes extrêmes ont frappé les esprits : 343 communes ont dû être ravitaillées en urgence par camions-citernes, et 90 % des départements ont subi des restrictions d’usage de l’eau. En 2023, le gouvernement a lancé un « Plan Eau » pour anticiper les pénuries et encourager un usage plus responsable de la ressource.
Le défi à relever est immense : assurer un accès durable à l’eau potable exigera des investissements massifs et une profonde adaptation des pratiques. Quel modèle économique permettra de relever ce défi ? Deux pistes principales se dégagent : utiliser le prix de l’eau pour inciter à la sobriété, et repenser la gestion et le financement du service d’eau potable.
En France, le service de l’eau potable fonctionne comme un monopole naturel : les coûts fixes élevés (entretien des réseaux de distribution, stations de pompage et usines de traitement) rendent inefficace toute mise en concurrence. La gestion du service est confiée aux collectivités locales, qui peuvent choisir entre au moins deux modes d’organisation : une régie publique ou une délégation à un opérateur privé.
Longtemps, l’effort s’est concentré sur l’extension des réseaux, notamment en zone rurale. La tarification a visé l’équilibre financier, conformément au principe du « l’eau paie l’eau », sans objectif environnemental explicite. Le prix du mètre cube reste, aujourd’hui encore, bas par rapport à la moyenne européenne, même s’il varie fortement selon les territoires. Il combine une part fixe, une part variable ainsi que diverses taxes et redevances.
Plusieurs dispositifs ont néanmoins encouragé l’intégration d’une dimension environnementale dans le prix de l’eau pour inciter à la sobriété, mais ont fait l’objet de critiques fortes. La loi sur l’eau et les milieux aquatiques de 2006 a, par exemple, encouragé le recours au tarif « progressif ». Ce tarif consiste à moduler la part variable du prix en fonction du volume consommé selon des tranches prédéfinies. Le principe est simple : plus le foyer consomme, plus il paiera cher.
Ce dispositif, séduisant sur le principe, a pourtant suscité une faible adhésion au niveau local (à peine une dizaine de services sur 8 000 en France avant 2023). Au niveau national, le président de la République, Emmanuel Macron avait évoqué sa généralisation en réponse à la sécheresse, mais le rapport du CESE de novembre 2023 a enterré cette proposition. À l’étranger des communes, comme Bruxelles, ont abandonné la tarification progressive après avoir constaté ses trop nombreux défauts.
À lire aussi : La nappe de Beauce, un immense réservoir d’eau confronté à la sécheresse et à la pollution
Pourquoi ce rejet ? Plusieurs obstacles limitent l’efficacité attendue de cette mesure. Il faut rappeler que la tarification progressive suppose une information complète du consommateur sur sa consommation. Or, la facturation de l’eau en France reste peu intelligible, en particulier dans l’habitat collectif où les appartements ne font l’objet que d’une refacturation une fois par an par leur syndic. Pire, de très nombreux logements anciens n’ont pas de comptage individuel et leur consommation n’est qu’estimée. Dans des villes comme Montpellier, seuls 33 % des logements sont individualisés et peuvent se voir appliquer la tarification progressive.
C’est la raison pour laquelle cette forme de tarif ne peut fonctionner qu’avec l’installation coûteuse de compteurs dans les logements. La tarification progressive a d’autres défauts, comme le fait que les tranches ne s’adaptent pas à la taille du foyer, pénalisant alors les familles nombreuses. Par ailleurs, ils ne s’appliquent pas toujours à l’ensemble des usagers, puisqu’ils ne concerneront pas, par exemple, les professionnels. Enfin, leur fonctionnement suppose une capacité des ménages à réduire leur consommation, ce qui n’est pas aussi simple.
Faut-il pour autant renoncer à faire évoluer les comportements par les tarifs ? Pas nécessairement. D’autres approches, comme la tarification saisonnière, pourraient envoyer un signal prix plus lisible en période de stress hydrique. L’objectif : rendre le consommateur acteur de la sobriété, sans complexifier à l’excès le système.
Responsabiliser les consommateurs ne suffira pas : encore faut-il que l’eau parvienne jusqu’à eux. Or, la ressource souffre également de la vétusté des infrastructures de distribution. Les pertes en eau à cause des fuites représentent 1 milliard de mètres cubes chaque année, soit l’équivalent de la consommation de 20 millions d’habitants. Les besoins en rénovation sont alors considérables et représentent, selon une étude de l’Institut national des études territoriales (Inet), 8 milliards d’euros pour les années à venir. Comment assurer le financement de ce « mur d’investissement » ? Plusieurs paramètres méritent d’être questionnés.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Premièrement, le principe selon lequel « l’eau paie l’eau » implique que le financement repose essentiellement sur la hausse du prix pour l’usager. Il y aura lieu toutefois d’arbitrer localement autour du partage de cette hausse de prix entre les professionnels et les ménages, mais également entre l’abonnement et la part volumétrique. Par exemple, augmenter la part fixe de l’abonnement de base afin que les résidences secondaires ou les usagers occasionnels – qui utilisent peu d’eau mais bénéficient tout de même de l’infrastructure – participent davantage aux coûts d’entretien du réseau. Si la hausse du prix s’avère insuffisante, le rôle des agences de l’eau pour aider financièrement les services en difficulté devra être repensé mieux fixer des objectifs contraignants de performance.
Ensuite, la coopération intercommunale peut apparaître comme un levier pour financer en commun les investissements. Alors qu’aujourd’hui plusieurs milliers de communes – souvent très petites – gèrent seules l’eau potable et peinent à assumer l’autofinancement des rénovations, se regrouper permettrait de mutualiser les travaux. La loi Notre de 2015 a précisément cherché à inciter les petits services de moins de 15 000 habitants à se regrouper, mais suscite beaucoup d’hostilité au niveau local. Même si la modalité de coopération peut être améliorée, la collaboration des communes dans la gestion des réseaux apparaît indispensable.
Enfin, le modèle économique actuel doit être repensé puisque les recettes des opérateurs reposent essentiellement sur les volumes facturés. Il apparaît contradictoire de promouvoir la sobriété hydrique si elle le conduit à faire baisser les recettes. Pour résoudre cette difficulté, des clauses de performance environnementale utilisées dans le secteur des déchets pourraient aussi s’appliquer dans les contrats d’eau, qui compenseraient la baisse des volumes par des primes. Ce mécanisme serait un levier efficace qui pourrait être appliqué à tous les opérateurs, publics comme privés.
Au-delà des contrats locaux, de nombreux experts plaident pour une refonte de la gouvernance du secteur, en s’inspirant de modèles étrangers. L’idée d’un régulateur économique national fait son chemin. Le pilotage global du secteur pourrait gagner en cohérence avec la création d’un régulateur économique national de l’eau potable. Cette autorité indépendante pourrait garantir une transparence accrue, limiter les asymétries d’information, et promouvoir des pratiques économes et durables. Les agences de l’eau pourraient également évoluer vers un rôle de régulation régionale, en intégrant mieux les enjeux du grand cycle de l’eau.
Le modèle économique français de l’eau potable arrive à un tournant. Face au changement climatique et aux aléas qui menacent notre approvisionnement en eau, faire évoluer ce modèle n’est plus une option mais une nécessité. Tarification plus intelligente, investissements massifs et coordonnés dans les réseaux, nouvelles règles du jeu pour les opérateurs et régulation renforcée : ces adaptations, loin d’être purement techniques, touchent à un bien vital dont la gestion nous concerne tous. L’eau potable a longtemps coulé de source en France ; demain, elle devra couler d’une gouvernance renouvelée, capable de concilier accessibilité pour les usagers, équilibre financier du service et préservation durable de la ressource.
Alexandre Mayol a reçu des financements de l'Agence de l'Eau Rhin-Meuse pour un projet de recherche académique.
SAUSSIER Stéphane a reçu des financements dans le passé de Veolia, Suez et de l'Office Français de la Biodiversité dans le cadre de projets de recherche.
Justine Le Floch et Mehdi Guelmamen ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
01.06.2025 à 12:26
Wissam Samia, Enseignant-chercheur, PhD en économie, Université de Picardie Jules Verne (UPJV)
Deux nouveau-nés ont émergé dans le paysage du fitness : le CrossFit, mêlant renforcement musculaire et exercice cardio-vasculaire, l’Hyrox y ajoutant la course à pied. Avec leur propre logique. Le premier sport s’appuie sur un réseau décentralisé de 700 salles en France. Le second sur plus de 83 évènements centralisés. Pour un même objectif : faire du sport un marché économique rentable.
Muscle-Up (traction + passage au dessus de la barre), clean & jerk (épaulé-jeté), Snatch (arraché), sled push (pousser un traîneau chargé sur une distance), burpee broad jumps (pompe et saut en longueur), wall balls (squat avec une médecine ball à lancer contre un mur)… si ces mots ne vous parlent pas, c’est que vous n’êtes pas encore adepte du CrossFit ou de l’Hyrox, ces sports qui séduisent plus de 200 000 adeptes dans l’Hexagone.
Ces deux modèles sont figures de proue du renouveau du fitness. Ces entraînements de haute intensité, en petits groupes, suivent un protocole défini par les entreprises du même nom. Le CrossFit mélange renforcement musculaire, haltérophilie, force athlétique, exercices cardio-vasculaires et mouvements gymniques. L’Hyrox y ajoute la course à pied, la force et l’endurance. Concrètement, huit fois un kilomètre de course à pied et un exercice de fitness.
Côté stratégie économique, le CrossFit s’appuie sur une logique décentralisée et un ancrage communautaire ; l’Hyrox repose sur une logique centralisée d’organisation d’évènements et un effet d’échelle. Si tous deux incarnent des paradigmes économiques distincts, ils convergent vers une même dynamique : valoriser le sport comme un marché. En explorant leurs structures de financement, leur impact territorial et leurs stratégies de diffusion, nous proposons une lecture critique de la façon dont le fitness devient un laboratoire de tendances pour l’économie de l’expérience.
Le modèle CrossFit repose sur une structure bottom-up. Chacune des 14 000 salles affiliées ou « box » – dont plus de 700 en France – constitue une entité juridique autonome, qui reverse une licence annuelle à CrossFit LLC tout en conservant une grande latitude opérationnelle. Ce modèle d’affiliation, proche du licensing, favorise une croissance extensive sans immobilisation de capital par la maison-mère. Le financement repose essentiellement sur les abonnements des adhérents et des revenus annexes – coaching, merchandising local. Ce modèle de dissémination rapide avec faible contrôle central est adossé à un capital social fort.
A contrario, Hyrox se positionne comme un acteur centralisé du sport-spectacle. La société allemande Upsolut Sports organise directement les compétitions et agrège la quasi-totalité des revenus – billetterie, droits d’inscription, sponsoring, ventes de produits dérivés. En 2020, l’entreprise a levé environ 5 millions d’euros lors d’une première phase de financement. En 2022, elle a vu Infront Sports & Media, filiale du conglomérat chinois Wanda Group, entrer majoritairement au capital. Ce modèle s’inscrit pleinement dans une logique de scale-up, caractérisée par une croissance rapide reposant sur des capitaux-risqueurs, une forte intégration verticale et l’ambition d’atteindre une masse critique à l’échelle mondiale. Hyrox contrôle l’ensemble de la chaîne de valeur – production, branding, diffusion – ce qui lui permet de capter directement les flux financiers et d’optimiser ses marges. Cette stratégie vise moins la rentabilité immédiate que la valorisation à long terme, en vue d’un positionnement hégémonique sur le marché du fitness compétitif globalisé.
Les exigences capitalistiques des deux modèles créent des barrières à l’entrée de natures différentes. Pour ouvrir une box CrossFit, l’entrepreneur doit s’acquitter d’une licence d’environ 4 000 euros par an, recruter du personnel certifié, et investir massivement dans du matériel et de l’immobilier – jusqu’à 100 000 euros d’investissement initial. Ce modèle repose sur un capital fixe élevé, mais offre un potentiel de revenus récurrents. Le prix d’abonnement mensuel, compris entre 80 et 150 euros, reflète ce positionnement premium.
Hyrox, en revanche, n’impose pas la création d’infrastructures dédiées. Les salles de sport existantes peuvent devenir partenaires pour proposer des entraînements Hyrox, contre une redevance modeste – environ 1 500 euros annuels. L’accès au marché repose sur un capital humain adapté et une mobilisation temporaire de ressources existantes. Pour l’usager final, le coût est concentré sur l’accès à l’événement, environ 130 euros par compétition. Cette accessibilité réduit les barrières à l’adoption pour les pratiquants et permet une diffusion plus rapide dans les territoires urbains et périurbains.
L’économie CrossFit repose sur une récurrence de flux financiers : abonnements mensuels, formations de coachs, compétitions communautaires et vente de produits dérivés. Ce modèle de revenu présente une certaine prévisibilité et résilience, notamment en cas de chocs exogènes. En France, avec près de 700 salles affiliées en 2023, ce modèle génère plusieurs dizaines de millions d’euros de chiffre d’affaires annuel. La nature décentralisée permet à chaque box d’adapter son offre au contexte local. Les compétitions locales, souvent organisées par les box elles-mêmes, renforcent l’ancrage territorial de l’activité et créent des retombées économiques indirectes – restauration, hôtellerie, transport.
À lire aussi : Tous en salle ? Comprendre l’obsession contemporaine pour les corps musclés
Hyrox, à l’inverse, fonde son modèle sur des activités ponctuelles mais à forte valeur ajoutée. Chaque événement est une unité de profit autonome, financée par les frais d’inscription, la billetterie et le sponsoring. En 2025, avec plus de 600 000 participants prévus dans 83 événements, Hyrox anticipe plus de 100 millions de dollars de revenus globaux. Le modèle mise sur une croissance rapide de sa base de clients et la monétisation de la marque via le merchandising et les droits médiatiques. La stratégie repose également sur l’effet de réseau : plus les événements se multiplient, plus la notoriété et la communauté s’étendent, renforçant la rentabilité marginale de chaque course organisée.
La pandémie de Covid-19 a constitué un test de robustesse pour ces deux modèles. CrossFit a connu une contraction temporaire, mais sa structure décentralisée et la forte cohésion communautaire ont permis une relance rapide dès 2022. Hyrox, bien qu’impacté par l’arrêt des événements, a utilisé cette période pour consolider ses financements et accélérer son internationalisation.
Depuis, une forme de convergence opère : de nombreuses salles CrossFit adoptent le label Hyrox, tandis qu’Hyrox recrute massivement dans la base de pratiquants CrossFit. Cette hybridation dessine un écosystème où les modèles ne s’excluent plus mais se complètent stratégiquement. Dans cette perspective, le fitness ne relève plus du seul loisir : il devient un vecteur stratégique d’accumulation et d’innovation dans les industries culturelles contemporaines. La prochaine décennie permettra sans doute d’observer si ces modèles s’institutionnalisent davantage ou s’ils cèdent la place à d’autres formats hybrides, adaptés aux mutations technologiques et sociales du sport connecté.
Wissam Samia ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
01.06.2025 à 09:27
Johan Lepage, Chercheur associé en psychologie sociale, Université Grenoble Alpes (UGA)
La recherche en psychologie sociale réfute la thèse de la banalité du mal. La violence dans les hiérarchies sociales est exercée par des individus qui se distinguent par un élément : leur orientation autoritaire – et ainsi par un comportement particulièrement coercitif, inégalitaire et intolérant.
Le chercheur en psychologie sociale Stanley Milgram publie en 1964 la première recherche expérimentale sur la soumission à l’autorité. Son protocole consiste à demander à des personnes volontaires d’infliger des décharges électriques à un autre participant (en réalité un compère de Milgram) dans le cadre d’une recherche prétendument sur les effets de la punition sur l’apprentissage. Un échantillon de psychiatres prédit une désobéissance quasi unanime, à l’exception de quelques cas pathologiques qui pourraient aller jusqu’à infliger un choc de 450 volts.
Les résultats provoquent un coup de tonnerre : 62,5 % des participants obéissent, allant jusqu’à administrer plusieurs chocs de 450 volts à une victime ayant sombré dans le silence après avoir poussé d’intenses cris de douleur. Ce résultat est répliqué dans plus d’une dizaine de pays auprès de plus de 3 000 personnes.
Ces données illustrent la forte propension à l’obéissance au sein de la population générale. Elles montrent également des différences individuelles importantes puisqu’environ un tiers des participants désobéit. Les caractéristiques socio-démographiques des individus et le contexte culturel semblent n’avoir aucune influence sur le comportement dans le protocole de Milgram. Comment expliquer alors les différences individuelles observées ?
Nous avons conduit une nouvelle série d’expériences dans les années 2010. Nos résultats montrent un taux d’obéissance similaire ainsi qu’une influence notable de l’autoritarisme de droite : plus les participants ont un score élevé à l’échelle d’autoritarisme de droite, plus le nombre de chocs électriques administrés est important.
La psychologie sociale traite la question de l’autoritarisme depuis plusieurs décennies. Cette branche de la psychologie expérimentale a notamment fait émerger dès les années 1930 une notion importante : celle d’attitude.
Une attitude désigne un ensemble d’émotions, de croyances, et d’intentions d’action à l’égard d’un objet particulier : un groupe, une catégorie sociale, un système politique, etc. Le racisme, le sexisme sont des exemples d’attitudes composées d’émotions négatives (peur, dégoût), de croyances stéréotypées (« les Noirs sont dangereux », « les femmes sont irrationnelles »), et d’intentions d’action hostile (discrimination, agression).
Les attitudes sont mesurées à l’aide d’instruments psychométriques appelés échelles d’attitude. De nombreux travaux montrent que plus les personnes ont des attitudes politiques conservatrices, plus elles ont également des attitudes intergroupes négatives (e.g., racisme, sexisme, homophobie), et plus elles adoptent des comportements hostiles (discrimination, agression motivée par l’intolérance notamment). À l’inverse, plus les personnes ont des attitudes politiques progressistes, plus elles ont également des attitudes intergroupes positives, et plus elles adoptent des comportements prosociaux (soutien aux personnes défavorisées notamment).
Les attitudes politiques et les attitudes intergroupes sont donc corrélées. Une manière d’analyser une corrélation entre deux variables est de postuler l’existence d’une source de variation commune, c’est-à-dire d’une variable plus générale dont les changements s’accompagnent systématiquement d’un changement sur les autres variables. Dit autrement, si deux variables sont corrélées, c’est parce qu’elles dépendent d’une troisième variable. La recherche en psychologie sociale suggère que cette troisième variable puisse être les attitudes autoritaires. Cette notion regroupe des attitudes exprimant des orientations hiérarchiques complémentaires :
l’orientation à la dominance sociale, une attitude orientée vers l’établissement de relations hiérarchiques, inégalitaires entre les groupes humains ;
l’autoritarisme de droite, une attitude orientée vers l’appui conservateur aux individus dominants.
La recherche en psychologie expérimentale, en génétique comportementale et en neurosciences montre invariablement que ce sont les attitudes autoritaires, plus que toute autre variable (personnalité, éducation, culture notamment), qui déterminent les attitudes intergroupes, les attitudes politiques, et ainsi le comportement plus ou moins coercitif, inégalitaire, et intolérant des personnes.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Étudions le cas d’un groupe : la police. Plusieurs études montrent que les policiers nouvellement recrutés ont des scores significativement plus élevés à l’échelle d’autoritarisme de droite que la population générale.
Ce résultat important suggère que les personnes autoritaires sont plus susceptibles de choisir une carrière dans la police (autosélection) et/ou que la police a tendance à privilégier les personnes autoritaires pour le recrutement (sélection). Les personnes autoritaires et l’institution policière semblent réciproquement attirées, ce qui entraîne un biais de sélection orienté vers l’autoritarisme de droite qui, on l’a vu, est responsable d’attitudes politiques conservatrices et d’attitudes intergroupes négatives.
À des fins de recherche, des universitaires ont développé un jeu vidéo simulant la situation d’un policier confronté à une cible ambiguë et devant décider de tirer ou non. Des personnes noires ou blanches apparaissent sur un écran de manière inattendue, dans divers contextes (parc, rue, etc.) Elles tiennent soit un pistolet, soit un objet inoffensif comme un portefeuille. Dans une étude menée aux États-Unis, les chercheurs ont comparé la vitesse à laquelle les policiers décident de tirer, ou de ne pas tirer, dans quatre conditions :
(i) cible noire armée,
(ii) cible blanche armée,
(iii) cible noire non armée,
(iv) cible blanche non armée.
Les résultats montrent que les policiers décidaient plus rapidement de tirer sur une cible noire armée, et de ne pas tirer sur une cible blanche non armée. Ils décidaient plus lentement de ne pas tirer sur une cible noire non armée, et de tirer sur une cible blanche armée. Ces résultats montrent un biais raciste dans la prise de décision des policiers. Ils réfutent l’hypothèse d’une violence policière exercée par seulement « quelques mauvaises pommes ».
On observe dans toutes les régions du monde une sur-représentation des groupes subordonnés parmi les victimes de la police (e.g., minorités ethniques, personnes pauvres). Les chercheurs en psychologie sociale Jim Sidanius et Felicia Pratto proposent la notion de terreur systémique (systematic terror) pour désigner l’usage disproportionné de la violence contre les groupes subordonnés dans une stratégie de maintien de la hiérarchie sociale.
On peut s’interroger sur la présence dans la police de membres de groupes subordonnés (e.g., minorités ethniques, femmes).
Une explication est l’importance des coalitions dans les hiérarchies sociales tant chez les humains que chez les primates non humains, comme les chimpanzés, une espèce étroitement apparentée à la nôtre. On reconnaît typiquement une coalition quand des individus menacent ou attaquent de manière coordonnée d’autres individus. Le primatologue Bernard Chapais a identifié plusieurs types de coalition, notamment :
les coalitions conservatrices (des individus dominants s’appuient mutuellement contre des individus subordonnés qui pourraient les renverser) ;
l’appui conservateur aux individus dominants (des individus subordonnés apportent un appui aux individus dominants contre d’autres individus subordonnés) ;
les coalitions xénophobes (des membres d’un groupe attaquent des membres d’un autre groupe pour la défense ou l’expansion du territoire).
La police regroupe des individus subordonnés motivés par l’appui conservateur aux individus dominants (tel que mesuré par l’échelle d’autoritarisme de droite) et la xénophobie (telle que mesurée par les échelles de racisme).
Dans son ensemble, la recherche en psychologie sociale réfute la thèse de la banalité du mal. La violence dans les hiérarchies sociales est exercée par des individus qui se distinguent par leur orientation autoritaire, et ainsi par un comportement particulièrement coercitif, inégalitaire, et intolérant.
Le mauvais état de la démocratie dans le monde suggère une prévalence importante des traits autoritaires. Lutter contre l’actuelle récession démocratique implique, selon nous, la compréhension de ces traits.
Johan Lepage ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
30.05.2025 à 11:25
Céline Leroy, Directrice de recherche en écologie tropicale, Institut de recherche pour le développement (IRD)
Avez-vous déjà observé une plante avec des feuilles de formes différentes ? Ce phénomène, à la fois surprenant et fascinant, porte un nom : l’hétérophyllie. Loin d’être une bizarrerie botanique, il s’agit d’une véritable stratégie d’adaptation, permettant à certains végétaux de mieux faire face à la diversité des contraintes de leur environnement.
Vous avez sans doute déjà croisé du houx en forêt, dans un jardin ou même en décoration de Noël. Ses feuilles piquantes sont bien connues. Mais avez-vous déjà remarqué que toutes ne sont pas armées de piquants ? Sur une même plante, on trouve des feuilles épineuses en bas, et d’autres lisses plus haut. Ce n’est pas une erreur de la nature, mais un phénomène botanique fascinant : l’hétérophyllie, un mot qui vient du grec heteros signifiant différent, et de phullon, qui désigne la feuille.
Cette particularité s’observe chez de nombreuses espèces, aussi bien terrestres qu’aquatiques, où un même individu peut produire des feuilles très différentes par leur taille, leur forme, leur structure, voire leur couleur. Loin d’être simplement esthétique, cette diversité joue un rôle crucial dans la survie, la croissance et la reproduction des plantes.
Mais d’où vient cette capacité à changer de feuilles ? L’hétérophyllie peut en fait être déclenchée par des variations de l’environnement (lumière, humidité, faune herbivore…). Cette faculté d’adaptation est alors le résultat de ce qu’on appelle la plasticité phénotypique. L’hétérophyllie peut aussi résulter d’une programmation génétique propre à certaines espèces, qui produisent naturellement plusieurs types de feuilles. Quelle qu’en soit l’origine, la forme d’une feuille est le résultat d’une série d’ajustements complexes en lien avec les conditions environnementales du milieu.
Si l’on reprend le cas du houx commun (Ilex aquifolium), celui-ci offre un exemple frappant d’hétérophyllie défensive en réaction à son environnement. Sur un même arbuste, les feuilles basses, à portée d’herbivores, ont des piquants ; celles plus haut sur la tige, hors d’atteinte des animaux, sont lisses et inoffensives. Cette variation permet à la plante d’optimiser ses défenses là où le danger est réel, tout en économisant de l’énergie sur les zones moins exposées, car produire des épines est coûteux.
Des recherches ont montré que cette répartition n’est pas figée. Dans les zones très pâturées, les houx produisent plus de feuilles piquantes, y compris en hauteur, ce qui indique une capacité de réaction à la pression exercée par les herbivores. Cette plasticité phénotypique est donc induite par l’herbivorie. Mais le houx n’est pas un cas isolé. D’autres plantes déploient des stratégies similaires, parfois discrètes, traduisant une stratégie adaptative : modifier la texture, la forme ou la structure des feuilles pour réduire l’appétence ou la digestibilité, et ainsi limiter les pertes de tissus.
La lumière joue un rôle tout aussi déterminant dans la morphologie des feuilles. Chez de nombreuses espèces, les feuilles exposées à une lumière intense n’ont pas la même forme que celles situées à l’ombre.
Les feuilles dites « de lumière », que l’on trouve sur les parties supérieures de la plante ou sur les branches bien exposées, sont souvent plus petites, plus épaisses et parfois plus profondément découpées. Cette forme favorise la dissipation de la chaleur, réduit les pertes d’eau et augmente l’efficacité de la photosynthèse en milieu lumineux. À l’inverse, les feuilles d’ombre, plus grandes et plus minces, sont conçues pour maximiser la surface de captation de lumière dans des conditions de faible éclairement. Elles contiennent souvent davantage de chlorophylle, ce qui leur donne une couleur plus foncée.
Ce contraste est particulièrement visible chez les chênes, dont les feuilles supérieures sont épaisses et lobées, tandis que celles situées plus bas sont larges, souples et moins découpées. De très nombreuses plantes forestières présentent également ces différences. Sur une même plante, la lumière peut ainsi façonner les feuilles en fonction de leur position, illustrant une hétérophyllie adaptative liée à l’exposition lumineuse.
Chez les plantes aquatiques ou amphibies, l’hétérophyllie atteint des formes encore plus spectaculaires. Certaines espèces vivent en partie dans l’eau, en partie à l’air libre et doivent composer avec des contraintes physiques très différentes.
C’est le cas de la renoncule aquatique (Ranunculus aquatilis), qui produit des feuilles très différentes selon leur emplacement. Les feuilles immergées sont fines, allongées et très découpées, presque filamenteuses.
Cette morphologie réduit la résistance au courant, facilite la circulation de l’eau autour des tissus et améliore les échanges gazeux dans un milieu pauvre en oxygène. En revanche, les feuilles flottantes ou émergées sont larges, arrondies et optimisées pour capter la lumière et absorber le dioxyde de carbone de l’air. Ce phénomène est réversible : si le niveau d’eau change, la plante ajuste la forme de ses nouvelles feuilles.
La sagittaire aquatique (Sagittaria spp.) présente elle aussi une hétérophyllie remarquable, avec des feuilles émergées en forme de flèche, épaisses et rigides et des feuilles souvent linéaires et fines sous l’eau. Ces changements illustrent une stratégie morphologique adaptative, qui permet à une même plante d’exploiter efficacement des milieux radicalement différents.
Pour suivre au plus près les questions environnementales, retrouvez chaque jeudi notre newsletter thématique « Ici la Terre ».
Mais l’hétérophyllie ne résulte pas toujours de l’environnement. Chez de nombreuses espèces, elle accompagne simplement le développement naturel de la plante. À mesure que la plante grandit, elle passe par différents stades de développement, au cours desquels elle produit des feuilles de formes distinctes.
Ce processus, appelé « hétéroblastie », marque bien souvent le passage entre les phases juvénile et adulte. Un exemple classique est celui du lierre commun (Hedera helix). Les tiges rampantes ou grimpantes portent des feuilles lobées caractéristiques du stade juvénile, tandis que les tiges qui portent les fleurs, situées en hauteur, portent des feuilles entières et ovales. Ce changement est irréversible et marque l’entrée de la plante dans sa phase reproductive.
À lire aussi : Le lierre « tueur d’arbre » : entre préjugés, ignorance et réalité
Un autre exemple frappant est celui de certains acacias australiens. Les jeunes individus développent des feuilles composées, typiques des légumineuses. À mesure qu’ils grandissent, ces feuilles sont progressivement remplacées par des phyllodes, des pétioles (c’est-à-dire la partie qui unit chez la plupart des plantes la base de la feuille et la tige) élargis qui assurent la photosynthèse tout en limitant l’évaporation (voir planche dessins, ci-dessous). Ces structures en forme de faucille sont particulièrement bien adaptées aux climats chauds et secs, car elles peuvent maintenir une activité photosynthétique efficace tout en minimisant les pertes hydriques.
Les mécanismes qui permettent à une plante de modifier la forme de ses feuilles sont complexes et encore mal compris. On connaît mieux les formes que prennent les feuilles que les mécanismes qui les déclenchent ou les fonctions qu’elles remplissent.
Chez certaines espèces, des hormones végétales telles que l’éthylène, l’acide abscissique (ABA), les auxines ou encore les gibbérellines (GA) jouent un rôle central dans le déclenchement des différentes formes de feuilles. Chez le houx, la différence entre feuilles piquantes et lisses serait liée à des modifications réversibles de la structure de l’ADN, sans altération des gènes eux-mêmes, déclenchées par la pression exercée par les herbivores.
Les plantes hétéroblastiques, quant à elles, sont principalement contrôlées par des mécanismes génétiques et moléculaires. La succession des types de feuilles au cours du développement peut néanmoins être accélérée ou retardée en fonction des conditions de croissance, traduisant une interaction fine entre développement et environnement.
La régulation de l’hétérophyllie repose ainsi sur une combinaison d’interactions hormonales, génétiques, épigénétiques et environnementales. Ce phénomène constitue également un exemple remarquable de convergence évolutive, car l’hétérophyllie est apparu indépendamment dans des lignées végétales très différentes. Cela suggère qu’il s’agit d’une solution robuste face à la diversité des conditions présentes dans l’environnement.
Les recherches futures, notamment grâce aux outils de génomique comparative, d’épigénomique et de transcriptomique, permettront sans doute de mieux comprendre l’évolution et les avantages adaptatifs de cette étonnante plasticité des formes de feuilles.
Céline Leroy a reçu des financements de ANR et de l'Investissement d'Avenir Labex CEBA, Centre d'Etude de la Biodiversité Amazonienne (ref. ANR-10-LABX-25-01).
29.05.2025 à 20:00
Nicolas Rascovan, Chercheur à l'Institut Pasteur, Université Paris Cité
Charlotte Avanzi, Assistant Professor, Colorado State University
Maria Lopopolo, Chercheur à l'Institut Pasteur, Université Paris Cité
Longtemps considérée comme une maladie infectieuse introduite en Amérique par les colonisateurs européens, la lèpre pourrait en fait avoir une histoire bien plus ancienne et plus complexe sur le continent. Une nouvelle étude internationale, publiée aujourd’hui dans la revue Science, révèle que Mycobacterium lepromatosis, une bactérie récemment identifiée qui cause la lèpre, infecte les humains en Amérique depuis au moins 1 000 ans, soit plusieurs siècles avant le contact européen.
La lèpre est une maladie chronique ancienne qui se manifeste par des lésions de la peau, des nerfs périphériques, de la muqueuse des voies respiratoires supérieures ainsi que des yeux. Elle est présente dans plus de 120 pays et 200 000 cas sont notifiés chaque année selon l’OMS. Les personnes touchées par la lèpre sont atteintes de difformités physiques et sont également confrontées à la stigmatisation et à la discrimination. Cependant, la lèpre est curable et le traitement à un stade précoce permet d’éviter les séquelles.
Cette maladie a longtemps été associée à une seule bactérie : Mycobacterium leprae, responsable de la forme dite « classique » de la maladie, décrite dans les manuels et prédominante à l’échelle mondiale. En 2008, une seconde espèce, Mycobacterium lepromatosis, a été identifiée au Mexique. Elle provoque des symptômes cliniquement très similaires, si bien qu’elle passe souvent inaperçue – seuls des tests génétiques ciblés permettent de la distinguer de M. leprae. Bien que le développement d’outils génétiques ait permis une intensification des recherches sur cette bactérie, les cas humains confirmés restaient principalement localisés en Amérique, notamment au Mexique et dans la région des Caraïbes. En 2016, la découverte inattendue de M. lepromatosis chez des écureuils roux dans les îles Britanniques – un réservoir animal dans une zone non endémique – a soulevé la question de l’origine géographique de cette bactérie.
Malgré des recherches intensives dans les données d'ADN anciens européens, M. lepromatosis n’a jamais été détectée sur le continent. C’est dans ce contexte que l’hypothèse d’une origine américaine a pris de l’ampleur. Notre projet est né d’une découverte fortuite de cette espèce dans les données publiées d’un individu d’Amérique du Nord daté à 1 300 ans avant le présent. Ce signal inattendu nous a conduits à étendre nos recherches, en retraçant sa présence passée par des analyses d’ADN ancien, et en documentant sa diversité actuelle à travers des cas modernes, pour mieux comprendre l’histoire et la circulation de ce pathogène largement négligé.
Cette étude est essentielle pour éclairer les mécanismes de transmission des bactéries responsables de la lèpre, en particulier en tenant compte de la diversité des réservoirs possibles. En reconstituant l’histoire évolutive et la distribution géographique de M. lepromatosis, nous espérons mieux comprendre comment cette bactérie se transmet encore aujourd’hui.
Nous avons analysé près de 800 échantillons, y compris des restes anciens d’ancêtres autochtones (couvrant plusieurs millénaires, jusqu’à 6 000 ans en arrière) et des cas cliniques modernes. Nos résultats confirment que M. lepromatosis était déjà largement répandue, du nord au sud du continent américain, bien avant la colonisation, et apportent une nouvelle perspective sur les souches qui circulent aujourd’hui.
Cette découverte modifie en profondeur notre compréhension de l’histoire de la lèpre en Amérique. Elle montre que la maladie était déjà présente parmi les populations autochtones depuis des siècles avant le contact européen, et qu’elle a évolué localement sur le continent.
Un aspect essentiel de ce projet a été la collaboration avec des communautés autochtones du Canada et d’Argentine. Celles-ci ont été activement impliquées dans les décisions concernant l’étude des restes humains anciens, la restitution des matériaux, ainsi que l’interprétation des résultats. Une représentante autochtone figure parmi les autrices de l’article. Cette démarche vise à respecter les principes d’éthique de la recherche et à renforcer le dialogue entre sciences et savoirs communautaires.
Nous avons mené le dépistage le plus vaste jamais réalisé pour ce pathogène, en analysant à la fois des restes humains anciens et des échantillons cliniques provenant de cinq pays : Mexique, États-Unis, Brésil, Paraguay et Guyane française. La plupart des cas positifs ont été identifiés au Mexique et aux États-Unis, ce qui reflète probablement à la fois une présence réelle du pathogène dans ces régions, mais aussi un échantillonnage plus intensif dans ces pays.
Pour retrouver des traces de pathogènes dans des restes humains anciens, nous avons utilisé une approche paléogénomique, une discipline qui permet d’extraire et d’analyser l’ADN conservé dans les os ou dans les dents pendant des siècles, voire des millénaires. Ce que nous récupérons est un mélange très complexe : de l’ADN du sol, des bactéries environnementales, de la personne décédée, et parfois – si l’individu était malade au moment de sa mort – de l’ADN de l’agent pathogène qui l’a infecté. Grâce aux technologies de séquençage à haut débit, nous lisons tous ces fragments d’ADN (souvent très courts, entre 30 et 100 bases), puis nous les comparons à de grandes bases de données contenant les génomes de tous les agents pathogènes connus.
Dans ce cas précis, nous avons identifié dans les échantillons anciens de petits fragments d’ADN couvrant environ 80 % du génome de Mycobacterium lepromatosis, ce qui nous a permis de confirmer sa présence chez un individu précolombien. Ensuite, nous avons concentré nos efforts sur cet échantillon pour récupérer davantage de fragments du pathogène, jusqu’à pouvoir reconstituer son génome complet. Cela nous a permis non seulement de confirmer l’infection, mais aussi d’analyser l’évolution génétique de la bactérie à travers le temps.
Fait remarquable, la bactérie a été retrouvée dans les ossements de trois individus anciens – une femme originaire du Canada actuel, datée par radiocarbone à environ 1 300 ans avant le présent (AP), et une femme et un homme d’Argentine actuelle, datés à environ 900 ans AP. Bien que séparés par plus de 10 000 km, leurs infections datent d’une période relativement proche (il y a près de 1 000 ans), et leurs souches sont génétiquement et évolutivement similaires. Cela suggère que la bactérie s’était largement répandue sur le continent en seulement quelques siècles. On ignore encore si cette dispersion rapide est due à des réseaux humains (commerce, contacts) ou à des animaux à forte mobilité.
Notre étude permet également de mieux comprendre un mystère ancien : la présence de Mycobacterium lepromatosis chez les écureuils roux dans les îles Britanniques. En 2016, une étude menée par la Dre Charlotte Avanzi, aujourd’hui co-première autrice de notre travail, avait révélé pour la première fois que ces animaux étaient porteurs de la bactérie, mais sans pouvoir expliquer son origine ni comment elle avait atteint les îles Britanniques.
Grâce à nos nouvelles analyses phylogénétiques, nous montrons que ces souches animales appartiennent à un lignage dérivé d’un ancêtre commun qui aurait émergé il y a environ 3 200 ans – bien avant les premiers contacts transatlantiques –, mais que leur diversification locale n’a commencé qu’au XIXe siècle. Cela suggère fortement une introduction récente depuis les Amériques, suivie d’une expansion dans la population d’écureuils. C’est la première preuve que M. lepromatosis, historiquement endémique aux Amériques, a commencé à se diffuser sur d’autres continents – une dynamique inverse à celle de M. leprae, arrivé en Amérique depuis l'Europe et l'Afrique avec la colonisation.
Ces résultats soulèvent des implications importantes en santé publique et appellent à surveiller la propagation intercontinentale de ce pathogène.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Parmi les découvertes les plus frappantes de notre étude figure l’identification d’un lignage très ancien de Mycobacterium lepromatosis, appelé NHDP-LPM-9, que nous avons retrouvé chez deux personnes aux États-Unis. Ce lignage se distingue de toutes les autres souches connues par un nombre significativement plus élevé de mutations, et notre analyse suggère qu’il aurait divergé des autres lignages, il y a plus de 9 000 ans. À titre de comparaison, la grande majorité des souches modernes que nous avons analysées – 24 sur 26 – appartiennent à un groupe beaucoup plus homogène, que nous avons appelé « clade dominant actuel » (Present-Day Dominant Clade, ou PDDC), qui représente environ deux tiers de la diversité génétique connue aujourd’hui. Ce clade semble s’être étendu après la colonisation européenne, probablement en lien avec les profonds bouleversements sociaux, écologiques et démographiques de l’époque.
La co-circulation actuelle de deux lignages ayant divergé il y a plusieurs millénaires suggère que d’autres lignées anciennes pourraient encore exister, mais être passées inaperçues jusqu’ici. Étant donné sa très faible fréquence apparente dans les cas humains récents, il est probable que M. lepromatosis ait évolué en partie dans un ou plusieurs réservoirs, depuis lesquels il pourrait occasionnellement infecter des humains. Ces résultats soulignent l’importance de mieux surveiller ce pathogène, encore très mal connu, pour en comprendre les mécanismes d’infection et de transmission.
Cette recherche bouleverse non seulement notre compréhension de l’origine de la lèpre, mais contribue à une question plus large : quelles maladies infectieuses existaient en Amérique avant 1492 ? Depuis des siècles, chercheurs et communautés autochtones s’interrogent sur le rôle des maladies dans l’histoire du continent. Cette étude apporte une nouvelle pièce à ce puzzle complexe.
Nicolás Rascovan est membre de l'UMR 2000 du CNRS Nicolás Rascovan a reçu financement Européen de l'ERC et Français de l'ANR
Charlotte Avanzi a reçu des financements de la Fondation Raoul Follereau
Maria Lopopolo a été financée pendant sa thèse de doctorat par l’Agence Nationale de la Recherche (ANR) et la Fondation pour la Recherche Médicale (FRM).
28.05.2025 à 17:03
François-Xavier Dudouet, Directeur de recherche sociologie des grandes entreprises, Université Paris Dauphine – PSL
En se rapprochant du président des États-Unis et en étant son conseiller chargé du département de l’efficacité gouvernementale (Department of Government Efficiency, DOGE), Elon Musk semblait avoir tout réussi et cumulé tous les pouvoirs : politique, économique, idéologique… Patatras ! En quelques semaines, son implication politique a eu des répercussions sur ses activités de chef d’entreprise de Tesla. La marque a été chahutée, au point qu’il est devenu possible de se poser une question qui aurait semblé impensable il y a six mois encore : et si l’avenir de Tesla se faisait sans Musk ? Est-ce souhaitable ? Possible ?
Le 1er mai 2025, le Wall Street Journal publiait un article selon lequel le conseil d’administration de Tesla avait entamé des démarches pour remplacer Elon Musk au poste de directeur général. L’annonce était aussitôt démentie par l’intéressé mais aussi par la présidente du conseil d’administration, Robyn Denholm, qui assurait que l’ensemble des administrateurs maintenait sa pleine confiance dans l’actuel directeur général. Cette annonce, qui semble avoir fait long feu, est l’occasion de revenir sur le fonctionnement de la gouvernance des grandes entreprises et de voir si, techniquement un actionnaire important, fût-il l’homme le plus riche du monde, peut être renvoyé l’entreprise qu’il dirige.
Pour rappel, Elon Musk dirige trois sociétés : SpaceX qu’il a fondé en 2002, Tesla, dont il a pris le contrôle entre 2004 et 2008 et X (ex-Twitter) qu’il a racheté en 2022. Sa fortune provient essentiellement des actions Tesla dont la valorisation spectaculaire en 2024 a fait de lui l’homme le plus riche du monde. Toutefois, le cours de l’action Tesla s’est depuis effondré, atteignant un plus bas à 221 $ en avril 2025 contre 479 $ en décembre 2024. Dans le même temps, la société affichait des ventes en recul de 13 % et des bénéfices en chute de 71 %. Très fortement engagé auprès de Donald Trump et de son administration, Elon Musk est régulièrement accusé de nuire à l’image de marque du constructeur et, surtout, d’avoir délaissé la gestion quotidienne de la compagnie. C’est dans ce contexte que prennent place les révélations du Wall Street Journal.
L’histoire du monde des affaires fourmille d’exemples de dirigeants actionnaires qui ont été contraints à la démission. Pour s’en tenir à l’univers de la Tech, on se rappelle que ce fut le cas de Steve Jobs, qui, bien que fondateur et actionnaire d’Apple, avait été poussé vers la sortie par le directeur général de l’époque, John Sculley, soutenu par le conseil d’administration. Larry Page et Sergei Brin, les fondateurs de Google, ont eux aussi très tôt laissé les rênes de la firme à un manager expérimenté, Eric Schmidt choisi par le conseil d’administration pour mener à bien l’introduction en bourse de la société. Les deux fondateurs d’Uber, Travis Kalanick et Garrett Camp, ont été progressivement écartés au point, aujourd’hui, de ne même plus être administrateurs de la société.
Elon Musk n’a pas fait autre chose à la tête de Tesla. Arrivé comme investisseur en 2004, il entre au conseil d’administration et en devient le président. Quelques années plus tard, il force le fondateur et directeur général, Martin Eberhard, à la démission. Après deux directeurs généraux intérimaires, il prend lui-même la direction exécutive de Tesla en 2008, cumulant les fonctions de président et de directeur général jusqu’en 2018, date à laquelle il est contraint, par la Securities and Exchange Commission d’abandonner la présidence du conseil d’administration. Ces différents exemples montrent bien qu’il ne suffit pas d’être actionnaire, ni même de détenir la majorité des droits de vote, pour diriger une société par actions. Il est primordial d’avoir l’appui du conseil d’administration car c’est cette instance qui, au final, fait et défait les directeurs généraux.
Les sociétés par actions ne sont pas des propriétés privées de leurs dirigeants mais des entités autonomes ayant une personnalité juridique et une existence propres. Les actions ne sont pas, en effet, des titres de propriété mais des droits sur la société. Les actionnaires, même quand ils possèdent la majorité des droits de vote, ne peuvent faire ce qui leur semble bon. Ils ne peuvent même pas pénétrer dans l’entreprise pour y prendre un boulon. Celui-ci appartient à la société non à eux. Les actionnaires ne sont donc pas les dirigeants par défaut ou par principe des sociétés par actions.
À lire aussi : Combien coûte l’ego d’Elon Musk ? Ou quand l’hubris des dirigeants devient un risque systémique
Cette fonction est dévolue au conseil d’administration, certes élu par les actionnaires, mais qui n’est pas, contrairement à ce qu’affirme la théorie économique dominante, au service de ces derniers. Les administrateurs ne représentent pas les actionnaires mais la société, dont ils sont les mandataires sociaux, c’est-à-dire les personnes qui sont habilitées à penser et à agir au nom de la société. S’ils suivent des politiques qui vont dans le sens des actionnaires, c’est qu’ils y trouvent leur intérêt, non qu’ils y soient légalement tenus. Leur pouvoir sur la société est très étendu : ils décident des grandes orientations stratégiques, établissent les comptes, proposent les dividendes, décident des émissions d’actions nouvelles et surtout nomment le directeur général. Leur autonomie est telle qu’ils sont en mesure de se coopter entre eux et de faire valider leur choix par les assemblées générales. C’est pourquoi il est important de se tourner vers la composition du conseil d’administration de Tesla pour comprendre comment Elon Musk a construit sa position de directeur général.
L’examen de la composition du conseil d’administration de Tesla montre, à première, vue des administrateurs totalement acquis à la cause d’Elon Musk. On y trouve tout d’abord Kimbal Musk, son frère, membre du conseil depuis 2004. Il a jusqu’à présent été loyal envers son aîné même si, contrairement à lui, il n’a pas renié ses convictions démocrate et écologiste. Ira Ehrenpreis est l’un des tout premiers investisseurs de Tesla. Présent au conseil d’administration depuis 2006, il peut être considéré comme un fidèle soutien. Robyn Denhom, la présidente du conseil d’administration, a été choisie par Elon Musk pour prendre sa place quand il a été contraint d’abandonner la fonction. Australienne d’origine, Robyn Denhom était assez peu connue du monde des affaires américain avant de devenir administratrice puis présidente de la compagnie. James Murdoch, administrateur depuis 2017, est le fils du magnat de la presse Robert Murdoch dont la chaîne Fox News est un soutien indéfectible de Donald Trump. Joe Gebbia, administrateur depuis 2022, est le co-fondateur de Airbnb. Il a rejoint Elon Musk au DOGE en février dernier.
Abonnez-vous dès aujourd’hui !
Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).
Kathleen Wilson-Thompson a fait toute sa carrière dans l’industrie pharmaceutique comme directrice des ressources humaines. Elle est sans doute l’administratrice la plus éloignée d’Elon Musk mais apportant au conseil le quota de féminisation et de diversité qui lui manque par ailleurs. Jeffrey Brian Straubel, enfin, est l’ancien directeur technique de Tesla. Présent dès les origines, il se flatte d’avoir été le cinquième employé de la société. Sa nomination en 2023 a fait grand bruit en raison des liens jugés trop étroits avec Elon Musk. Que ce soit par fraternité, idéologie ou carriérisme, les motifs de soutien à Elon Musk ne manquent pas. Ils sont encore renforcés par une politique de rémunération particulièrement généreuse à l’égard du conseil d’administration dont les membres s’attribuent régulièrement d’importants plans de stock-options. Robyn Denholm est ainsi la présidente la mieux rémunérée de l’ensemble des sociétés cotées américaines.
Elon Musk n’est pas en reste bénéficiant de plans d’actions très avantageux octroyés par le conseil d’administration. Il existe entre Elon Musk et son conseil un circuit d’enrichissement réciproque qui n’est pas sans rappeler les relations d’interdépendances décrites par le sociologue Norbert Elias à propos de la cour de Louis XIV tant les chances de profits de l’un sont liées à celles des autres. Ainsi que le rapportait récemment Olivier Alexandre, un autre sociologue, de la bouche d’un journaliste spécialiste de la Silicon Valley : « Si tu veux comprendre ce qui se passe ici, il faut suivre l’argent ».
Or, les flux d’argent se sont récemment taris chez Tesla. En premier lieu, des décisions de justice ont remis en question les rémunérations que les mandataires sociaux s’étaient attribuées. En novembre 2024, la cour du Delaware a annulé le plan d’actions attribué à Elon Musk en 2018 qui lui aurait permis d’empocher 58 milliards de dollars, au motif que les actionnaires n’avaient pas été correctement informés.
En janvier 2025, la même cour du Delaware constatait que les administrateurs de Tesla s’étaient indûment enrichis au détriment des actionnaires et approuvait un accord par lequel les premiers s’engageaient à rembourser près d’un milliard de dollars. Dans le même temps, alors que le cours de l’action de Tesla commençait à baisser, de nombreux administrateurs se sont délestés de leurs actions, quitte à accélérer la chute. Était-ce pour faire face à leur récente condamnation ou bien pour ne pas risquer de trop perdre ? Le fait est qu’ils ont vendu dans un contexte peu favorable et envoyé un signal très négatif aux investisseurs.
Ainsi, la présidente, Robyn Denhom, a vendu pour 200 millions de dollars d’actions depuis le mois de décembre 2024, Kimbal Musk s’est séparé de 75 000 actions Tesla pour la somme de 28 millions de dollars en février 2025, James Murdoch a à son tour a vendu 54 000 actions en mars 2025 pour 13 millions de dollars contribuant à la plus forte baisse journalière du titre. En mai, alors que le cours de l’action était bien remonté, c’est Kathleen Wilson-Thompson qui vend pour 92 millions de dollars d’actions Tesla. La fidélité des administrateurs à l’égard d’Elon Musk a donc ses limites qui sont visiblement la crainte de ne pas s’enrichir assez.
La réponse à la question initiale de savoir si l’homme le plus riche du monde peut être renvoyé de l’entreprise qu’il dirige, fût-il le premier actionnaire, est donc oui. Les statuts juridiques de la société par actions confèrent la capacité de nommer ou de révoquer le directeur général aux administrateurs non aux actionnaires. Ce sont donc les rapports sociaux entre le conseil d’administration et le directeur général qui décident du sort de ce dernier. Dans le cas de Tesla, l’argent y jouait un rôle central, il n’est donc pas étonnant qu’ils soient entrés en crise au moment où la société commençait à connaître des difficultés financières. Le fonctionnement du conseil d’administration de Tesla est certainement peu ordinaire mais il invite à se demander si le fondement du pouvoir économique dans les sociétés par actions ne repose pas tant sur l’argent détenu que sur celui que l’on peut faire gagner.
François-Xavier Dudouet est membre du CNRS. I a reçu des financements de l'Agence nationale de la recherche