LePartisan.info À propos Podcasts Fil web Écologie Blogs REVUES Médias
Souscrire à ce flux
L’expertise universitaire, l’exigence journalistique

ACCÈS LIBRE UNE Politique International Environnement Technologies Culture

▸ les 50 dernières parutions

05.06.2025 à 11:16

Recycler les plastiques pour protéger les océans, une illusion face à la surproduction ?

Romain Tramoy, PostDoc en environnement, Université Paris-Est Créteil Val de Marne (UPEC)

Jean-François Ghiglione, Directeur de recherche, Ecotoxicologue, Centre national de la recherche scientifique (CNRS)

Marie-France Dignac, Directrice de recherches sur la biologie des sols, INRAE, Inrae

Le vrai problème de la pollution plastique tient à la croissance continue de la production, qui se nourrit de toujours plus de plastique vierge, quel que soit le taux de recyclage.
Texte intégral (2460 mots)

Alors qu’aujourd’hui, seuls 10 % des plastiques sont recyclés, les industriels présentent souvent le recyclage comme la solution idéale. Ce raisonnement élude pourtant un aspect important : la croissance de la production de plastiques se poursuit. Elle se nourrit de toujours plus de plastique vierge, quel que soit le taux de recyclage.


Le recyclage des plastiques est-il aussi efficace qu’on le vante ? En 2024, le procureur de Californie attaquait en justice le pétrolier ExxonMobil, épinglant sa communication quant au recyclage du plastique, jugée comme de nature à désinformer le public et les décideurs. Le ministère de la justice de Californie pointait notamment son « marketing astucieux qui promettait que le recyclage allait permettre de résoudre le problème de la quantité toujours croissante de déchets plastiques produits par ExxonMobil ».

Ce procès inédit rappelle, alors que débute, ce 9 juin, la Conférence des Nations unies sur les océans (Unoc), que le recyclage des plastiques ne tient pas toutes les promesses faites par les entreprises et gestionnaires de déchets. De fait, 90 % du plastique produit annuellement n’est pas recyclé.

Le risque serait qu’une communication trop optimiste retarde la prise de conscience des consommateurs qui se conforment au geste de tri attendu. Les dangers des plastiques sont pourtant multiples. Ces derniers ont des impacts sur l’environnement et la santé humaine tout au long de leur vie, qu’ils finissent dans les océans et dans les sols du fait du ruissellement des eaux.

Des particules et substances polluantes sont libérées dans l’environnement à toutes les étapes de la chaîne de valeur des plastiques : lors de l’extraction du pétrole, de la production des plastiques, de leur utilisation et de leur gestion (ou non) après usage. Cela revêt des aspects variés : usure des peintures, des textiles, des plastiques agricoles, des filets de pêche…


À lire aussi : Pourquoi les déchets plastiques ne se dégradent-ils jamais vraiment ?


Les limites du recyclage

Les infrastructures de collecte, de tri et de recyclage des plastiques nécessitent des dépenses d’investissement et de fonctionnement importants, parfois pour des gisements insuffisants ou des coûts pour les matériaux recyclés supérieurs à ceux du plastique vierge produit à partir de pétrole.

Au-delà de cet enjeu d’attractivité économique du plastique recyclé, le recyclage est aussi limité par les propriétés intrinsèques des matériaux plastiques. À mesure que se multiplient les cycles de recyclage, la matière première recyclée voit ses qualités se dégrader. Cela affecte les propriétés finales des plastiques recyclés et en limite les débouchés. En effet, il faut réaliser un tri plus poussé en amont, puis ajouter de plus en plus de matières premières vierges et d’additifs pour y remédier et préserver les caractéristiques souhaitées du plastique produit.

Les plastiques produits et mis sur le marché ont donc des propriétés de recyclabilité inégales. À l’heure actuelle, seuls les plastiques faisant partie de la famille des thermoplastiques sont vraiment recyclables. Les plastiques thermodurcissables et les élastomères sont beaucoup plus difficiles à refondre en fin de vie.


Visuel d'illustration de la newsletter Ici la Terre représentant la planète Terre sur un fond bleu.

Abonnez-vous dès aujourd'hui.

Pour suivre au plus près les questions environnementales, retrouvez chaque jeudi notre newsletter thématique « Ici la Terre ».


Même pour les thermoplastiques, la présence d’additifs chimiques (tels que des plastifiants, stabilisants, colorants ou retardateurs de flamme…) limite la part des plastiques pouvant être dirigés vers la voie du recyclage.

Ces difficultés de recyclage des plastiques ne sont pas anodines, car ces derniers menacent la santé humaine et environnementale. On dénombre environ 16 000 substances chimiques dans les plastiques, dont un quart est considéré comme toxique pour l’environnement ou la santé humaine. Le risque d’accumulation de substances toxiques augmente avec le recyclage en raison de la dégradation ou de la recombinaison des substances chimiques et de contaminations croisées qui surviennent au cours de l’utilisation, du stockage, du tri et du transport des plastiques.


À lire aussi : Pourquoi le « recyclage bashing » est une erreur


Recyclage ou « décyclage » ?

Une fois que les déchets plastiques ont été transformés en paillettes ou granulés, deux possibilités de réintégration des résines recyclées émergent, en fonction de la qualité des polymères et des contaminants présents.

La première option est le recyclage dit en « boucle fermée ». Les matières recyclées sont mélangées avec des matières vierges afin de pouvoir retrouver leur utilisation d’origine.

La deuxième option est le recyclage en « boucle ouverte » (downcycling ou décyclage en français). Il concerne les résines recyclées de mauvaise qualité, car issues d’un mélange de plastiques différents. Pour les réintégrer dans une chaîne de production de plastique, il faut alors viser des applications moins exigeantes en termes de qualité.

La proportion des résines plastiques recyclées dirigées vers le recyclage en boucle fermée demeure très limitée. C’est, par exemple, le cas des bouteilles d’eau en plastique PET (polytéréphtalate d’éthylène) clair. Presque tous les autres matériaux plastiques suivent la voie du « décyclage ».

Reste une troisième voie, celle de la « valorisation énergétique », directe (en valorisant l’énergie dégagée lors de l’incinération) ou indirecte (en produisant des carburants à partir de plastiques). Elle est abusivement qualifiée de recyclage, alors qu’elle n’implique pas de refabrication de matière.


À lire aussi : Traité mondial contre la pollution plastique : en coulisses, le regard des scientifiques français présents


Le recyclage ne réduit pas la production de plastiques vierges

Ces infrastructures nécessitent des investissements importants pour voir le jour, qui sont souvent justifiés par l’argument selon lequel le recyclage des plastiques permettrait la diminution des besoins de plastique vierge. Mais est-ce vraiment le cas ?

Impacts de différents scénarios de recyclage sur la production mondiale de plastique vierge dans le contexte de différents objectifs de réduction de la production de plastique primaire. Karali et al. 2024)

Commençons par un scénario construit à partir de la tendance actuelle, où la production de plastique intègre environ 10 % de plastiques recyclés pour 90 % de résines vierges. En appliquant un taux de recyclage constant (10 %) depuis la création des premières usines de recyclage en 1973 (ce qui constitue une hypothèse haute, puisque la proportion de 10 % de plastiques recyclés a été atteinte plus tardivement), on observe que la pente de la courbe de production de plastique vierge (courbe grise) reste très proche de la courbe historique (trait noir plein) et des projections futures (tirets noirs).

Considérons maintenant un scénario où 55 % des déchets plastiques seraient recyclés à horizon 2030, ce qui est défendu par le Pacte vert pour les emballages plastiques de l’Union européenne – et qui constitue un objectif peu réaliste à l’échelle mondiale. Selon cette hypothèse, l’augmentation de la production de plastique vierge est certes retardée d’environ vingt ans par rapport aux tendances historiques, mais son évolution se poursuit toujours de façon quasi-exponentielle.

Même un scénario à 90 % de plastique recyclé – ce qui est utopique – ne ferait gagner que soixante-dix ans sur la production de plastique vierge et ne changerait rien au fait que celle-ci continue à augmenter.

Le scénario le plus ambitieux, proposé par le Rwanda et le Pérou dans le cadre des négociations du traité international sur la pollution plastique, préconise une baisse de 40 % de la production de plastique vierge en 2040 par rapport à l’année de référence 2025. Même dans ce cas, la production de plastique en 2040 correspondra toujours à celle de 2010.

Aucune de ces trajectoires ne change donc le problème de fond. À savoir, le fait que la production mondiale de plastique vierge a été multipliée par deux au cours des quinze dernières années et que cette tendance se poursuit, alors qu’elle avait été anticipée dès le rapport Meadows en 1972, au travers la croissance de la production industrielle et de son corollaire, la pollution.

Dans tous les cas, le recyclage des plastiques n’a qu’une incidence mineure sur la production de plastique vierge. D’autant plus que ces chiffres sont surestimés : ils considèrent que les plastiques produits et consommés deviennent des déchets rendus disponibles au recyclage dans leur année de production, sans tenir compte du stock de plastiques restés en usage. Ceci n’est généralement vrai que pour les emballages, soit environ 40 % de la production de plastiques.

Il y a pourtant urgence, car la pollution plastique contribue au dépassement d’au moins six des neuf limites planétaires.


Cet article a été co-écrit avec Henri Bourgeois-Costa (Fondation Tara Océans).

The Conversation

Romain Tramoy a reçu des financements exclusivement publiques, notamment du ministère de la transition écologique, du GIP Seine aval ou encore de l'ANR dans le cadre d'une Chaire de Professeur Junior.

Jean-François Ghiglione a reçu des financements de l'ANR-PLASTIMAR (ANR--23-CE34-0011)

Marie-France Dignac a reçu des financements publics de l'ADEME et de l'ANR.

PDF

04.06.2025 à 16:35

Restaurants : des bouillons Duval au Bouillon Pigalle, histoire d’un modèle populaire

Nathalie Louisgrand, Enseignante-chercheuse, Grenoble École de Management (GEM)

Depuis quelques années, le bouillon a fait son grand retour en France. Mais quelle est son histoire ? Pourquoi ce type de restaurant connaît-il un tel engouement ?
Texte intégral (1843 mots)

Peut-être avez-vous vu un « bouillon » s’ouvrir récemment dans votre ville. Nés au XIXe siècle pour nourrir la classe ouvrière parisienne, ces restaurants bon marché étaient quasiment tombés en désuétude. Ils reviennent désormais en force. Pourquoi cet engouement ? Qu’est-ce qui fait la spécificité d’un bouillon et quelle est l’histoire de ces établissements ?


Offrir des repas nutritifs à faible coût aux nombreux travailleurs de Paris : telle est, au XIXe siècle, l’idée avant-gardiste de la Compagnie hollandaise. En 1828, elle ouvre un ensemble de petits restaurants proposant des bouillons de bœuf bouilli, dans différents points de la capitale à une population ouvrière, alors grandissante. Le concept du bouillon vient de naître et, avec lui, une forme précoce de standardisation de repas à bas coûts. Mais, en 1854, l’entreprise disparaît. C’est à ce moment-là qu’émerge celui que les annales retiendront comme le père des bouillons : Baptiste-Adolphe Duval.

Dans les années 1850, Baptiste-Adolphe Duval possède une boucherie située rue Coquillère à Paris (1er). Comme sa clientèle n’achète que les « beaux morceaux », Duval cherche un moyen d’utiliser la « basse viande » non vendue. Il pense alors à préparer un bouillon réalisé avec les bas morceaux de bœuf ainsi que du bœuf bouilli, de grande qualité. C’est ainsi qu’il ouvre, en 1854, un établissement, rue de la Monnaie, dans le 1er arrondissement de Paris. Il y propose des plats chauds, réconfortants et bon marché aux bourses les plus modestes, notamment les nombreux travailleurs des Halles, le « ventre de Paris ». Avec les travaux d’embellissement et de modernisation de la ville par le baron Haussmann, des milliers d’ouvriers sont venus de toute la France œuvrer à la capitale : ce sont autant de bouches à nourrir. Le succès est immédiat.

L’ancêtre de la restauration rapide

Duval ouvre alors d’autres points de vente dans la capitale, parmi lesquels, en 1855, un fastueux établissement à l’architecture de fer et de fonte aménagé dans un immense hall de 800 m2 au 6, rue de Montesquieu (1er), non loin du Louvre. Cet édifice, qui peut accueillir jusqu’à 500 personnes, assure un service en continu effectué par des serveuses reconnaissables à leur robe noire, leur tablier blanc et leur bonnet de tulle. Ces dernières appelées aussi les « petites bonnes » symboliseront les bouillons Duval, et seront aussi bien dessinées par des artistes comme Auguste Renoir qu’évoquées par des écrivains comme Joris-Karl Huysmans. Une nouvelle clientèle, attirée par le bon rapport qualité-prix, la flexibilité des horaires et les prix fixes, apparaît. Elle est constituée des classes moyennes et de la petite bourgeoisie. Le choix des mets se développe au fil du temps : on peut ainsi commander du pot-au-feu, du bœuf bourguignon, du veau rôti, mais aussi des huîtres, de la volaille ou du poisson.

Ces endroits – qui prennent le nom de « bouillons » – sont des lieux très propres, des symboles de la modernité. Ils vont rapidement devenir un concept de restaurant à part entière avec une cuisine simple, faite de produits de qualité. Ils sont considérés comme faisant partie des précurseurs de la restauration rapide.

Un nouveau modèle économique

La réussite économique des bouillons Duval est principalement due à son modèle de gestion des stocks. Ils fonctionnent comme une chaîne de restauration et appliquent des économies d’échelle grâce à leurs propres méthodes d’approvisionnement, leur production de pain, leurs boucheries, etc. En 1867, Duval crée la « Compagnie anonyme des établissements Duval » avec 9 succursales. En 1878, il y en aura 16, puis des dizaines dans la capitale à la fin du XIXe siècle.

Le succès des bouillons Duval fait des émules. Mais si la capitale en dénombre environ 400 en 1900, ils englobent en réalité une variété d’établissements hétéroclites aux fonctionnements différents, allant de la simple marchande ambulante aux bouillons s’inscrivant dans la lignée de Duval – comme les établissements Boulant ou Chartier.

Ce dernier, encore en activité aujourd’hui, a ouvert ses portes en 1896 sur les Grands Boulevards. Son immense salle aux boiseries sculptées et ses magnifiques lustres, de style art nouveau, sont classés monuments historiques. Il n’a jamais fermé ses portes ni changé de nom et, contrairement à tous les autres, a traversé le temps et les modes sans aucune interruption, même si son taux de fréquentation a pu connaître des fluctuations.

Concept de restaurant populaire, le bouillon s’est ainsi transformé en une institution incontournable du paysage parisien. Son succès a ensuite perduré jusqu’à l’entre-deux-guerres avant de tomber en désuétude. En effet, dans la France des Trente Glorieuses (1945-1975), le bouillon semble dépassé, ringard, et les clients lui préfèrent par exemple les brasseries qu’ils trouvent plus « haut de gamme » et modernes. On assiste aussi au développement des fast-foods (à partir des années 1960, ndlr).


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Depuis 2017, un grand retour des bouillons

Cependant, la flamme du bouillon et de l’imaginaire qui l’accompagne ne s’est jamais complètement éteinte et c’est ainsi qu’en novembre 2017, les frères Moussié, des restaurateurs, ouvrent à Paris le Bouillon Pigalle (Paris 18e).

Leur souhait est de reprendre les codes initiaux des bouillons, c’est-à-dire des plats réconfortants (par exemple, le bœuf bourguignon, le petit salé aux lentilles ou la purée saucisse) et les desserts gourmands (comme les profiteroles arrosées de chocolat chaud), servis à prix modiques, dans un décor rétro, sur de grandes tablées à l’allure de cantine, le tout dans un esprit « bonne franquette » avec un service en continu et sans réservation.

Qu’est-ce qu’un bouillon ? « Les bouillons, la table du tout-Paris », Arte, 2025.

Le succès est au rendez-vous et, petit à petit, d’autres établissements (ré)ouvrent comme le Bouillon Julien en 2018 dans un décor restauré, ou le Bouillon République en 2021 dans le cadre préexistant de la brasserie alsacienne Chez Jenny. Ces restaurants bon marché attirent beaucoup de clients, français ou étrangers, ravis de manger bon pour pas (trop) cher en période d’inflation. En effet, nombre d’entre eux permettent de se sustenter pour moins de 20 euros avec une entrée, un plat et un dessert. Leur renaissance repose aussi sur des valeurs de simplicité et d’authenticité.

D’autre part, de nombreux bouillons insistent sur le « fait maison », et travaillent fréquemment avec des producteurs locaux et en circuit court.

Des bouillons en région

Ces lieux incarnant la convivialité et l’esprit traditionnel français se sont également multipliés hors de la capitale. Et si leurs chefs continuent de proposer des classiques réconfortants de la gastronomie française, certains le font à la sauce régionale, par exemple, le « maroilles rôti » au Petit Bouillon Alcide à Lille ou le « diot, polenta crémeuse » à La Cantine Bouillon de Seynod, en Haute-Savoie.

À Lille, un bouillon sauce locale.

Depuis deux ou trois ans, des chefs étoilés ouvrent aussi leur bouillon. C’est le cas du chef grenoblois doublement étoilé Christophe Aribert avec le Bouillon A, ouvert en mai 2022. Il y met en avant des produits bio, locaux et de saison. Thierry Marx, deux étoiles, a pour sa part ouvert en 2024 à Saint-Ouen le Bouillon du Coq, dans lequel il propose des harengs-pomme à l’huile ou son célèbre coq au vin. Pour lui, c’est aussi une façon de remettre au goût du jour des plats étiquetés « ringards » à des prix très abordables.

Depuis début 2023, on estime qu’un bouillon se crée chaque mois en France. Ce sont principalement les prix bas qui attirent la clientèle.

Le maintien d’un tarif accessible est, lui, le premier combat de nombre de propriétaires de bouillons. Leur secret ? Une forte préparation en amont (en particulier les plats froids comme les œufs mayonnaise ou les poireaux vinaigrette), un nombre de gestes réduits par assiette (pas trop de techniques, pas de dressage compliqué), des recettes simples, une carte qui change peu, mais aussi des économies sur le volume d’achat et des tables qui tournent très rapidement.

L’autre assurance du bouillon est de trouver des plats classiques servis en un temps record dans un cadre agréable et convivial.

The Conversation

Nathalie Louisgrand ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

04.06.2025 à 16:35

Est-ce la fin de la toute-puissance du dollar ? Une opportunité géopolitique pour l’Union européenne

Kambiz Zare, Professor of International Business and Geostrategy, Kedge Business School

L’euro peut remplacer le dollar en première devise mondiale. Comment ? En renforçant son cadre institutionnel et en nouant des alliances économiques avec toutes les régions du monde.
Texte intégral (1895 mots)
Tous les principaux facteurs qui ont permis la domination du dollar américain sont réunis pour l’euro : économie de grande taille, rôle majeur dans le commerce international et stabilité macroéconomique. MyImages-Micha/Shutterstock

L’euro peut remplacer le dollar en première devise mondiale. Comment ? En renforçant son cadre institutionnel et en nouant des alliances économiques avec toutes les régions du monde. Car plus de vingt-cinq ans après sa création, l’euro a démontré une résilience remarquable : 20 % des réserves de change mondiales, deuxième devise la plus utilisée au monde pour les opérations de prêt, d’emprunt et les réserves des banques centrales… derrière le dollar.


« Qui ne sait pas lire et vit avec un dollar par jour ne ressentira jamais les bienfaits de la mondialisation », disait l’ancien président démocrate états-unien Jimmy Carter

La suprématie du dollar états-unien, autrefois incontestée, attestée par l’ancien président démocrate, apparaît de plus en plus fragilisée. S’il a longtemps été l’axe central du système monétaire international, le dollar continue de dominer les échanges commerciaux, les réserves de change et la cotation des matières premières.

La monnaie états-unienne est présente dans près de 90 % des transactions sur le marché des changes. Près de 60 % des réserves de change des banques centrales sont en dollars. La moitié des exportations mondiales sont aussi libellées en dollars. La montée en puissance de monnaies alternatives comme l’euro ou le yuan, la diversification des réserves par de nombreux pays et la volonté croissante de contourner la dépendance au dollar signalent une recomposition de l’ordre monétaire mondial.

Dans ce contexte, la dédollarisation ne représente pas une menace pour l’Union européenne, mais une véritable opportunité stratégique. En consolidant ses atouts économiques et en renforçant l’internationalisation de l’euro, l’Union européenne (UE) pourrait faire de sa monnaie un levier d’influence géopolitique majeur. Pourquoi ? Tous les principaux facteurs et conditions qui ont permis la domination du dollar américain – à l’exception du pétrodollar dans les années 1970 – sont réunis aujourd’hui pour l’euro : économie de grande taille, rôle majeur dans le commerce international et stabilité macroéconomique.

L’euro face au dollar

Depuis sa création en 1999, l’euro peine à rivaliser avec le dollar. La raison ? Des faiblesses structurelles, notamment l’absence d’un marché des capitaux unifié et d’une gouvernance budgétaire centralisée. Le graphique ci-dessous retrace l’évolution de l’euro face au dollar, depuis sa mise en circulation en 1999. Dans les premières années, entre 1999 et 2002, l’euro démarre à un niveau relativement bas, valant moins qu’un dollar américain. Cette faiblesse initiale provoque une perte de confiance dans cette nouvelle devise, encore peu établie sur les marchés internationaux.

À partir de 2002, l’euro entame une période de forte appréciation, jusqu’à dépasser 1,50 dollar en 2008. Cette montée reflète une confiance croissante dans l’économie européenne, tandis que le dollar, de son côté, se fragilise sur la scène mondiale. En 2022, l’euro atteint presque la parité avec le dollar, c’est-à-dire qu’un euro vaut quasiment un dollar. Cette situation inédite résulte notamment du conflit en Ukraine et d’un contexte mondial fortement inflationniste. Depuis 2023, l’euro semble s’être stabilisé, évoluant dans une fourchette relativement étroite entre 1,05 et 1,10 dollar, sans variations majeures.

L’euro : deuxième devise au monde

L’euro constitue le pilier central du système financier européen. Devise officielle de vingt États membres de l’Union européenne, l’euro est utilisé quotidiennement par plus de 350 millions de personnes. Elle dépasse largement les frontières de l’Europe pour s’imposer comme une monnaie de référence à l’échelle mondiale. À ce jour, environ 60 pays et territoires ont arrimé leur monnaie à l’euro, illustrant son rayonnement international.

Plus de vingt-cinq ans après sa création, l’euro a démontré une résilience remarquable. En 2023, il représentait près de 20 % des réserves de change mondiales, derrière le dollar américain. Il demeure la deuxième devise la plus utilisée au monde pour les opérations de prêt, d’emprunt et les réserves des banques centrales.

À la différence d’autres regroupements régionaux, comme le Conseil de coopération du Golfe (GCC) qui a tenté en vain d’instaurer une union monétaire, l’euro s’est imposé. L’union monétaire du GCC a échoué en raison du refus de ses États membres de céder leur souveraineté monétaire. Le commerce intrarégional limité et la volatilité des prix du pétrole ont renforcé les priorités nationales.

Système européen des banques centrales (SEBC)

Face aux crises financières et économiques, l’Union européenne a su renforcer son cadre institutionnel, élargir le rôle de la Banque centrale européenne (BCE) et stabiliser ses marchés. L’un des fondements de cette réussite réside dans le système européen de banques centrales (SEBC).

Ce système regroupe la Banque centrale européenne (BCE) et les banques centrales nationales des États membres. La mission principale du SEBC est d’assurer la stabilité des prix, garantissant l’indépendance et la crédibilité de la politique monétaire. Pour y parvenir, le SEBC met en œuvre des instruments de politique monétaire, qu’ils soient conventionnels ou non – quantitative easing, abaissement du taux d’intérêt, etc. Cette stratégie permet une allocation optimale des ressources, dans le respect des principes d’une économie de marché ouverte et concurrentielle.

Monnaie de réserve

À condition de poursuivre les réformes indispensables, l’euro a le potentiel de s’affirmer comme une devise de réserve et de transaction de premier plan, en particulier dans le cadre des échanges commerciaux et des accords énergétiques. Ces réserves sont largement détenues par les banques centrales. Elles permettent à la Banque centrale européenne (BCE) de disposer de liquidités suffisantes pour conduire des opérations de change ou faire face à un déficit de sa balance commerciale. Or, le dollar américain occupait le rôle dominant de devise de réserve depuis la Seconde Guerre mondiale.

Ce statut présente plusieurs avantages : facilité avec laquelle les prix peuvent être comparés d’un pays à l’autre, stabilité des prix et de la croissance économique, etc. Pour les pays de l’Union européenne, l’un des principaux avantages réside dans l’amélioration de la liquidité, facilitant ainsi l’accès au capital pour les entreprises européennes. Ces bénéfices s’accompagnent de coûts importants. La forte demande d’euros tend à en renforcer sa valeur, rendant les exportations européennes plus chères, contribuant ainsi à un déficit commercial persistant.

Bien que les coûts et les bénéfices fassent encore l’objet de discussions parmi les experts, il ressort que, d’un point de vue géopolitique, les avantages tendent à prédominer sur les inconvénients.

Alliances économiques renforcées avec l’Union européenne

La dynamique actuelle est d’autant plus propice que l’Union européenne renforce activement ses liens avec des partenaires économiques stratégiques. Elle est le premier partenaire commercial de l’Inde, le second de la Chine, le principal investisseur au sein du Mercosur, et un acteur clé dans le golfe Persique et en Afrique de l’Ouest.

Au cours de la dernière décennie, le commerce de marchandises entre l’Union européenne et l’Inde s’est accru d’environ 90 %. Selon les données officielles, l’Union européenne se classe au deuxième rang des partenaires commerciaux de l’Inde, avec une valeur totale des échanges bilatéraux de biens atteignant 120 milliards d’euros en 2024.

Ces accords ne sont pas uniquement économiques : ils sont aussi des vecteurs d’influence monétaire. Plus les échanges seront libellés en euros, plus la monnaie européenne s’imposera comme un outil de stabilité et d’indépendance vis-à-vis du dollar.

L’heure européenne ?

Alors que le dollar conserve sa domination, les signes de fragilité se multiplient. La dédollarisation mondiale ouvre un espace stratégique dans lequel l’Union européenne peut s’insérer avec ambition. En s’appuyant sur ses alliances, en affirmant une politique monétaire cohérente, et en promouvant l’euro comme alternative crédible, l’UE peut transformer cette phase de transition en levier de puissance.

L’enjeu n’est pas de remplacer le dollar, mais de construire un système monétaire plus équilibré, pluriel, et résilient. Dans ce nouveau paysage, l’euro a une carte majeure à jouer.

The Conversation

Kambiz Zare ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

04.06.2025 à 16:34

« Fertiliser » les océans pour capter le CO₂ : solution miracle ou mirage écologique ?

Marion Fourquez, Research scientist, Mediterranean Institute of Oceanography (MIO) (IRD, AMU, CNRS), Institut de recherche pour le développement (IRD)

Cette approche relevant de la « bio-ingénierie » du climat est vantée par plusieurs start-ups. Elle est pourtant risquée.
Texte intégral (3491 mots)
En théorie, il suffirait de parsemer les océans de fer pour déclencher un _bloom_ de phytoplancton (ici, vue satellite) pour capter davantage de CO₂. La réalité est plus complexe. Nasa Earth Observatory

Aider les océans à capturer davantage de CO2 en y déversant du fer pour stimuler la croissance du phytoplancton : cette approche relevant de la « bio-ingénierie » du climat est vantée par plusieurs start-ups. Elle est pourtant risquée, car les incertitudes autour des mécanismes naturels à l’œuvre sont nombreuses.


Alors que les concentrations de CO2 dans l’atmosphère atteignent des niveaux inédits, les stratégies de capture du carbone se multiplient. Parmi elles, les approches dites « océaniques » gagnent en popularité.

Séduisantes, elles misent sur un argument de choc : elles pourraient stocker le carbone pour un dixième du coût de la capture directe du CO₂ dans l’air, méthode gourmande en énergie et dont la technologie est aujourd’hui mise en doute.

L’une de ces approches, testée depuis les années 1990, mais récemment remise en avant par des start-ups, consiste à fertiliser les océans avec du fer pour stimuler la photosynthèse du phytoplancton. Mais, derrière cette idée alléchante, que cache réellement la fertilisation de l’océan par le fer (Ocean Iron Fertilization en anglais, ou OIF) ?

La pompe biologique, moteur invisible du climat

Comme les plantes terrestres, le phytoplancton – ces microalgues qui dérivent à la surface des océans – réalise la photosynthèse : il capte du dioxyde de carbone (CO2) et libère du dioxygène (O2), produisant à lui seul près de 50 % de celui que nous respirons.

Mais son rôle ne s’arrête pas là. Une fois mort ou consommé, le phytoplancton transporte une partie de ce carbone vers les profondeurs océaniques sous forme de particules connues sous le nom de « neige marine ».

La « neige marine » est une pluie de détritus marins, principalement issus du phytoplancton, qui tombe des couches supérieures vers les fonds de l’océan. Henk-Jan Hoving/GEOMAR

Ce phénomène, appelé « pompe biologique », permet chaque année de transférer environ 10 milliards de tonnes (gigatonnes) de carbone vers les fonds marins. Des travaux ont montré que ce mécanisme, à lui seul, a permis de stocker environ 1 300 gigatonnes de carbone dans l’océan sur une période de cent vingt-sept ans, contribuant ainsi à maintenir les niveaux de CO2 atmosphérique plus bas qu’ils ne le seraient en l’absence de ce mécanisme.

Sans cette pompe biologique, notre atmosphère contiendrait 200 à 400 ppm de CO2 en plus, et notre planète serait globalement a minima 3 °C plus chaude.


Visuel d'illustration de la newsletter Ici la Terre représentant la planète Terre sur un fond bleu.

Abonnez-vous dès aujourd'hui.

Pour suivre au plus près les questions environnementales, retrouvez chaque jeudi notre newsletter thématique « Ici la Terre ».


Mais, pour fonctionner, cette pompe a besoin de nutriments, et notamment d’un micronutriment essentiel : le fer. Il existe de multiples sources de fer pour les océans. Le ruissellement des fleuves, l’érosion des marges continentales ou les sources hydrothermales sont autant de processus contribuant à l’apport de fer aux eaux océaniques. Les apports atmosphériques sont aussi une source importante de fer pour l’océan du large. Les poussières, transportées par les vents et principalement en provenance des grands déserts, en fournissent la principale source.

L’« hypothèse du fer »

À la fin des années 1980, l’océanographe américain John Martin a proposé ce qu’on appelle l’« hypothèse du fer ». À savoir, dans certaines régions océaniques, riches en macronutriments (nitrates, phosphates), la croissance du phytoplancton serait freinée par un manque de fer. Il suffirait donc d’y parsemer le métal pour déclencher un « bloom » de phytoplancton, captant ainsi davantage de CO2.

Les « blooms » de phytoplancton sont des proliférations rapides et massives d’algues microscopiques dans l’eau, souvent visibles sous forme de taches colorées. Ces « blooms » peuvent être si étendus qu’on les observe depuis l’espace. Nasa/Goddard Space Flight Center/Jeff Schmaltz/the MODIS Land Rapid Response Team

Les régions carencées en fer, appelées HNLC (High Nutrient, Low Chlorophyll), couvrent un tiers des océans mondiaux, dont l’océan Austral, véritable « géant endormi » de la séquestration carbone.

Des expérimentations scientifiques à petite échelle ont montré qu’une tonne de fer pouvait permettre de capturer de 30 000 à 110 000 tonnes de CO2. À l’échelle planétaire, une étude de 2023 a estimé que l’ajout d’un million à deux millions de tonnes de fer par an dans les océans pourrait permettre de capter jusqu’à 45 milliards de tonnes de CO2 d’ici 2100. De quoi faire rêver les promoteurs de la géo-ingénierie.

Mais, au-delà des incertitudes scientifiques, les risques écologiques sont bien réels. Une fertilisation massive pourrait altérer les réseaux trophiques (terme qui désigne l’ensemble des chaînes alimentaires d’un milieu donné), appauvrir la biodiversité, provoquer des zones mortes ou encore des proliférations d’algues toxiques. Une modélisation récente indique que l’OIF pourrait entraîner une diminution de 5 % de la biomasse halieutique (c’est-à-dire liée à la pêche) tropicale, en plus des 15 % déjà attendus d’ici la fin du siècle du fait du changement climatique.

C’est pourquoi l’OIF a été interdite à des fins commerciales en 2013, dans le cadre du protocole de Londres sur la pollution marine.


À lire aussi : Éliminer le CO₂ grâce au puits de carbone océanique, une bonne idée ?


Les promesses fragiles de la fertilisation

Pourtant, certaines entreprises cherchent à relancer la machine, appâtées par la promesse de crédits carbone à faible coût.

À l’inverse de ces initiatives privées, les chercheurs plaident pour une évaluation rigoureuse des risques environnementaux et une gouvernance internationale claire avant toute expérimentation à grande échelle.

Derrière les chiffres prometteurs souvent avancés sur la fertilisation en fer des océans se cachent des incertitudes majeures. Un point crucial tient à la nature même du fer utilisé. En effet, toutes les formes de fer ne sont pas assimilées de manière égale par le phytoplancton : sa biodisponibilité dépend fortement de sa composition chimique et de sa provenance.

Une étude que j’ai menée dans les eaux de l’océan Austral, publiée en 2023 dans la revue Science Advances, a montré que le fer libéré par la fonte glaciaire est jusqu’à 100 fois plus biodisponible pour le phytoplancton que celui apporté par les poussières atmosphériques.

En d’autres termes, deux régions présentant des concentrations similaires en fer dissous dans l'eau – mais de biodisponibilité différente – peuvent avoir des réponses biologiques très contrastées. Cette variabilité rend hasardeuse toute projection simpliste, en particulier lorsqu’il s’agit de fertilisation artificielle à grande échelle.

Dans cet article, nous avons souligné que cette complexité contraste fortement avec la manière dont certaines approches de bio-ingénierie présentent l’ensemencement en fer, décrit comme une solution simple et efficace de séquestration du carbone. Cette mise en garde a été relayée également par le CNRS.

À cela s’ajoute un autre facteur souvent négligé : le phytoplancton n’est pas le seul organisme à consommer du fer. Il entre directement en compétition avec les bactéries marines, qui ont besoin de fer pour respirer, relâchant à leur tour du CO2. Si ce dernier remonte en surface, il peut alors retourner dans l’atmosphère. Et dans ce cas, la balance n’est pas forcément positive : il n’y a pas forcément de gain net en matière de stockage de carbone.

D’autres recherches montrent aussi que modifier les communautés de phytoplancton, comme le ferait une fertilisation artificielle, pourrait altérer les chaînes alimentaires marines. En effet, en changeant la composition du phytoplancton, on modifie l’alimentation du zooplancton, et donc le devenir du carbone dans l’océan.

Avant de pouvoir prédire l’efficacité réelle de ces technologies, il est essentiel de mieux comprendre ces dynamiques écologiques et de développer des outils de suivi robustes.

La fonte des glaciers, un accélérateur pour l’absorption océanique du CO₂ ?

Face aux incertitudes que soulèvent les projets de fertilisation artificielle, certains processus naturels méritent d’être mieux compris. C’est notamment le cas des apports de fer issus de la fonte des glaciers.

Les régions polaires se réchauffent bien plus rapidement que le reste de la planète – de quatre à sept fois plus vite que la moyenne mondiale. Cette fonte accélérée des calottes glaciaires du Groenland et de l’Antarctique entraîne le déversement dans l’océan de 370 milliards de tonnes d’eau douce par an, chargée en fer.

Libéré en quantité croissante sous l’effet du réchauffement climatique, ce fer pourrait, dans certaines conditions, stimuler localement la productivité marine et activer la pompe biologique de manière naturelle. Mais les mécanismes en jeu restent encore mal compris, tout comme l’ampleur réelle du stockage de carbone associé.

Le navire Persévérance proche des glaciers de l’Antarctique en 2023. Férial, Fourni par l'auteur

Pour approfondir cette question, une campagne océanographique est prévue courant 2026 en mer de Ross, en Antarctique. Elle mobilisera le voilier Persévérance, une goélette polaire de 42 mètres conçue pour les expéditions scientifiques dans les environnements extrêmes.

Cette mission, menée en collaboration avec le laboratoire de Takuvik (CNRS/Université Laval/Sorbonne Université), visera à étudier in situ les interactions entre les apports de fer glaciaire et la dynamique du phytoplancton, afin de mieux comprendre le rôle potentiel de ces processus naturels dans la séquestration du carbone.

L’océan, un allié qu’il ne faut pas surexploiter

Aujourd’hui, l’océan absorbe environ 30 % de nos émissions de CO2. Il le fait naturellement, via deux « pompes » complémentaires : la pompe physique (dissolution des gaz dans les eaux froides, brassage vertical) et la pompe biologique. Bien que la pompe physique reste dominante, la capacité de la pompe biologique à s’adapter aux changements climatiques est l’un des grands enjeux scientifiques actuels.

C’est aussi un sujet qui attire, à juste titre, l’attention des acteurs économiques de la décarbonation. S’il est tentant de chercher dans l’océan des solutions rapides et peu coûteuses au dérèglement climatique, nous devons rester prudents. L’océan est un formidable régulateur du climat, mais ce n’est pas un puits sans fond.

The Conversation

Marion Fourquez a été financée par le Fonds national suisse de la recherche scientifique (FNS, bourses PP00P2_138955 et PP00P2_166197), ainsi que par le programme de recherche et d’innovation Horizon 2020 de l’Union européenne (convention de subvention no 894264, projet BULLE). Cette étude a bénéficié du soutien du Projet 16 de l’expédition de circumnavigation en Antarctique (ACE) sous l’égide de l’Institut Polaire Suisse (SPI), avec le soutien financier de la Fondation ACE et de Ferring Pharmaceuticals.

PDF

04.06.2025 à 16:32

Entreprises : du vol à la rêverie, nous sommes presque tous un peu « déviants » au travail

Brad Harris, Professor of management, associate dean of MBA programs, HEC Paris Business School

Contrairement à bien des idées reçues et à des recherches antérieures, les comportements déviants au travail sont plus répandus qu’on ne le croit.
Texte intégral (2430 mots)

Dans l’entreprise, tout n’est pas blanc ou noir, notamment quand on s’intéresse aux comportements s’éloignant de la norme. Tous les salariés ou presque s’éloignent des règles édictées, de façon plus ou moins grave. La recherche montre que leur motivations sont multiples et sont souvent liées à une insatisfaction professionnelle. Le type de personnalité influera sur les manifestations du mécontentement. Décryptage de nos écarts au travail.


On pense en général que les comportements déviants sur le lieu de travail sont le fait de quelques « cas isolés » – les perturbateurs qui bâclent intentionnellement leurs tâches, volent dans les caisses de l’entreprise ou entrent en conflit ouvert avec leurs collègues. Mais si la gamme de ces comportements comprenait également des transgressions plus subtiles – rêvasser, prendre des pauses café trop longues ou lancer des plaisanteries douteuses pendant une réunion ? En réalité, on trouve l’une ou l’autre de ces transgressions mineures chez la plupart des employés, ce qui modifie notre conception de la déviance au travail.

Traditionnellement, la recherche classe la déviance dans le cadre professionnel en catégories bien nettes : les mauvais comportements sont soit interpersonnels (dirigés contre des collègues), soit organisationnels (dirigés contre l’entreprise). Mais la majorité des employés ne peut pas se ranger dans des catégories rigides de « bons » ou « mauvais », et les individus ne se cantonnent pas à un seul type de transgression. En réalité, beaucoup de salariés s’adonnent à un éventail de transgressions mineures, moins gênantes.

Analyse des transgressions

Notre recherche a examiné différents styles ou « catégories » de transgression sur le lieu de travail. Nous avons pratiqué une méta-analyse des réactions de plus de 6 000 employés à travers 20 études primaires aux États-Unis et ailleurs, et conduit de multiples études complémentaires dans différents pays et domaines d’activité.

En ayant recours à des techniques de modélisation statistique, notre analyse des études antérieures a dégagé cinq types spécifiques de « déviants » au travail. Dans plusieurs cas, ils sont irréductibles aux catégories traditionnelles – bon/mauvais ou personne/organisation. Nous avons ensuite mené une deuxième étude comprenant 553 participants, laquelle a donné des conclusions semblables, et montré que les comportements de ces types d’individus sont liés au degré de satisfaction sur le lieu de travail, à l’intention de rotation et autres perspectives professionnelles.

Cinq types de perturbateurs

Voici une liste des cinq types de « perturbateurs » que nous avons identifiés grâce à notre étude complémentaire :

  • Les travailleurs en retrait (39 % des participants à notre étude). On ne verra pas ces employés provoquer des scènes. Il se pourrait même qu’on ne les voie pas beaucoup. Loin du profil classique du perturbateur, ces individus expriment leur mécontentement en négligeant leurs tâches, en arrivant en retard, et en se tenant à l’écart de la vie de l’entreprise, parfois de manière très marquée. La prévalence de cette catégorie, qui n’avait pas été bien caractérisée lors des précédentes études sur la déviance, reflète le phénomène du « quiet quitting » (démission en sourdine) qui s’est popularisé ces dernières années.

À lire aussi : La déviance des cadres intermédiaires comme réponse aux tensions structurelles au sein des organisations


  • Les saboteurs (9 %). Cette catégorie fait montre de la même productivité basse et du même retrait que la précédente, mais avec davantage de morgue. Ces individus évitent leurs tâches, travaillent lentement, prennent de longues pauses et se montrent souvent grossiers avec leurs collègues.

  • Les travailleurs stagnants (21 %). Désinvestis, mais pas ouvertement nuisibles, ces employés rêvassent et arrivent occasionnellement en retard sans provoquer de troubles apparents. La plupart du temps, ils ne se font pas remarquer, mais, en cas de crise, on peut remarquer qu’ils n’assurent pas leur part d’effort. Ces travailleurs peuvent saper les tentatives de transformations organisationnelles et éroder peu à peu une culture d’entreprise positive.

  • Les déviants aggravés (4 %). Les fameuses « pomme pourries ». Les individus de cette catégorie s’adonnent à toutes les transgressions décrites ci-dessus, vraisemblablement en raison d’un taux élevé d’insatisfaction professionnelle.

  • Les déviants mineurs (27 %). Les membres de ce groupe évitent la plupart des comportements déviants et sont en général de bons citoyens sur leur lieu de travail. Même si ce pourcentage est surestimé – le biais de désirabilité sociale, ou la tendance des individus à se présenter sous un bon jour peut avoir empêché les participants de reconnaître tous leurs manquements – il reste relativement modeste, ce qui est parlant – une grande majorité des travailleurs de notre échantillon reconnaissent certaines transgressions, même mineures.


Abonnez-vous dès aujourd’hui !

Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).


Fondations sapées en silence

Nos données montrent qu’il n’est pas toujours question de transgressions flagrantes : celles-ci, en réalité, restent une rareté ! Si des actes graves, comme le vol (qu’il s’agisse d’un vol caractérisé ou d’une falsification de reçus) et l’agression franche demeurent exceptionnels, des petits manquements comme rêvasser, prendre des pauses supplémentaires et faire des remarques sarcastiques, sont assez fréquents.

Il est facile de passer à côté de ces petites déviances banales, dans la mesure où elles ne suscitent pas de réactions viscérales de la part des managers ou collègues ; il n’empêche qu’elles peuvent s’ajouter et éroder, à terme, une culture d’entreprise positive de façon invisible jusqu’au moment où un incident conséquent se produit.

L’injustice, aux sources de la déviance

Les employés qui s’adonnent à des transgressions le font souvent parce qu’ils s’estiment lésés par une personne ou une situation, ou en raison de motivations plus profondes, liées à des traits de personnalité propices à la déviance. Notre étude renforce cette idée, tout en offrant un éclairage supplémentaire. Comme on pouvait s’y attendre, quand un travailleur s’estime lésé – par un patron exigeant, des collègues hostiles ou un manque de soutien de la part de l’entreprise – il a plus de chance de se rebeller par un type de transgression ou l’autre. La présence d’un supérieur au comportement excessif augmente la probabilité d’avoir des membres de la catégorie des « déviants aggravés », tandis que le fait d’être ostracisé produit le plus souvent des spécimens de celle des « travailleurs stagnants ».

On pourrait réfléchir à ce qui vient en premier – l’abus subi ou l’abus commis –, mais les schémas que nous avons mis au jour confirment des travaux antérieurs montrant un lien de causalité entre l’injustice et la déviance.

Si l’on regarde au-delà du milieu professionnel, on a également découvert que certains traits de personnalité permettent de prédire le genre de « déviant » qu’un travailleur est le plus susceptible de devenir. Un fort taux d’agréabilité, par exemple, est associée aux catégories de déviance les moins ostensibles, comme les « travailleurs stagnants » ou les « travailleurs en retrait ». Fait notable, si le fait d’être une personne consciencieuse prédit l’appartenance à la catégorie des « déviants mineurs », nos données tendent à montrer que les personnes les plus consciencieuses peuvent aussi à l’occasion être à l’origine de passages à l’acte caractérisés, en général avec un mélange de retrait et de grossièreté (rejoignant les « saboteurs »).

En bref, les personnes hautement consciencieuses ont de fortes attentes à l’égard de leur propre travail et de celui des autres, et il peut leur arriver de présenter face au stress, ou à un affront, une vive réaction qui rendra apparente leur déception.

Un impact global difficile à appréhender

Toute transgression a un poids sur les performances d’une équipe et la rotation au sein de celle-ci. Notre étude montre que les employés de la catégorie « déviants mineurs » ont généralement de bons résultats, offrant un soutien positif à leurs coéquipiers et un bon niveau de satisfaction au travail, tandis que ceux des catégories présentant un fort taux de déviance ont de moins bons résultats et n’offrent en général aucun soutien à leurs collègues. Cependant, si nos résultats confirment qu’une « pomme pourrie » peut nuire à toute une équipe, la déviance et ses effets peuvent s’avérer plus complexes dans certains cas.

Prenons les catégories relativement bénignes des « travailleurs stagnants » et des « travailleurs en retrait », dont les membres expriment une volonté relativement forte de démissionner et, par conséquent, obtiennent de moins bons résultats que les autres. Ces employés peuvent longtemps passer inaperçus tout en sapant le potentiel d’une entreprise.

Laurent Cappelletti, professeur au Conservatoire national des arts et métiers (Cnam, Paris), titulaire de la chaire Comptabilité et contrôle de gestion et coordonnateur du réseau de recherche international Tétranormalisation (Xerfi Canal, 2022).

Zone grise

Les travailleurs de la catégorie des « saboteurs » présentent des schémas comportementaux contradictoires : ils sont prêts à négliger entièrement certaines parties de leur travail et à se comporter grossièrement envers certains collègues, mais peuvent par ailleurs maintenir des niveaux de performance plus élevés, et se donner parfois du mal pour aider certains autres collègues. Par conséquent, les managers se trouvent souvent en zone grise : quels compromis sont admissibles, et où se trouve la frontière entre l’expression raisonnable et la violation franche ?

Nos données montrent que la plupart des employés s’adonnent plutôt à des transgressions mineures, comme prendre des pauses trop longues ou rêvasser, qu’à des actes graves comme le vol. Bien souvent, ils ne se contentent pas d’un ou deux types de déviance, mais présentent des schémas comportementaux complexes, schémas qui peuvent être prédits de façon fiable par des facteurs liés à leur personnalité et aux caractéristiques de leur situation. Si l’on n’y prête pas attention, leurs transgressions mineures, qui apparaissent souvent en réaction au burn-out ou à un moral bas, peuvent passer inaperçues, ce qui fait qu’elles ne seront pas prises en charge. Ce faisant, cela risque de conduire, en s’accumulant, à de gros problèmes pour les entreprises.

Au-delà des mauvaises intentions, gérer le stress quotidien

Notre étude contredit également l’idée que la transgression est le fait de quelques « pommes pourries », déterminées à créer des problèmes, et contribue à ouvrir le champ de la recherche sur une perspective visant, non plus à se demander qui est à l’origine des déviances sur le lieu de travail, mais pourquoi les travailleurs se livrent à ces comportements.

Pour beaucoup d’employés, les petites transgressions ne relèvent pas d’une intention de nuire, mais d’une tentative de gérer le stress quotidien.

Les motifs de transgression peuvent se révéler très variés. Par exemple, certains travailleurs « en retrait » peuvent prendre du recul afin de s’occuper de problèmes de santé, tandis que d’autres manifestent simplement un faible investissement personnel dans l’entreprise.

Comprendre la gamme de ces raisons pourrait permettre de mieux répondre à ces comportements.

Un phénomène majoritaire

Si la déviance est considérée en général comme un phénomène rare, notre étude montre un tableau plus complexe. D’un côté, seuls 4 % des participants ont rapporté de hauts degrés de déviance dans tous les domaines, ce qui tendrait à confirmer cette idée. Cependant, seul un quart (27 %) des employés affirme éviter absolument toute transgression. Il y a donc plus de deux tiers (69 %) des employés qui entrent dans des schémas de déviance plus légers et nuancés.

Cela nous aide à comprendre la déviance comme une part ordinaire de la vie professionnelle. Ce fait complique également la réponse que peuvent y apporter les managers : leur façon de concevoir, de pénaliser et de décourager ces transgressions.

En l’absence de leviers aidant les employés à réduire leur niveau de stress ou compensant les facteurs incontrôlables (comme le gel des salaires à l’échelle d’une entreprise), les managers peuvent être poussés à accepter certaines formes de déviance comme des impondérables, tout en restant vigilants envers les infractions les plus intentionnelles et flagrantes.

The Conversation

Brad Harris ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

04.06.2025 à 16:31

Pikachu, icône inattendue de la contestation en Turquie

Necati Mert Gümüs, ATER, doctorant en science politique, Sciences Po Grenoble

Théo Malçok, doctorant en sociologie, École des Hautes Études en Sciences Sociales (EHESS)

La contestation, largement portée par une jeunesse connectée, emprunte aux codes les plus récents des réseaux sociaux et s’appuie notamment sur l’IA.
Texte intégral (2630 mots)

Dans les rues d’Antalya, un manifestant déguisé en Pikachu a été poursuivi par la police le 27 mars dernier, une scène qui aura très vite capté l’attention des médias, faisant du petit Pokémon jaune la mascotte du mouvement contestataire déclenché par l’arrestation, le 19 mars précédent du maire d’Istanbul et leader de l’opposition Ekrem Imamoglu. L’absurdité de la situation provoque le rire ; pourtant, celle-ci n’a rien d’un sketch. Cette scène prolonge plusieurs décennies d’usages contestataires du costume et de la référence aux personnages de fiction dans les manifestations contre le pouvoir et ses tendances autoritaires en Turquie.


Rappelons le contexte : depuis l’arrestation d’Ekrem Imamoglu le 19 mars dernier, les manifestations organisées en Turquie et au sein de la diaspora turque à l’étranger ne se sont pas complètement estompées, notamment grâce à la participation toujours active des cadres et des électeurs du CHP (Parti républicain du Peuple), des syndicats de gauche et des étudiants.

En effet, malgré l’incarcération du maire d’Istanbul, le CHP a maintenu l’organisation des primaires du parti qui ont désigné Imamoglu candidat commun de l’opposition à la prochaine élection présidentielle. Le parti a mis en place des « urnes de solidarité » permettant à toute la population de participer au scrutin et ainsi de manifester son soutien au maire incarcéré. Résultat : 15 millions de personnes se sont déplacées aux urnes.

« Turquie : 15 millions d’électeurs à la primaire symbolique de l’opposition », TV5 Monde (24 mars 2025).

Dans la foulée, le parti a annoncé une tournée de meetings hebdomadaires – un à Istanbul, l’autre en province –, a lancé une campagne de pétitions pour la libération des prisonniers politiques et leur a adressé des lettres de soutien. Le premier rassemblement, tenu le 29 mars à Maltepe, sur la rive asiatique d’Istanbul, a réuni selon le parti près de deux millions de personnes. Les politiques incarcérés ont également fait entendre leur voix à travers des tribunes publiées dans la presse nationale et internationale.

La position des syndicats est plus ambiguë : certains d’entre eux comme Egitim-sen (appel à la grève des enseignants) et Umut-Sen (appel à la grève et à l’arrêt de travail les 27 et 28 mars) ont très tôt affiché leur soutien au mouvement. Mais, progressivement, des désaccords stratégiques et idéologiques, notamment au moment du 1er mai, ont fractionné l’union syndicale.

La jeunesse, force vive du mouvement du 19 mars

En réalité, ce sont les étudiants qui représentent la force vive et créative du mouvement du 19 mars. Indépendamment des cadres partisans et syndicaux, ils développent des idées nouvelles, comme le défilé carnavalesque des étudiants des Beaux-Arts de l’Université Mimar Sinan (Istanbul), et radicalisent les propositions parfois timides des professionnels de la politique, comme le boycott des médias pro-gouvernementaux, qui a été élargi au conglomérat politico-financier de l’AKP, le parti au pouvoir, celui du président Recep Tayyip Erdogan.

La jeunesse étudiante turque dénonce les violences exercées par la police et les agents de sécurité privée dans les universités, et réclament la libération de leurs camarades détenus, lesquels adressent régulièrement des lettres au public qui sont relayées par la presse et sur les réseaux sociaux. Des lycéens prennent aussi part aux cortèges étudiants, surtout depuis que le ministère de l’éducation nationale a limogé mi-avril des enseignants critiques à l’égard du pouvoir.

Comme ils ont été expulsés de la place Saraçhane, épicentre de la mobilisation, en face de la mairie de la municipalité d’Istanbul, et réprimés dans leurs campus, ils ont investi les places et parcs publics, les salles de concert, ainsi que les cérémonies de remise de diplôme pour faire entendre leurs revendications. Des ateliers, des forums, des festivals et des défilés ont été organisés.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


D’où vient toute cette créativité ? À la manière de musiciens de jazz, les manifestants improvisent, comme l’a montré Charles Tilly, en puisant dans un « répertoire d’actions » défini par les usages qu’ils héritent de leurs ancêtres et qu’ils empruntent à leurs voisins.

De la tradition théâtrale à Pikachu

Les clins d’œil à la tradition sont monnaie courante lors des manifestations en Turquie. Ces références puisent notamment dans le registre théâtral par le port de costumes et l’interprétation de personnages fictifs. Des comédiens prennent parfois part aux manifestations, comme Ferhan Sensoy lors de la révolte de Gezi en 2013. Ce comédien est connu pour avoir mené la troupe des Orta Oyuncular qui perpétue la tradition du théâtre satirique ottoman, théâtre d’ombres (Karagöz) ou en chair et en os (Orta Oyunu).

En incarnant des figures emblématiques du folklore turc, les manifestants construisent des points d’ancrage pour penser l’appartenance collective à une lignée protestataire. En 2013, le « Derviche au masque à gaz » est devenu un symbole fort de la révolte de Gezi en réunissant sur la même silhouette les singularités culturelles et contextuelles du mouvement. Ce personnage, créé par le danseur et chorégraphe Ziya Azazi, a été volontairement anonymisé par le port d’un masque pour en renforcer le pouvoir d’identification. En 2025, la figure du « Derviche au masque à gaz » réapparaît lors des manifestations de Saraçhane. Coiffé du couvre-chef traditionnel des soufis mevlevi (sikke), le derviche ne danse plus. Les bras tendus, il se confronte à une rangée de policiers qui l’aspergent de gaz lacrymogène.

« Turquie : le derviche tourneur contre Erdogan », Le dessous des images – Arte (19 mai 2025)

À la différence de la figure du derviche qui circule d’une époque à l’autre au sein d’un même espace culturel, Pikachu, personnage mondialement connu, a rapidement traversé les frontières de la Turquie. À Beverly Hills, à Londres, à Munich ou à Paris, les manifestants du monde entier ont multiplié les références au petit Pokémon jaune en mobilisant toute la panoplie vestimentaire et iconographique de la manifestation de rue : masques, casquettes, lunettes, peluches et bien évidemment costumes.

À Paris, nous avons suivi l’homme sous le costume, Arthur, un trentenaire aficionado de la politique turque depuis son Erasmus à Istanbul en 2017. Il ne pouvait manquer l’occasion rare de marcher aux côtés de personnes originaires de Turquie pour une cause qui lui tenait à cœur. Son plan était soigneusement pensé : loué à un magicien de la banlieue parisienne, le déguisement deux pièces en pilou-pilou est enfilé dans une rue adjacente à la place de la République. Dès l’arrivée sur la grand-place, la farandole de photographies commence.

À une fréquence insoutenable, manifestants comme passants harcèlent le Pokémon pour un selfie. On se croirait à Disneyland. Quelques élus locaux posent avec la mascotte. Les journalistes aussi en raffolent. On cherche à prendre le cliché ou la vidéo qui fera le buzz : Pikachu qui tient un drapeau turc ou arc-en-ciel, Pikachu qui court, Pikachu qui danse, etc. Après quelques heures à jouer un rôle, Arthur retourne, paradoxalement, à l’anonymat en ôtant son costume. La performance est suivie d’un apéro post-manif et d’une veille médiatique improvisée pour évaluer le succès de la performance. Quelques jours plus tard, on apprendra qu’une vidéo postée par un média indépendant de la diaspora turque de France a atteint plusieurs centaines de milliers de vues.

Dans les commentaires de la vidéo susmentionnée, les attaques pleuvent. En référence au drapeau arc-en-ciel, un internaute déclare : « Qui sont ces pédés ? » Un autre plonge dans le complotisme antisémite : « Ce sont les agents de Soros ! » Mais d’autres internautes félicitent les manifestants et se réjouissent de voir que Pikachu a traversé les frontières.

Les réseaux sociaux peuvent être un espace de harcèlement des opposants mais aussi d’échange, de solidarité, de retour sur expérience et de circulations des pratiques contestataires. Les manifestants s’inspirent délibérément ou par mimétisme des Reels qu’ils visionnent sur Instagram et TikTok. Certains internautes partagent des tutoriels pour apprendre aux néophytes de la révolte à éviter les caméras de surveillance ou à se protéger du gaz lacrymogène. C’est le cas par exemple des vidéos dans lesquelles les manifestants montrent comment transformer un t-shirt en masque.

Le récent mouvement étudiant de Serbie est pris pour modèle par certains influenceurs-manifestants de Turquie. C’est de ce mouvement qu’est née l’idée d’une journée de boycott général où toute dépense est proscrite. Les étudiants de Turquie ont aussi organisé des débats sur le mouvement serbe et des journalistes engagés ont réalisé des reportages avec des participants des rassemblements de Belgrade. Mais d’autres expériences comme la révolte étudiante de Hong Kong sont également sous la loupe des manifestants turcs.


À lire aussi : Serbie : la révolte des étudiants va-t-elle tout renverser ?


Quand l’IA se mêle à la contestation

Une bonne partie du contenu lié au mouvement du 19 mars qui circule sur les réseaux sociaux est générée par intelligence artificielle (IA), par exemple ces images sur lesquelles on aperçoit Pikachu et des personnages des univers Marvel et DC.

« Un homme déguisé en Pikachu arrêté en Turquie ? Attention à ces photos », France 24 (mars 2025).

Dans les contextes autoritaires, l’IA aide à contourner les mécanismes de censure et de répression. Alors qu’Ekrem Imamoglu était déjà incarcéré, le CHP a projeté, lors du meeting de Maltepe du 29 mars, un discours généré par IA prononcé par un avatar du maire d’Istanbul.

Après la fermeture du compte X d’Ekrem Imamoglu par la plateforme à la suite d’une demande des autorités turques, de nombreux internautes ont réagi en remplaçant leur photo de profil par le visage du maire. X a ensuite suspendu les comptes s’étant adonnés à cette pratique pour usurpation d’identité après avoir reçu des signalements d’autres internautes.

En réaction, les internautes d’opposition ont recouru à l’IA pour fusionner le visage d’Ekrem Imamoglu avec leur propre visage ou avec des personnages fictifs. Les progrès de l’IA ont massifié l’accès à la création de contenus et ont renouvelé les codes stylistiques de l’expression contestataire en Turquie et ailleurs. Tout type d’internaute a désormais la possibilité de prendre part à une course à l’originalité et au buzz – ce qui, dans les manifestations de rues, se donne traditionnellement à voir dans l’art de la pancarte et du slogan.

Sur les réseaux sociaux, l’image, la vidéo, la voix off et le sous-titre (utilisé pour maximiser la portée et l’impact du contenu) ont remplacé les traditionnels slogans et pancartes. Mais rappelons-le : la rue et le Web interagissent constamment. Les internautes réagissent à l’actualité politique et visibilisent les actions menées in real life. Parfois, certains contenus Internet sont imprimés et collés sur des pancartes lors des manifestations de rue. Néanmoins, la création de contenu sur Internet, même militant, suit les tendances (trends) des algorithmes et se soumet à la logique du mème (concept massivement repris et décliné).

En réalité, les contenus générés ou non par IA qui mettent en scène des manifestants costumés ou des personnages fictifs visent le plus souvent à provoquer le rire. Les émotions comme la pitié ou l’indignation jouent un rôle prépondérant dans l’adhésion à une cause, comme l’a montré le sociologue Christophe Traïni. Malgré tout, la position du rire est plus ambivalente. Car d’un côté, le rire est, comme se plaisent à dire certains manifestants, « un acte révolutionnaire » dès lors qu’il tourne en dérision le pouvoir – à l’exemple du Hirak algérien. Mais de l’autre, il peut aussi faire courir le risque d’une entertainmentisation de la révolte quand le jeu prend le dessus sur les revendications politiques et, à terme, décrédibiliser celles-ci aux yeux des militants les plus engagés.

The Conversation

Necati Mert Gümüs est membre fondateur de Initiative de Reforme Locale (Yerel Reform Girişimi Derneği, Turquie). Il a reçu une bourse de recherche de l'IFEA (Institut français d'études anatoliennes).

Théo Malçok ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

04.06.2025 à 16:31

Portugal : recherche stabilité désespérément

Yves Léonard, Membre du Centre d'histoire de Sciences Po et chercheur associé à l’université de Rouen-Normandie, Sciences Po

Le parti d’extrême droite Chega est désormais la deuxième force au Parlement, en embuscade derrière le centre droit au pouvoir.
Texte intégral (3579 mots)

La progression très rapide de la formation Chega (« Ça suffit », classé à l’extrême droite) lui a permis de devenir, à l’issue des législatives qui viennent de se tenir au Portugal, le deuxième parti du pays en nombre de sièges au Parlement. Dans un pays où les coalitions ont, depuis quelques années, tendance à s’effondrer bien avant la fin théorique de leur mandat, l’alliance de la droite et du centre droit actuellement au pouvoir va-t-elle pouvoir durer ?


« Rien ne sera plus comme avant ! » : en cette soirée électorale bis du 28 mai 2025, dix jours après « le jour historique » des élections législatives du 18 mai, quand le parti d’extrême droite Chega est arrivé en troisième position, talonnant en nombre de voix le Parti socialiste, le leader de Chega André Ventura revendique une « victoire éclatante ». Sa formation vient de remporter deux sièges (sur quatre) dans les deux circonscriptions des Portugais de l’étranger.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Désormais, avec 60 députés sur 230, Chega devance le PS de deux sièges à l’Assemblée. André Ventura s’affirme comme « le chef de l’opposition », même si son parti a obtenu près de 5 000 voix de moins que le PS. Pour la première fois en cinquante ans de vie démocratique, l’un des deux partis phares d’un système politique longtemps qualifié de résilient est supplanté par une formation qui rejette les valeurs essentielles du « 25 Avril » et l’héritage de la Révolution des Œillets consacré par la Constitution d’avril 1976.

La fin du système bipartisan

Au soir du 18 mai, la majorité des deux tiers à l’Assemblée, requise pour réviser la Constitution, n’est plus l’apanage du PSD et du PS. Une majorité allant du centre droit à l’extrême droite pourrait même détricoter la Loi fondamentale à son gré, comme l’une de ses composantes, l’Initiative libérale (9 députés), rejointe par Chega, l’a clairement laissé entendre au lendemain du scrutin du 18 mai, afin que la Constitution ait « moins de penchant idéologique », qu’elle reflète une « société plus libre et autonome » et que l’État cesse d’avoir un rôle central dans l’économie.

Le séisme politique est donc de forte magnitude et la scène médiatique aux abois, oscillant entre sidération feinte et affliction de circonstance. Quant à André Ventura, il peut plastronner :

« Ne comptez pas sur nous pour le politiquement correct, parce que ce parti n’est pas politiquement correct. Ne comptez pas sur nous pour dire amen à l’idéologie du genre ou à ce qui se fait dans les écoles portugaises. Ne comptez pas sur nous pour dire amen à Bruxelles ! »

Après avoir salué les Portugais de l’étranger qui ont été deux fois plus nombreux à voter pour Chega en 2025 qu’en 2024 – « les émigrés savent ce qu’est le socialisme, la social-démocratie, la corruption, la subsidio-dépendance, et ils savent ce que c’est que de devoir lutter contre » –, Ventura reprend à longueur d’interviews les éléments de langage de sa campagne « Sauver le Portugal », dont la dernière semaine a été marquée par les deux malaises très médiatisés qui l’ont vu s’affaisser devant les caméras, au point de saturer l’espace médiatique. Avant de ressusciter, tout ragaillardi, au soir du scrutin, au sortir de la messe, fidèle à ses habitudes. Et de célébrer la fin du système bipartisan en appelant à « un changement de régime », l’Alliance démocratique victorieuse déjà dans son viseur.

Copier n’est pas penser

On aura beau jeu de rappeler que plus des trois quarts des électeurs n’ont pas voté Chega. Il n’en reste pas moins que ce parti d’extrême droite populiste et xénophobe a non seulement recueilli près de 270 000 voix de plus qu’en 2024 – plus de 1,43 million (contre 68 000 voix aux élections législatives d’octobre 2019, les premières auxquelles il concourait) –, il a aussi dicté l’agenda politique en déclenchant la crise qui a conduit, le 11 mars, à la démission du premier ministre Luis Montenegro (Parti social-démocrate, qui en dépit de ce que sa dénomination pourrait laisser croire, se situe au centre droit).

Il a surtout imposé ses thèmes de campagne – sécurité, « reconquête de l’Europe chrétienne », dénonciation de l’immigration, de la « subsidio-dépendance » et de la corruption. Au point que l’Alliance démocratique (AD) victorieuse (formée du PSD et du CDS, conservateur) a cru bon d’entonner elle aussi un discours anti-immigration en annonçant début mai l’expulsion de 18 000 migrants en situation jugée irrégulière, dont plus de 4 500 notifiés dans un délai de 20 jours.

À l’instar de plusieurs partis de sa famille politique en Europe (que l’on retrouve, au sein du Parlement européen, dans le groupe Parti populaire européen, PPE), l’AD a tenté de ne pas se faire siphonner son électorat en montrant sa détermination à contrôler l’immigration, pourtant vecteur indispensable de la croissance face au vieillissement de la population et à la chute de la natalité. Au risque de donner le sentiment de courir derrière un parti populiste et nativiste. Bref, de penser avant tout à copier, en oubliant que les électeurs préfèrent souvent l’original à la copie. Et que copier n’est pas penser.

Les recettes du succès de Chega

Avec les éléments de langage et punchlines qui émaillent le discours antisystème et xénophobe de Chega, réseaux sociaux et chaînes d’infos en continu raffolent d’André Ventura, considéré comme « un bon client » dans un contexte politique nourri d’imaginaire rance et sondagier. Au point que les journalistes ont pu jouer le rôle d’« aile armée du narratif de Chega », comme l’a démontré une étude procédant à un décompte très précis des interviews télévisuelles d’André Ventura, de loin les plus nombreuses depuis 2019. Que ce soit en termes d’audience ou de production de contenus, André Ventura écrase la concurrence, tant sur Facebook et Instagram que sur TikTok et YouTube. Lors de la dernière semaine de la campagne des législatives, ses quelque 9 millions de vues sur Facebook constituent un score près de neuf fois supérieur au nombre total de vues de tous les autres leaders de partis.

Quant à la désinformation électorale et à la diffusion de fake news sur les réseaux sociaux, de récentes études ont montré qu’elles ont fortement augmenté lors des deux dernières législatives, Chega en constituant la source essentielle, de même que son alter ego Vox en Espagne. En émule de Donald Trump, dont il s’est inspiré durant sa campagne, André Ventura cherche à « inonder la zone » (flood the zone), quitte à apparaître comme « un menteur compulsif ».

Chega se nourrit de cette dynamique systémique qui tend à « faire gagner les droites » en poussant les électeurs vers une droite toujours plus extrémiste, au Portugal comme ailleurs. Quant à la puissance des algorithmes, elle confère un avantage de taille à Chega, notamment pour séduire les abstentionnistes et attirer une partie de l’électorat des moins de 34 ans, ces hommes jeunes qui votent Chega, mais aussi Initiative libérale, privilégiant un discours antisystème de défiance à l’égard des deux grands partis « attrape-tout ».

Si les ressorts du vote Chega sont multiples, ils s’inscrivent dans un contexte de discrédit d’un système politique assimilé à la corruption, où les effets délétères des scandales à répétition se manifestent à chaque élection, les précédentes législatives, début 2024, l’ayant déjà montré.

Pourtant, au cours des derniers mois, Chega a traversé de fortes turbulences pour un parti qui ambitionne de « nettoyer le Portugal » (Limpar Portugal). Plusieurs de ses élus ont été épinglés pour diverses malversations et manquements à l’éthique. Rien n’y fait : André Ventura reste, pour une partie de l’opinion, celui qui peut « sauver le Portugal ».

Le sentiment d’insécurité – même si le directeur de la police portugaise a rappelé que « le Portugal est, heureusement, l’un des pays les plus sûrs au monde » –, la peur de l’autre empreinte de racisme, la frustration, la difficulté à se projeter vers l’avenir, la persistance des inégalités, tous ces ingrédients nourrissent ce « ressentiment de classe sans conscience de classe » analysé naguère par Wendy Brown. Un ressentiment qu’attise Chega dans une rhétorique qui se dit « ni saudosiste, ni futuriste », mais dont les ressorts sont d’essence salazariste avec un recours systématique à cette volonté de « sauver le Portugal » en dénigrant les « valeurs d’Avril » héritées de la révolution des Œillets. Le tout imprégné d’un discours trumpiste transnational qui vise à construire « une alliance civilisationnelle » en Europe en transformant ses systèmes politiques en « des nations chrétiennes comme la Hongrie ».

« La tâche n’est pas si compliquée. Nous devons rentrer chez nous et gagner chacun nos propres élections. Gagner, tout simplement », a rappelé le 27 mai Viktor Orban à Budapest lors de la réunion annuelle de la CPAC (Conservative Political Action Conference). CPAC à laquelle Ventura a participé en 2024 et en 2023 aux côtés d’Orban, l’un de ses modèles.

Le 5 mai 2023, lors d’une visite à Budapest, Ventura se fait offrir un maillot de l’équipe nationale hongroise floqué à son nom par Viktor Orban. Compte X d’Andre Ventura

La droite à qui perd gagne ?

Si la stratégie de Luís Montenegro et de l’AD s’est révélée payante à court terme – près de 150 000 voix gagnées par rapport aux législatives de mars 2024 et 12 députés supplémentaires confortant sa base parlementaire –, elle répond à une volonté affichée de retrouver une stabilité politique disparue (la dernière mandature législative arrivée à son terme remonte à 2019) et d’incarner une confiance renouvelée dans le système politique.

Synonyme d’attractivité et gage supposé de croissance, cette stabilité suscite une quête effrénée. C’est en son nom que le président de la République Marcelo Rebelo de Sousa, qui a pris la décision à trois reprises en trois ans – un record – de dissoudre l’Assemblée, vient de reconduire Luís Montenegro dans ses fonctions de premier ministre, ce dernier ayant été relégitimé par le scrutin du 18 mai après avoir pourtant été mis en cause et soupçonné de conflits d’intérêt avec son entreprise familiale Spinumviva. Ce sont « les garanties de stabilité » données par les responsables des principaux partis qui ont justifié la décision du chef de l’État. L’horizon politique du premier ministre s’est-il pour autant dégagé ?

L’effondrement de son principal concurrent, le Parti socialiste, semble éclaircir l’horizon. Passé de 42 % des suffrages à moins de 23 % en l’espace de trois ans, depuis les législatives de janvier 2022 qui lui avaient donné la majorité absolue des sièges à l’Assemblée (120 députés sur 230), le PS a perdu la moitié de ses sièges au Parlement (58 dans la nouvelle législature) et se trouve plongé dans une crise dont rien ne dit qu’il trouvera rapidement les clés pour l’enrayer.

La gauche en crise

Son secrétaire général Pedro Nuno Santos, qui avait succédé à Antonio Costa en décembre 2023, a annoncé sa démission le soir même du scrutin. Assumant sa part de responsabilité dans l’échec collectif, il a exprimé sa volonté de prendre du recul et de ne plus avoir à composer avec un chef du gouvernement dont la légitimé est, selon lui, plus qu’écornée par « l’affaire Spinumviva » pour laquelle il avait émis le souhait de convoquer une commission d’enquête parlementaire.

Le recentrage de son discours lors de la campagne n’a rien changé. Pour une partie des cadres du parti et pour ses adversaires, « PNS » incarnait une ligne trop à gauche, voire un gauchisme nimbé du souvenir de cette « geringonça » (alliance PS, PC et Bloc de gauche entre 2015 et 2019) stigmatisée par la droite et l’extrême droite. La guerre de succession a déjà commencé, l’aile centriste incarnée par José Luís Carneiro, ancien ministre de l’intérieur, ayant pris les devants en déclarant par avance ne pas s’opposer au vote du prochain budget. La traversée du désert risque d’être longue pour un parti divisé et affaibli par l’évaporation de son électorat traditionnel (seniors et femmes), alors que les prochaines échéances électorales – municipales à l’automne et présidentielle début 2026 – s’annoncent difficiles.

Le reste de la gauche n’est pas en meilleur état. La lente érosion du PC se poursuit (4 sièges avant les législatives, 3 désormais), alors que le Bloc de Gauche (Bloco de Esquerda) n’a plus qu’une députée (contre 4 sièges en 2024). Seul le parti Livre (Libre) peut se réjouir de compter deux députés supplémentaires (6 sièges) en confortant son ancrage urbain auprès des jeunes. Dans cette traversée du désert qui s’annonce, la gauche sait pouvoir compter sur sa culture de résistance mise à l’épreuve sous la longue dictature salazariste. À condition peut-être de construire sans tarder les conditions d’une union préalable à toute reconquête et de « sortir de l’obsession du débat sur le “fascisme”, cet “autre” dont la simple évocation parait garantir la moralité et la légitimité des partis et des systèmes existants ».

Avec l’affaiblissement du PS, le premier ministre dispose d’un atout tactique de premier plan. D’abord pour mettre le PS sous pression lors des prochains débats au Parlement, notamment lors du vote du budget, en invoquant son sens des responsabilités et la sacro-sainte stabilité face à une extrême droite à l’affût. Quitte à en faire un simple supplétif de sa politique néolibérale. Ensuite, tout en ayant écarté l’idée d’un « accord permanent de gouvernance » tant avec le PS – reviviscence du « Bloc central » en vigueur de 1983 à 1985 –, qu’avec Chega – « Non c’est non » selon sa ligne de conduite depuis 2024 –, Luis Montenegro a précisé qu’il dialoguera avec toutes les formations politiques « dans la recherche des meilleures solutions législatives et gouvernementales pour répondre aux besoins des Portugais. » Si l’idée d’une révision constitutionnelle, qui « n’est pas une priorité du gouvernement », est provisoirement écartée, la menace d’une telle révision qui, pour la première fois depuis 1976, pourrait se passer de l’aval du PS, souligne la sujétion de celui-ci et le nouveau positionnement de Chega à la tête de l’opposition.

Chega, premier parti d’opposition… en attendant mieux ? en embuscade ?

Ce nouveau statut de Chega, outre les pouvoirs qu’il lui confère (deux représentants au Conseil d’État, nomination de trois juges au Tribunal constitutionnel, participation à la composition des listes de membres de l’autorité régulatrice de la Communication sociale et du Conseil supérieur de la Magistrature), contribue non seulement à le « banaliser » en le faisant accéder de plain-pied au mécano institutionnel, mais à renforcer ce « dissensus contraignant » souvent invoqué au sein de l’Union européenne pour dire que l’extrême droite n’a pas besoin d’être au pouvoir pour être influente.

Pour l’Alliance démocratique et le premier ministre Luis Montenegro, le risque est grand de voir Chega continuer de prospérer en jouant alternativement, sinon simultanément, la carte du politiquement incorrect et de la normalisation pour finir d’affaiblir le système bipartisan en s’attaquant au PSD et asseoir sa propre hégémonie. Au sein du parti dirigé par Luís Montenegro depuis l’été 2022, certains appellent de leurs vœux un dialogue renforcé avec André Ventura, transfuge de ce parti. C’est le cas notamment de l’ancien premier ministre (2011-2015) et ancien mentor de Ventura, Pedro Passos Coelho, parfois présenté comme le parfait antidote de Chega au sein du parti qu’il a longtemps présidé.

Bref, des dissensions sont déjà perceptibles au PSD et risquent de s’aviver dans la perspective de l’élection présidentielle début 2026. À peine annoncée, la candidature de l’une de ses figures de proue, Luís Marques Mendes, a suscité des réserves, alors que le propre prédécesseur de Montenegro à la tête du PSD, Rui Rio, vient de faire savoir qu’il soutiendra la candidature de l’amiral Gouveia e Melo dont il sera le mandataire national pour « unir les Portugais ». Chega semblant bien placé pour renforcer son ancrage local lors des prochaines municipales, notamment au sud du Tage – le 18 mai, il est arrivé en tête dans quatre districts de la région d’Alentejo –, les prochains mois s’annoncent d’autant plus compliqués que la stabilité invoquée repose sur des tactiques et des jeux d’appareil très éloignés des principales préoccupations de citoyens lassés par ces campagnes permanentes. De quoi alimenter un peu plus ressentiment et désenchantement, sans apporter de réponses, sinon celles d’une extrême droite à la vision déformée.

The Conversation

Yves Léonard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

04.06.2025 à 16:31

Conclave sur les retraites : fumée blanche ou fumée rouge ?

Dominique Andolfatto, Professeur de science politique, Université Bourgogne Europe

Le « conclave » des partenaires sociaux sur les retraites s’achèvera le 17 juin. La CFDT escompte toujours un « bougé » sur l’âge de départ à la retraite. La CGT appelle à manifester le 5 juin pour l’abrogation de la réforme.
Texte intégral (1825 mots)

Plus de trois mois après son ouverture, le « conclave » sur les retraites touche à sa fin (prévue le 17 juin). La très contestée réforme de 2023, reculant l’âge du départ à la retraite de 62 à 64 ans, pourrait-elle être remise en cause ? La CGT, qui est sortie des négociations, appelle à une nouvelle manifestation pour son abrogation ce jeudi 5 juin. Au même moment, les députés communistes et ultramarins soumettront au vote une résolution pour l’abrogation du report de l’âge de la retraite à 64 ans.


Lors de sa déclaration de politique générale, le 14 janvier 2025, François Bayrou rouvrait l’épineux dossier sur la réforme des retraites, mal refermé en 2023, après des manifestations réunissant plus d’un million de personnes, le recours contesté à l’article 49 alinéa 3 et le rejet d’un référendum sur le sujet par le Conseil constitutionnel. Le premier ministre faisait alors une proposition spectaculaire : ouvrir ce qu’il dénommait un « conclave » sur la question, en d’autres termes, une négociation nationale interprofessionnelle sur les retraites avec les partenaires sociaux.

Il s’agissait de réfléchir à de nouvelles perspectives pour le système de retraite et sa soutenabilité, d’apaiser les colères et, plus tactiquement, d’installer le gouvernement dans la durée, en s’assurant d’une neutralité des gauches comme de l’extrême droite, favorables à une révision de la réforme de 2023. C’était aussi un geste inattendu pour renouer le dialogue avec les partenaires sociaux – organisations patronales et syndicales – et les remettre dans le jeu, alors que ces acteurs historiques du système de protection sociale s’étaient sentis mis à l’écart de la réforme de 2023.

À quelques jours de l’échéance finale, quel est l’état des lieux de ces négociations ?

Un cadrage étroit

Dès la mi-février, François Bayrou adressait aux partenaires sociaux un courrier de cadrage très serré. Si les parties prenantes du conclave avaient toute liberté pour « discuter de l’ensemble des paramètres » du système des retraites, « sans totem ni tabou », le premier ministre fixait pour priorité le « retour à l’équilibre financier à un horizon proche ». Or ce dernier avait dramatisé la situation lors de sa déclaration de politique générale, évoquant un déficit de plus de 40 milliards d’euros, s’appuyant sur des données contestées qui ne seront pas validées par la Cour des comptes. Selon l’institution, le déficit serait de plus de 6 milliards d’euros dès 2025. Si aucune mesure n’était prise, il doublerait d’ici 2035 puis quadruplerait d’ici 2045.

Le « conclave » s’ouvrait fin février. Il consistait en une réunion hebdomadaire des partenaires sociaux et devrait rendre ses conclusions (éventuelles) au bout de trois mois. S’il s’agissait d’un « accord d’un nombre suffisant d’organisations », François Bayrou promettait de le traduire en un projet de loi qui serait soumis au Parlement.

Cependant, dès la première réunion, Force ouvrière (FO), troisième syndicat français en termes de représentativité, préférait quitter le « conclave ». Le syndicat déplorait que la lettre de cadrage se concentre sur le déficit, oubliant l’âge du départ à la retraite. Sans compter un véritable tir de barrage de plusieurs ministres sur le sujet. Bref, l’opinion semblait oubliée. Plus intéressant (et peu commenté), FO assénait implicitement une leçon de syndicalisme au gouvernement : elle refusait – en tant qu’organisation syndicale – d’être intégrée dans un processus de décision politique et « instrumentalisée ». En d’autres termes, le syndicat doit s’en tenir au rôle de porte-parole des salariés et à défendre leurs revendications sans participer au processus décisionnel, conformément au principe d’« indépendance politique » qui fonde l’identité de FO.

Une table de négociation qui se réduit

Restaient six organisations dans le jeu : trois patronales, quatre syndicales. L’une des premières devait également quitter la table à la mi-mars : l’U2P, l’organisation des entreprises artisanales et des professions libérales. Elle considérait qu’il était inutile de laisser croire qu’un retour aux 62 ans serait possible et de se perdre en conjecture. Cela ne pourrait qu’alourdir le « poids de notre protection sociale » alors que, selon l’U2P, des « mesures drastiques » s’imposent, notamment repousser l’âge légal de départ à la retraite » tout en permettant un départ anticipé de « personnes exposées à une forme d’usure professionnelle », dont l’espérance de vie est réduite.

Enfin, la CGT, second syndicat français en termes de représentativité, hésitante depuis la sortie de FO du « conclave », annonçait aussi le quitter après de nouvelles déclarations de François Bayrou, le 16 mars : il estimait un retour aux 62 ans impossible, compte tenu notamment du contexte international. Pour la secrétaire générale de la CGT, c’était là « enterrer » le conclave. Elle annonçait donc, dans un vocabulaire caractéristique, qu’« après consultation de la base », la CGT quittait ce dernier et appelait « les salariés à se mobiliser » et à construire un nouveau « rapport de force ».

L’État-providence à repenser ?

Restaient en lice cinq organisations sur huit, avec deux absences de la CFTC, la plus petite des confédérations syndicales représentatives, en désaccord avec certains thèmes abordés. Il est vrai que les échanges vont alors se poursuivre sur des thématiques élargies. Une nouvelle « feuille de route » était en effet établie à la mi-avril. Elle proposait de discuter de l’ensemble de l’État-providence et de possibles redistributions de ressources entre les différentes branches qui le composent (assurance-maladie, famille, retraite…). Si la CFTC, attachée à la branche « famille », désapprouvait cette approche plus globale, la CFDT, première organisation syndicale représentative, favorable – au contraire de FO – à une co-construction de l’action publique, se félicitait que puisse s’ouvrir un « second round de discussions ».


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Au fil des réunions hebdomadaires, les diverses modalités de financement des retraites ont été examinées : augmentation des cotisations patronales, part de capitalisation dans le financement (épargne retraite, fonds de pension), TVA sociale (transfert d’une partie de cotisations des entreprises pour financer la retraite sur la TVA, et donc augmentation de celle-ci d’un ou deux points). Aucun accord n’a véritablement émergé sur ces différents aspects, les syndicats étant particulièrement opposés à une TVA sociale (qui pèserait notamment sur les plus modestes) et les organisations d’employeurs rejetant toute cotisation nouvelle.

Dans la dernière période, le Medef, a semblé faire de la TVA sociale la solution pour sortir du déficit des retraites, cette dernière favorisant une baisse des cotisations sociales des entreprises et, en conséquence, leur compétitivité mais aussi les salaires nets. Emmanuel Macron, interrogé sur ce déficit, reprenait aussi l’argument lors de l’émission télévisée « Les enjeux de la France », le 13 mai.

Un bougé sur l’âge ?

La « gouvernance » et le « pilotage » du système des retraites ont donné lieu à d’autres échanges. Les syndicats et les patronats n’ont pratiquement plus qu’un rôle symbolique au sein de celle-ci, contrairement à ce qui avait été imaginé par les fondateurs de la Sécurité sociale en 1945. Une élite administrative spécialisée a pris la relève. La reconquête d’un rôle politique au sein de la gouvernance du système semble séduisante pour les syndicats mais les organisations patronales restent dubitatives, compte tenu de la complexité de celui-ci.

Les différentes parties prenantes encore autour de la table ont finalement décidé de prolonger leurs échanges jusqu’au 17 juin. Un accord est-il envisageable entre les cinq ? C’est la conviction de la CFDT qui escompte toujours un « bougé sur l’âge ». Il ne sera sans doute pas général mais, au cas par cas, en fonction de la pénibilité du travail ou d’impératifs d’égalité de genre. Pour la CFTC, il est probable que, d’une façon ou d’une autre, il faudra prévoir aussi des augmentations de cotisations afin d’assurer la pérennité du système.

In fine, pas d’abrogation de la réforme de 2023 en vue mais des ajustements et, à court terme probablement, des pensions moins bien revalorisées ou des cotisations alourdies. L’arithmétique est implacable. Tout cela sera-t-il mentionné dans l’accord escompté, faute duquel on parlerait d’un nouvel échec syndical ? Ce n’est pas certain. À son degré de technicité ou de cosmétique, on pourra juger si ce dialogue social inédit a relancé effectivement la démocratie sociale ou n’a constitué qu’une mascarade politique.

The Conversation

Dominique Andolfatto ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

04.06.2025 à 16:05

From sovereignty to sustainability: a brief history of ocean governance

Kevin Parthenay, Professeur des Universités en science politique, membre de l'Institut Universitaire de France (IUF), Université de Tours

Rafael Mesquita, Professeur Associé à l’Université Fédérale du Pernambuco, Brésil

The United Nations Ocean Conference (UNOC 3) will open in Nice, France on June 9, 2025. Will it help to consolidate a new international law of the oceans?
Texte intégral (2024 mots)

The United Nations Ocean Conference (UNOC 3) will open in Nice, France, on June 9, 2025. It is the third conference of its kind, following events in New York in 2017 and Lisbon in 2022. Co-hosted by France and Costa Rica, the conference will bring together 150 countries and nearly 30,000 individuals to discuss the sustainable management of our planet’s oceans.

This event is presented as a pivotal moment, but it is actually part of a significant shift in marine governance that has been going on for decades. While ocean governance was once designed to protect the marine interests of states, nowadays it must also address the numerous climate and environmental challenges facing the oceans.

Media coverage of this “political moment” however should not overshadow the urgent need to reform the international law applicable to the oceans. Failing that, this summit will risk being nothing more than another platform for vacuous rhetoric.

To understand what is at stake, it is helpful to begin with a brief historical overview of marine governance.

The meaning of ocean governance

Ocean governance changed radically over the past few decades. The focus shifted from the interests of states and the corresponding body of international law, solidified in the 1980s, to a multilateral approach initiated at the end of the Cold War, involving a wide range of actors (international organizations, NGOs, businesses, etc.).

This governance has gradually moved from a system of obligations pertaining to different marine areas and regimes of sovereignty associated to them (territorial seas, exclusive economic zones (EEZs), and the high seas) to a system that takes into consideration the “health of the oceans.” The aim of this new system is to manage the oceans in line with the sustainable development goals.

Understanding how this shift occurred can help us grasp what is at stake in Nice. The 1990s were marked by declarations, summits and other global initiatives. However, as evidenced below, the success of these numerous initiatives has so far been limited. This explains why we are now seeing a return to an approach more firmly rooted in international law, as evidenced by the negotiations on the international treaty on plastic pollution, for example.

The “Constitution of the Seas”

The law of the sea emerged from the Hague Conference in 1930. However, the structure of marine governance gradually came to be defined in the 1980s, with the adoption of the United Nations Convention on the Law of the Sea (UNCLOS) in 1982.

UNOC 3 is a direct offshoot of this convention: discussions on sustainable ocean management stem from the limitations of this founding text, often referred to as the “Constitution of the Seas”.

UNCLOS was adopted in December 1982 at the Montego Bay Convention in Jamaica and came into force in November 1994, following a lengthy process of international negotiations that resulted in 60 states ratifying the text. At the outset, the discussions focused on the interests of developing countries, especially those located along the coast, in the midst of a crisis in multilateralism. The United States managed to exert its influence in this arena without ever officially adopting the Convention. Since then, the convention has been a pillar of marine governance.

It established new institutions, including the International Seabed Authority, entrusted with the responsibility of regulating the exploitation of mineral resources on the seabed in areas that fall outside the scope of national jurisdiction. UNCLOS is the source of nearly all international case law on the subject.

Although the convention did define maritime areas and regulate their exploitation, new challenges quickly emerged: on the one hand, the Convention was essentially rendered meaningless by the eleven-year delay between its adoption and implementation. On the other hand, the text also became obsolete due to new developments in the use of the seas, particularly technological advances in fishing and seabed exploitation.

The early 1990s marked a turning point in the traditional maritime legal order. The management of the seas and oceans came to be viewed within an environmental perspective, a process that was driven by major international conferences and declarations such as the Rio Declaration (1992), the Millennium Declaration (2005), and the Rio+20 Summit (2012). These resulted in the 2030 Agenda and the Sustainable Development Goals (SDGs), the UN’s 17 goals aimed at protecting the planet (with SDG 14, “Life Below Water”, directly addressing issues related to the oceans) and the world’s population by 2030.


A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!


The United Nations Conference on Environment and Development (UNCED, or Earth Summit), held in Rio de Janeiro, Brazil, in 1992, ushered in the era of “sustainable development” and, thanks to scientific discoveries made in the previous decade, helped link environmental and maritime issues.

From 2008 to 2015, environmental issues became more important as evidenced by the regular adoption of environmental and climate resolutions.

A shift in UN language

Biodiversity and the sustainable use of the oceans (SDG 14) are the two core themes that became recurring topics in the international agenda since 2015, with ocean-related issues now including items like acidification, plastic pollution and the decline of marine biodiversity.

The United Nations General Assembly resolution on oceans and the law of the seas (LOS is a particularly useful tool to acknowledge this evolution: drafted annually since 1984, the resolution has covered all aspects of the United Nations maritime regime while reflecting new issues and concerns.

Some environmental terms were initially absent from the text but have become more prevalent since the 2000s.

This evolution is also reflected in the choice of words.

While LOS resolutions from 1984 to 1995 focused mainly on the implementation of the treaty and the economic exploitation of marine resources, more recent resolutions have used terms related to sustainability, ecosystems, and maritime issues.

Toward a new law of the oceans?

As awareness of the issues surrounding the oceans and their link to climate change has grown, the oceans gradually became a global “final frontier” in terms of knowledge.

The types of stakeholders involved in ocean issues have also changed. The expansion of the ocean agenda has been driven by a more “environmentalist” orientation, with scientific communities and environmental NGOs standing at the forefront of this battle. This approach, which represents a shift away from a monopoly held by international law and legal practitioners, clearly is a positive development.

However, marine governance has so far relied mainly on non-binding declaratory measures (such as the SDGs) and remains ineffective. A cycle of legal consolidation toward a “new law of the oceans” therefore appears to be underway and the challenge is now to supplement international maritime law with a new set of measures. These include:

Of these agreements, the BBNJ is arguably the most ambitious: since 2004, negotiators have been working toward filling the gaps of the United Nations Convention on the Law of the Sea (UNCLOS) by creating an instrument on marine biodiversity in areas beyond national jurisdiction.

The agreement addresses two major concerns for states: sovereignty and the equitable distribution of resources.

Adopted in 2023, this historic agreement has yet to enter into force. For this to happen, sixty ratifications are required and to date, only 29 states have ratified the treaty (including France in February 2025, editor’s note).

The BBNJ process is therefore at a crossroads and the priority today is not to make new commitments or waste time on complicated high-level declarations, but to address concrete and urgent issues of ocean management, such as the frantic quest for critical minerals launched in the context of the Sino-American rivalry, and exemplified by Donald Trump’s signing of a presidential decree in April 2025 allowing seabed mining – a decision that violates the International Seabed Authority’s well established rules on the exploitation of these deep-sea resources.

At a time when U.S. unilateralism is leading to a policy of fait accompli, the UNOC 3 should, more than anything and within the framework of multilateralism, consolidate the existing obligations regarding the protection and sustainability of the oceans.

The Conversation

Kevin Parthenay is a member of the Institut Universitaire de France (IUF).

Rafael Mesquita ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

04.06.2025 à 13:59

Les origines françaises de la Grande Roumanie

Jean-Robert Raviot, Professeur de civilisation russe et soviétique, Université Paris Nanterre – Université Paris Lumières

Taline Ter Minassian, Historienne, professeure des universités. Co-directrice de l'Observatoire des États post-soviétiques jusqu'en 2024., Institut national des langues et civilisations orientales (Inalco)

Après la Première Guerre mondiale, des Français, au premier rang desquels le géographe Emmanuel de Martonne, ont joué un rôle clé dans la création de la Grande Roumanie (1918-1940).
Texte intégral (3688 mots)
Emmanuel de Martonne, ici à cheval sur son terrain de thèse en Roumanie vers 1898-1900, allait devenir l’un des meilleurs experts de la Roumanie, et l’un des artisans de l’édification d’une Grande Roumanie au lendemain de la Première Guerre mondiale. Source : plaque de verre du fonds de Martonne, UMR PRODIG, Paris. Issu de : Gaëlle Hallair, « Les carnets de terrain du géographe français Emmanuel de Martonne (1873-1955) : méthode géographique, circulation des savoirs et processus de visualisation »

À l’issue de la Première Guerre mondiale, l’effondrement de l’Empire austro-hongrois et de l’Empire russe a favorisé l’émergence d’une Grande Roumanie, avec le soutien actif de la France.


Le second tour de l’élection présidentielle roumaine du 18 mai 2025, qui s’est soldé par la victoire du candidat libéral pro-européen, le maire de Bucarest Nicusor Dan, s’est déroulé dans un climat de grande tension. Le candidat d’extrême droite George Simion, vaincu au second tour après avoir récolté 40 % des voix au premier (deux fois plus que Nicusor Dan), a notamment dénoncé des « ingérences françaises » en faveur de son adversaire. Rappelons que ce second scrutin intervenait quelques mois après que la Cour constitutionnelle a annulé, le 6 décembre 2024, le premier tour de la présidentielle organisé le 1ᵉʳ décembre et dont le résultat aurait été, selon les juges, faussé par une opération d’influence russe.

Des accusations du PDG de Telegram Pavel Durov, qui prétend que Nicolas Lerner, le patron de la DGSE, lui aurait « demandé de bannir des voix conservatrices en Roumanie avant les élections », jusqu’au soutien marqué d’Emmanuel Macron au maire de Bucarest, il flotte sur le feuilleton politique roumain comme un parfum d’« entre-deux-guerres ».

À cette époque, le tableau idéalisé de la bonne entente de la France avec sa petite sœur latine avait reçu quelques coups de canif. Pourtant, en 1918, la France avait contribué de manière décisive à la création de la Grande Roumanie. Les accusations d’ingérence visant Paris lors de la récente présidentielle roumaine s’inscrivent en fait dans une certaine profondeur historique… et géographique.

Tropisme roumain de la politique française

Peu avant le Printemps des peuples de 1848, alors que les territoires destinés à constituer la Roumanie contemporaine sont partagés entre l’Empire russe et l’Empire ottoman, les patriotes roumains avaient été les auditeurs éblouis du cours professé par Jules Michelet au Collège de France sur la Révolution française.

Autour de l’historien visionnaire, ils formèrent le « Cercle du Collège de France » et inspirèrent à Michelet ses Légendes démocratiques du Nord (1853). Peu après la guerre de Crimée (1853-1866), Napoléon III suscita la naissance de la Roumanie en favorisant l’union des principautés de Moldavie et de Valachie en 1859.

Le soutien de la France à la nation roumaine devait encore se préciser durant la Première Guerre mondiale. C’est alors que la France apporta un appui décisif à la construction de la « Grande Roumanie ». Ainsi, la question de l’influence française sur l’élection présidentielle roumaine de 2025 n’est pas inédite au regard de la longue durée, car en 1918 la Grande Roumanie fut constituée avec le soutien des réseaux militaires français, en particulier avec l’appui du maréchal Foch et du général Berthelot, chef de la mission militaire française en Roumanie, pour faire barrage à la « menace rouge ».

Le nom d’Emmanuel de Martonne est sans doute familier à toutes les générations d’écoliers, de collégiens, de lycéens et d’étudiants qui ont connu, au XXe siècle, les magnifiques cartes murales de la France, de l’Europe et du monde suspendues dans les classes des écoles primaires jusque dans les amphithéâtres universitaires. Mais si son nom s’est imprimé dans le cerveau de générations de jeunes Français, ces derniers ignorent en général que ce grand universitaire participa de manière déterminante au tracé des frontières de la Grande Roumanie.

Emmanuel de Martonne : prince de la « République des universitaires »

Gendre du grand géographe Paul Vidal de la Blache, Emmanuel de Martonne (1873-1955) fut un éminent représentant de la « République des universitaires » alors à son apogée. Comme quelques autres universitaires qui furent mobilisés en tant qu’experts pendant la Première Guerre mondiale et lors de la Conférence de la paix de 1919, son parcours et son engagement s’inscrivent dans une certaine tradition proroumaine de l’intelligentsia française.

Couverture du livre de Gavin Bowd, Un géographe français et la Roumanie : Emmanuel de Martonne (1873-1955), L’Harmattan, 2012. L’Harmattan

Alors que ce normalien agrégé se destinait initialement à l’étude de la géomorphologie, de Martonne fit de l’une des provinces roumaines, la Valachie, le sujet d’une thèse de géographie régionale d’inspiration vidalienne. En effet, dans son célèbre Tableau de la géographie de la France (1903), Vidal de la Blache faisait des régions ou des différents « pays » une échelle d’observation du territoire national. De là naquirent chez de Martonne un « terrain » et un véritable engagement pour ce pays exploré à pied au cours de nombreuses excursions géographiques. De Martonne n’a pourtant rien du tempérament de Michelet : excessivement sérieux, froid, voire rude, il se distingue par sa « prudence doctrinale » et sa méfiance à l’égard des « conceptions systématiques ».

Durant la Première Guerre mondiale, Emmanuel de Martonne, âgé d’une quarantaine d’années, est déjà parvenu au zénith de sa carrière. Il ne part pas au front, mais ses étudiants adressent à leur « cher Maître », du fond des tranchées, des descriptions émouvantes de strates géologiques rappelant les souvenirs heureux de leurs études et de leurs excursions d’avant-guerre. En 1916, la Roumanie – dont l’indépendance avait été reconnue par le traité de Berlin qui mit un terme à la guerre russo-turque de 1877-1878 – entre tardivement en guerre, dans le camp de l’Entente. Emmanuel de Martonne voit alors sa passion roumaine transformée en sujet géopolitique d’une actualité brûlante.

Parmi d’autres universitaires, il est mobilisé comme expert au sein du Comité d’études, un cercle de pensée fondé en février 1917 sous l’impulsion d’Aristide Briand, chargé de mettre en forme les buts de guerre français en Europe et au Moyen-Orient au cas où la victoire entraînerait le démantèlement de l’Empire austro-hongrois et de l’Empire ottoman.

Après l’entrée en guerre des États-Unis, la victoire se précise et, à partir de l’automne 1918, le président Wilson se montre plus favorable au projet de démantèlement de l’Empire austro-hongrois. Ce changement, qui donnera naissance aux nouveaux États d’Europe centrale et orientale, constitue également un tournant favorable à la cause du nationalisme roumain.

Les experts américains de l’Inquiry, l’équivalent américain du Comité d’études, envisagent désormais d’octroyer à la Roumanie les régions d’Autriche-Hongrie à peuplement majoritairement roumain, donnant progressivement corps et réalité au projet de la Grande Roumanie. En effet, en 1918, la Roumanie se retrouve, après quelques déboires, dans le camp des vainqueurs. L’effondrement de l’Empire austro-hongrois et de l’Empire russe puis le recul de la Russie bolchévique, entériné par le traité de Brest-Litovsk, donnent l’opportunité d’adjoindre à la Roumanie la Bessarabie, c’est-à-dire la Moldavie actuelle.

La Grande Roumanie existera jusqu’en 1940. Jacques Leclerc, CC BY-SA

Emmanuel de Martonne, traceur de frontières

Partisan de la dislocation de l’Empire austro-hongrois, Emmanuel de Martonne, devenu en 1918 le secrétaire du Comité d’études, se distingue par son engagement intransigeant en faveur de la cause roumaine.

Pendant la Conférence de la paix, il est convoqué comme expert au sein de la sous-commission Tardieu, qui regroupe les savants américains et français chargés des questions balkaniques. Ses nombreux rapports consacrés au tracé des frontières dans les diverses régions appelées à être intégrées au sein du nouvel État roumain forment un argumentaire géographique solide en faveur de la Grande Roumanie.

Textes, statistiques, enquêtes et cartes à l’appui, il contribue à créer, selon des critères géographiques jugés « modernes », obéissant en premier lieu à la géographie humaine, « un État national réunissant la presque totalité des populations roumaines », « une des réalisations les plus heureuses de l’idée nationale sorties de la Grande Guerre » selon lui.

Carte de la formation du territoire roumain, in Michel Foucher, Fragments d’Europe, Atlas de l’Europe médiane et orientale, Paris, Fayard, rééd. 1998, p. 165. Carte reprise dans : Gaëlle Hallair, Le Géographe Emmanuel de Martonne et l’Europe centrale, UMR PRODIG, UMR Géographie-cités, pp.148, 2007, Grafigéo, Mémoires et documents de l’UMR PRODIG, ISSN 1281-6477, Jean-Marie Théodat. ffhal-00282068f. hal.science/hal-00282068/document

À l’ouest de la Roumanie, taillant dans le vif d’une véritable mosaïque ethnique afin de permettre l’accès au Danube et aux voies de communication ferroviaires, le géographe dessine le nouveau tracé de la frontière avec la Hongrie et la nouvelle Yougoslavie dans la région extraordinairement complexe du Banat (région de Timisoara), en tentant d’évaluer les statistiques ethniques de la population.

Au nord-ouest, de Martonne, fervent avocat de la cause roumaine, souhaite que la Transylvanie et la Crisana, régions à majorité hongroises, soient intégrées à la Roumanie. Promettant que la Roumanie respectera le droit des minorités si elle fait l’acquisition de ces régions à majorité magyare, il s’appuie sur la théorie du dacianisme, apparue au XIXe siècle et désignant les Daces comme les ancêtres des Roumains et, par conséquent, les limites de la province romaine de Dacie comme le support des revendications territoriales roumaines à l’époque contemporaine. Ce thème historiographique majeur du nationalisme roumain avait pour enjeu territorial la Transylvanie.

Véritable casse-tête, la question de la frontière transylvaine avec la Hongrie suscite un grand nombre de rapports et d’expertises, et plusieurs propositions de tracés. Le premier annexe à la Roumanie 877 000 Hongrois et le second seulement 594 000, mais il invoque constamment le manque de fiabilité de la statistique hongroise « qui exagère le nombre des Hongrois, à la campagne de 5 à 20 %, dans les villes de 15 à 40 % ».

Au sud, la Dobroudja, objet de contentieux entre les Roumains et les Bulgares vaincus de la Première Guerre mondiale, est, selon le géographe, une région qui donne l’image d’un « bariolage ethnique », mais « où la prépondérance de l’élément roumain est évidente ».

Enfin, à l’est, la Bessarabie comprise entre les fleuves Prut et Dniestr correspond à peu près à la Moldavie actuelle : celle-ci n’est apparue que très tardivement au chapitre des revendications nationales roumaines. Dans l’espace laissé vacant par le recul russe, une éphémère république moldave indépendante fut proclamée à Kichinev (Chisinau, en roumain), en janvier 1918, mais elle fut incorporée trois mois plus tard au royaume de Roumanie (9 avril 1918). Il fallait donc adjoindre la Bessarabie à la Roumanie afin de renforcer cette dernière dans son rôle de bastion contre la Russie bolchévique. L’expertise d’Emmanuel de Martonne est sans ambiguïté :

« L’annexion intégrale de la Bessarabie est conforme à la justice ethnique, à l’histoire et à la géographie. Elle est en outre imposée par l’intérêt des populations. »

Inauguration d’un buste d’Emmanuel de Martonne à Bucarest par Nicusor Dan (de dos), alors maire de la capitale roumaine, le 2 juin 2024. Chaîne YouTube de Nicusor Dan

Doctor honoris causa de l’Université de Cluj en 1929, nommé citoyen d’honneur de la capitale transylvaine, Emmanuel de Martonne a été célébré comme le père de la Grande Roumanie jusqu’à l’époque de Ceausescu comprise, qui organisa des festivités du centenaire de sa naissance en 1973. La faculté des Études européennes de Cluj se trouve aujourd’hui encore dans une rue qui porte son nom.

Il est curieux de constater, au regard de l’actualité récente, que le thème du retour à la Grande Roumanie soit réapparu dans le programme du candidat nationaliste perdant de l’Alliance pour l’unité des Roumains (AUR) George Simion, qui promettait des maisons à bon marché, des prêts à taux zéro et… l’union avec la Moldavie. Érigée avec l’appui sans faille d’Emmanuel de Martonne comme un véritable bastion contre le bolchévisme, la Grande Roumanie fut en effet de nouveau séparée de la Bessarabie après le pacte germano-soviétique, ouvrant la voie à la création en 1944 d’une République soviétique socialiste moldave intégrée à l’URSS, qui allait devenir indépendante en 1991.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

04.06.2025 à 13:58

Petite histoire de la boîte de nuit, des sous-sols du Royaume-Uni aux plages d’Ibiza

Katie Milestone, Senior Lecturer, Music and Culture, Manchester Metropolitan University

Simon Morrison, Senior Lecturer and Programme Leader for Music Journalism, University of Chester

D’endroits exigus, très chauds, faiblement éclairés, bondés, remplis de fumée et de sueur, aux gigantesques clubs en plein air : une histoire de la boîte de nuit.
Texte intégral (1693 mots)
Cream session à l’Amnesia, l’un des clubs légendaires d’Ibiza, ouvert en 1976.

Des sous-sols de la banlieue de Manchester aux plages enflammées d’Ibiza, la boîte de nuit n’a jamais cessé de se réinventer. Avant d’être le lieu de fête par excellence, le club était surtout un refuge pour adolescents, car isolé du monde des adultes. Depuis, la culture du club s’est largement développée et les boîtes de nuit sont devenues de véritables espaces de liberté : une évolution autant sociale qu’artistique.


Quand le rock est arrivé au Royaume-Uni au milieu des années 1950, il y avait très peu d’endroits destinés aux jeunes pour danser sur ce tout nouveau genre musical. Mais, au début des années 1960, des lieux spécialement adaptés pour cela ont commencé à voir le jour dans les villes. Contrairement aux salles de bal, parfois grandioses et opulentes, qui avaient été les lieux de prédilection de la génération précédente, les nouvelles discothèques des années 1960, destinées aux adolescents, étaient le plus souvent situées dans des espaces totalement différents, en matière d’architecture et d’ambiance.

Plusieurs de ces nouvelles discothèques pour jeunes se trouvaient dans les sous-sols de bâtiments plutôt délabrés. Dépourvues des licences requises pour ouvrir un débit de boissons, elles s’adressaient à des jeunes n’ayant pas atteint l’âge légal pour consommer de l’alcool.

La nouveauté de ces espaces se reflétait dans l’incertitude quant à la manière de les décrire : ils étaient parfois qualifiés de « coffee dance clubs », parfois de « continental style ». Pour l'essentiel, ils diffusaient de la musique enregistrée, souvent très énergique, ce qui avait un effet direct sur les danseurs, et qui allait permettre aux adolescents britanniques, dont beaucoup s’identifiaient aux mods (la sous-culture des jeunes stylés qui a fleuri entre le début et le milieu des années 1960), de découvrir des artistes afro-américains de R&B.

Dans notre nouveau livre, Transatlantic Drift : The Ebb and Flow of Dance Music, nous évoquons ces clubs pionniers et les musiciens, interprètes et DJ novateurs, qui ont incité les gens à se réunir et à danser.

Dans les sous-sols

Le fait qu’ils soient installés dans des sous-sols renforce l’attrait exercé par les clubs. Les participants se sentaient appartenir à un mouvement clandestin et étaient littéralement cachés du monde des adultes. Pendant quelques années, entre 1963 et 1966, l’hédonisme souterrain a existé sous la surface – et la scène des clubs mods a prospéré. L’architecture de ces espaces offrait aux jeunes danseurs des environnements uniques qui leur permettaient de vivre des expériences particulièrement viscérales.

Il s’agissait d’espaces où régnait souvent une chaleur étouffante, peu éclairés, bondés, remplis de fumée et de sueur, où la musique ricochait sur les surfaces et se répercutait directement sur les corps des danseurs. L’emplacement souterrain est parfois souligné dans le choix des noms de ces clubs : Cavern, Dug Out, Dungeon, Catacombs, Heaven and Hell.

Le Sinking Ship Club de Stockport (sud de Manchester, Angleterre) était situé dans une grotte creusée dans des rochers de grès rouge. La condensation qui retombait sur les danseurs était imprégnée des dépôts minéraux rouges, leur laissant un souvenir sensoriel particulièrement vibrant d’une session de danse ayant duré toute la nuit.

À la fin de l’ère des clubs modernes, en 1966, les stars américaines du R&B Etta James et Sugar Pie DeSanto ont enregistré le titre « In the Basement (Part 1) ». Bien que la chanson fasse référence à une fête dans une maison plutôt qu’à une boîte de nuit, elle reflète l’esprit du milieu des années 1960, l’ère de la danse moderne, et les endroits où elle s’est épanouie. DeSanto, en particulier, était extrêmement populaire auprès des mods.

Outre la tendance à nommer les clubs en référence à leur emplacement souterrain, une autre tendance consistait à les nommer en référence à des lieux situés en dehors du Royaume-Uni, afin de donner un sentiment d’évasion et de glamour.

Il s’agissait souvent de mots d’origine latine comme La Discothèque, La Bodega, ou encore El Partido. Cette référence à l’Europe correspondait à la passion des mods pour le style européen continental. On peut également y voir un signe avant-coureur de ce qui allait se passer au fur et à mesure que ces lieux se transformaient.

Et la lumière fut

La fin du XXe siècle a enfin mis en lumière la culture des clubs. Une glorieuse rencontre entre divers effets spéciaux (musicaux, météorologiques et pharmaceutiques) s’est combinée pour former, pourrait-on dire, la dernière grande « sous-culture spectaculaire ». Dans les années 1980, des rythmes électroniques bruts partis de villes américaines comme Chicago et Detroit ont traversé l’Atlantique, d’abord au compte-gouttes, puis par vagues, et ont investi les clubs européens.

À Ibiza, par exemple, Alfredo Fiorito (qui avait fui les restrictions imposées par la junte dans son Argentine natale) jouait de la house de Chicago et de la techno de Detroit, en plus de son habituelle pop européenne et de l’electronica. Sa toile était la piste de danse de la boîte de nuit Amnesia, où il faisait le DJ tout au long de la nuit et jusqu’au matin. Ce n’est pas tant que son DJ mix ait fait exploser le toit de l’endroit, mais plutôt que l’Amnesia n’avait pas de toit à l’origine.

« Space Ibiza Late 90’s. DJ Alfredo », Space Ibiza (2015).

Au soleil, la vitamine D s’est mélangée a réagi au flux moins naturel de la drogue E dans le corps. La MDMA (ou ecstasy), abrégée en E, présentait une autre combinaison intrigante – cette fois, celle de l’ingéniérie allemande et de l’appropriation américaine. Pour les consommateurs, elle est devenue le parfait filtre pharmaceutique permettant d’apprécier la musique house.

Les Britanniques en vacances à Ibiza en 1987 ont eu une sorte de révélation et ont ramené la culture de la drogue au Royaume-Uni. De retour au pays, les fêtes se sont multipliées, avec notamment des raves illégales dans les fermes et les champs autour de l’autoroute M25 (la plus fréquentée du Royaume-Uni, la « M25 London orbital road » est l’autoroute circulaire de la métropole du Grand Londres, ndlr).

Des événements comme Sunrise, Energy et Biology évitèrent complètement les boîtes de nuit, préférant s’installer en plein air. Les ravers ont découvert que faire la fête au soleil les ramenait à quelque chose de primitif et de païen. Ils ont fait la fête dans et avec la nature, dans un Arden shakespearien reconstitué, alimenté par le soleil d’en haut et l’énergie du sol d’en bas.

C’est ainsi que l’histoire de la culture des clubs a émergé des caves et des sous-sols d’un monde souterrain et nocturne et a trouvé son chemin vers la lumière.

Les répercussions de cette dérive transatlantique, de ce flux musical de rythmes et d’idées, se sont ensuite propagées comme des vagues sonores à travers la planète. Nous pouvons en voir les traces dans des festivals tels que le carnaval de Notting Hill. Nous pouvons également suivre cette aventure qui a quitté les week-ends, puis le Royaume-Uni, pour suivre une piste néo-hippie qui a traversé l’Europe, et en particulier l’Europe de l’Est, jusqu’à la scène trance de Goa et aux fêtes de la pleine lune en Thaïlande.

À Ibiza, les nouvelles lois et réglementations sur les nuisances sonores ont littéralement permis de remettre le toit en place ; mais, ailleurs, l’esprit des raves et de la boule à facette, de la disco al fresco, semble inarrêtable.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

04.06.2025 à 13:57

Personnes âgées : une solidarité familiale trop souvent passée sous silence

Christophe Capuano, Professeur des universités en histoire contemporaine, Université Grenoble Alpes (UGA)

Si les solidarités familiales autour des personnes âgées sont réelles, de nombreux clichés sur l’égoïsme de l’entourage circulent depuis deux siècles. Pourquoi ?
Texte intégral (2184 mots)

Contrairement à un cliché tenace, à l’approche de l’été, les familles ne s’empressent pas de déposer leurs proches âgés en maison de retraite pour partir en vacances. Pourtant, l’idée d’un entourage égoïste persiste, entretenu par les médias et les politiques au fil de crises, comme celle de la canicule de 2003. Les recherches sur les solidarités familiales dessinent une tout autre histoire. Comment expliquer son invisibilisation ?


Les réticences face à l’adoption d’une loi sur l’accompagnement de la fin de vie réactivent un certain nombre de représentations négatives sur les familles et leur supposé égoïsme. Certaines d’entre elles seraient susceptibles d’encourager, par intérêt, leur parent âgé à recourir à cette aide à mourir – soit pour recevoir un héritage, soit pour ne plus payer l’Ehpad. Quant aux personnes vulnérables concernées, elles seraient davantage susceptibles de la solliciter lorsque le sentiment d’abandon par leurs proches et d’isolement relationnel serait le plus aigu.

Lors de la crise sanitaire du Covid-19 ou de la canicule de l’été 2003, l’opprobre avait déjà été jeté sur les familles soupçonnées de délaisser leurs proches, tant en institution qu’à domicile.

Sans nier la réalité d’un sentiment d’isolement chez certains, il semble nécessaire d’éclairer la réalité de ces solidarités familiales intergénérationnelles. Et surtout de comprendre comment des représentations négatives, construites au cours des deux derniers siècles, se sont renforcées depuis les années 2000.

Des solidarités familiales invisibilisées

Les familles sont depuis longtemps soupçonnées de se défausser de leur responsabilité sur la solidarité publique. Cette vision naît avec le développement d’un système d’assistance en France, parallèlement au développement d’une pensée anti-individualiste et moralisante au XIXᵉ siècle.

La solidarité vis-à-vis des personnes âgées relève d’une logique de subsidiarité, fondée notamment sur l’article 205 du Code civil (1804) et l’obligation alimentaire des descendants vis-à-vis des ascendants. L’assistance publique intervient – pour des vieillards de bonnes mœurs et sans ressource – uniquement si les familles sont défaillantes ou trop pauvres pour aider leur parenté. Cela concerne le placement en hospices comme le versement de prestations à domicile, généralisé avec la loi d’assistance du 14 juillet 1905. Selon celle-ci, les sommes versées par les familles pour soutenir leur proche âgé sont défalquées des sommes (pourtant minimes) attribuées par la solidarité publique.

Or, les besoins sont immenses dans une société où il n’existe pas de dispositif de retraite et où les corps sont usés par le travail. De nombreux vieillards sont contraints de demander à entrer en institution pour échapper à la misère et rejoignent ainsi une longue liste d’attente. Dans ce contexte, les familles optent alors massivement pour une aide clandestine : il s’agit de dissimuler aux pouvoirs publics les quelques ressources qu’elles pourraient verser à leurs vieux parents restés à leur domicile.

Cette situation est révélée au grand jour lors de la Première Guerre mondiale lorsque des fils, envoyés sur le front, ne peuvent plus assurer ce transfert secret d’argent. Privées de ce complément financier, de nombreuses personnes âgées sombrent alors dans la misère la plus extrême. L’invisibilisation de ces solidarités au début du siècle a construit le mythe selon lequel les familles abandonneraient leurs proches à leur propre sort ou qu’elles frauderaient pour éviter de faire jouer l’obligation alimentaire ou la récupération sur succession après décès.

Cohabiter ou vivre en voisins

Durant l’entre-deux-guerres, le nombre d’entrées en institution continue sa hausse, parallèlement à une suspicion croissante vis-à-vis des familles. Celles-ci font pourtant ce qu’elles peuvent mais la dégradation de la conjoncture et le spectre du chômage rendent plus difficiles d’aider un proche âgé.

Durant l’Occupation et les années 1950, la cohabitation intergénérationnelle augmente pourtant, avec son lot de tensions intrafamiliales, mais elle est contrainte, et due aux circonstances exceptionnelles de la période. Il y a d’abord la nécessité de sortir son parent de l’hospice pour éviter qu’il ne meure de faim puis, après-guerre, une crise aiguë du logement que subissent toutes les générations françaises.

Le fort recul de cette cohabitation à partir des années 1960 et l’augmentation de la part des personnes âgées vivant seules sont lus comme un déclin des solidarités au sein des familles – y compris par les sociologues qui se focalisent sur l’éclatement des liens familiaux contemporains, en parallèle à la hausse des divorces. De leur côté les médecins dénoncent ce qu’ils désignent comme « le syndrome de la canne à pêche » : le dépôt à l’hôpital de leur proche âgé par les familles pour les vacances.

Ces condamnations moralisatrices et culpabilisantes masquent pourtant une autre réalité : le manque criant de soutien des pouvoirs publics aux familles aidantes et l’absence de dispositifs de répit pour permettre à ces dernières de souffler quelques semaines. Par ailleurs, les mutations sociales renforcent l’invisibilité des solidarités. La cohabitation intergénérationnelle recule avec la sortie de la crise du logement, les personnes âgées, en meilleure santé aspirent à vivre de manière autonome.

Mais vivre seul ne signifie pas vivre de manière isolée. La géographe Françoise Cribier et la sociologue Claudette Collot prouvent au début des années 1970 l’importance de l’habitat de proximité entre les générations. La régularité de visites des enfants adultes permet alors de nouvelles relations d’intimité à distance. À leur suite, plusieurs travaux comme ceux d’Agnès Pitrou montrent l’importance de cette redécouverte des solidarités familiales et de l’habitat choisi.

Se multiplient ainsi les études qui définissent la parenté comme réseau d’entraide. Les sciences sociales utilisent alors, durant les années 1980, l’expression d’« aidants familiaux » : la capacité protectrice de la famille est mise en regard des limites de la protection publique.

Ces travaux insistent sur le rôle attendu et assumé par les familles dans la promotion de la santé des personnes âgées fragiles. Ils utilisent différentes notions empruntées pour partie au monde anglo-saxon : support, secours, soins, assistance.

Les recherches en gérontologie et en sociologie de la santé traitent de la solidarité familiale en termes de soutien ou de support social ; elles mettent aussi au jour l’existence de « générations pivots » ou « générations sandwichs », des générations d’aidants au croisement de l’aide aux aînés et du support aux enfants ou jeunes adultes.


Tous les quinze jours, nos auteurs plongent dans le passé pour y trouver de quoi décrypter le présent. Et préparer l’avenir. Abonnez-vous gratuitement dès aujourd’hui !


Des clichés persistants sur les liens intergénérationnels

Si les travaux scientifiques sur l’aide familiale font pièce aux représentations d’un désengagement familial, cette vision biaisée continue d’être alimentée par des politiques et dans les médias. Dans le Paravent des égoïsmes, publié en 1989, l’ancienne ministre de la santé et de la famille, Michèle Barzach, reprend le schéma d’un supposé déclin des solidarités, dénonçant un « égoïsme collectif, qui nous mène à un lent dépérissement de la population, et un égoïsme individuel qui, au nom de la solidarité nationale, nous dispense de regarder autour de nous ». Elle condamne également la fin de la cohabitation avec les aînés qui n’aurait pas été remplacée par « d’autres formes de solidarité ». Voilà qui « aurait favorisé l’exclusion des personnes âgées, l’amélioration de leur situation matérielle ne suffisant pas à compenser leur isolement ».

En 1989, pour se prémunir de familles financièrement intéressées, la loi sur l’accueil familial fixe les conditions de rémunérations des familles nourricières, mais en exclut les familles naturelles qui hébergeraient un parent âgé. Durant les années 1990, lors des débats sur la création d’une allocation dépendance, certains sénateurs disent suspecter les familles de vouloir se « décharger de leurs obligations sur l’aide sociale ».

Ces conceptions idéologiques sont réactivées lors de la canicule de 2003 dont l’essentiel des victimes (14 802 morts) a plus de 75 ans. Les dirigeants et les médias accusent à tort les familles d’avoir délaissé leurs proches durant l’été comme le démontre bien l’historien Richard Keller. Ils diffusent cette affirmation alors même que 64 % des personnes sont mortes en institution, notamment en Ehpad.

Durant les années 2000-2020, dans un contexte où l’injonction est au maintien au domicile, les familles qui placent malgré tout leur parent âgé en institution restent soupçonnées de l’abandonner. Et comme le coût de l’hébergement en Ehpad, une fois soustraite l’ASH est à leur charge, elles sont également suspectées d’espérer un séjour le plus court possible. De là à voir certains membres familiaux souhaiter un décès rapide il n’y a qu’un pas, surtout qu’il pourrait être franchi en complicité avec une partie du corps médical qui y verrait une forme de thérapie létale – risques que brandissent les pourfendeurs de la loi sur l’aide à mourir.

C’est oublier pourtant que ces familles – en particulier les femmes aidantes – constituent les principales pourvoyeuses de « care » dans nos sociétés contemporaines, que le proche âgé soit maintenu au domicile ou en établissement. Et qu’une loi sur la fin de vie d’une telle portée sociétale ne peut être acceptée sans que les familles françaises y soient associées et y souscrivent, d’une façon ou d’une autre. C’est à cette condition que cette nouvelle disposition fonctionnera pleinement, comme nous le montrent les exemples belges ou néerlandais.


Cet article s’inscrit dans le projet KAPPA « Conditions d’accès aux aides et politiques publiques de l’autonomie. Origines, implications et perspectives d’évolution de la segmentation par âge », bénéficiant du soutien de l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.

The Conversation

Christophe Capuano a reçu des financements de la MIre/Drees et de la CNSA.

PDF

03.06.2025 à 16:35

Bac, brevet, CAP : petite histoire des examens en cinq questions

Claude Lelièvre, Enseignant-chercheur en histoire de l'éducation, professeur honoraire à Paris-Descartes, Université Paris Cité

En quelques grandes questions, retour sur l’histoire des examens alors que les lycéens et étudiants passent les dernières épreuves de l’année.
Texte intégral (2355 mots)

À quoi les premières sessions du baccalauréat ressemblaient-elles ? Quand le brevet des collèges a-t-il été créé ? À partir de quand l’université s’est-elle féminisée ? En quelques grandes questions, retour sur l’histoire des examens alors que les lycéens et étudiants passent les dernières épreuves de l’année.


Le recours systématique à l’organisation d’examens et à la collation de « grades » attestés dans des diplômes pour valider les connaissances acquises par l’enseignement est une pratique apparue avec les premières universités médiévales au tournant des XIIe et XIIIe siècles.

L’élément central du dispositif a été la licence qui, de simple acte juridique (l’octroi d’une « autorisation », d’un « droit d’enseigner ») s’est assez vite transformée en « examen » et en « grade » pour se retrouver elle-même encadrée rapidement par deux autres grades, eux-mêmes conférés après examen : le baccalauréat d’abord et la maîtrise ensuite.

Ce dispositif « à trois étages » de validation des connaissances s’est imposé partout. La quasi stabilité du vocabulaire qui permet de le décrire – baccalauréat (certes parfois appelé « determinatio »), licence, maîtrise (ou master) – est la meilleure preuve de sa prégnance qui a survécu jusqu’à nos jours.

Alors que les lycéens passent les dernières épreuves du bac et que les étudiants guettent leurs résultats de fin d’année, retour en cinq questions sur l’histoire des premiers examens du parcours scolaire.

À quoi le baccalauréat servait-il lorsqu’il a été institué en 1808 ?

Il a gardé de l’ancien baccalauréat sa face universitaire et il a été le point de départ des baccalauréats dits « généraux » que nous connaissons. Mais avec une grande différence, au début, puisqu’il s’agissait d’un examen entièrement oral dont le jury était uniquement composé d’universitaires.

Le statut du 16 février 1810 précise que les examinateurs du baccalauréat doivent être au nombre de trois universitaires. Cet examen oral porte sur « tout ce que l’on enseigne dans les hautes classes des lycées » (les deux dernières). Peu à peu, des épreuves écrites sont ajoutées. Surtout, peu à peu également, le jury qui fait effectivement passer l’examen du baccalauréat comporte de moins en moins d’universitaires et de plus en plus de professeurs du secondaire.

Pour Napoléon Ier qui a été le créateur de ce baccalauréat, il s’agissait avant tout d’instruire dans les lycées nouvellement créés les futurs officiers et hauts administrateurs de son Empire. De fait, selon l’expression du philosophe Edmond Goblot, le baccalauréat a été tout au long du XIXe siècle « un brevet de bourgeoisie ».

Quand les filles ont-elles eu pour la première fois accès au lycée et à l’université ?

Même quand la loi Camille Sée de décembre 1880 institue avec le soutien de Jules Ferry des établissements d’enseignement secondaire féminin publics, les filles peuvent très difficilement passer le baccalauréat et suivre un cursus à l’université. En effet, à la différence des lycées de garçons institués en 1802, le plan d’études des lycées de jeunes filles ne comporte pas les disciplines qui sont alors le fleuron de l’enseignement secondaire et du baccalauréat : le latin, le grec et la philosophie.

Portrait de Julie-Victoire Daubié, par Pierre Petit (1861)
Portrait de Julie-Victoire Daubié, par Pierre Petit (1861). Wikimedia

Mais le baccalauréat n’est pas juridiquement interdit aux jeunes filles ; et certaines d’entre elles le passeront en candidates libres : une trentaine en 1890, une centaine en 1909. La première bachelière qui a obtenu le diplôme du baccalauréat est Julie Daubié, en 1861. Elle sera aussi la première licenciée es lettres française en 1871.

Il a fallu presque un demi-siècle pour qu’un décret en date du 25 mars 1924 aménage officiellement une préparation au baccalauréat présentée comme une section facultative alignée totalement sur le secondaire masculin, tout en perpétuant un enseignement secondaire féminin spécifique institué en 1880 (avec son diplôme spécifique de « fin d’études secondaires », au titre significatif…).


À lire aussi : Histoire : la longue marche des filles vers l’université


Les jeunes filles commencent alors leur « longue marche » conquérante. Dès 1936, les jeunes filles représentent le quart des élèves reçus à l’examen du baccalauréat. En 1965, leur taux d’accès arrive au même niveau que celui des garçons : 13 % de la classe d’âge. Et le pourcentage de jeunes filles inscrites à l’université monte vite : un quart des étudiants en 1930, un tiers en 1950, pour atteindre la moitié en 1981.

Pourquoi a-t-on créé le brevet ?

D’abord, de quel brevet parle-t-on ? Au XIXe siècle, le « brevet » est d’abord et avant tout un « brevet de capacité » qui certifie que l’on est « en capacité » de devenir maître (ou maîtresse) d’école, et plus généralement un examen qui est parfois requis pour être « en capacité » d’exercer certains métiers appartenant à ce que l’on appellerait maintenant la sphère des cadres intermédiaires.


Tous les quinze jours, nos auteurs plongent dans le passé pour y trouver de quoi décrypter le présent. Et préparer l’avenir. Abonnez-vous gratuitement dès aujourd’hui !


En 1947, dès le début de la forte augmentation du taux de scolarisation dans l’enseignement secondaire qui commence sous la IVe République, le « brevet » est transformé en « brevet d’études du premier cycle du second degré » (BEPC), son appellation nouvelle signant ce qu’il est devenu avant tout, à savoir un examen qui scande un cursus secondaire désormais clairement constitué de deux cycles. Mais ce n’est nullement une condition pour passer en classe de seconde et cela ne l’a jamais été jusqu’ici, même si cela est envisagé.

À partir de 1981, le diplôme – désormais intitulé « brevet des collèges » – est attribué sans examen, au vu des seuls résultats scolaires. Mais, en 1986, un « examen écrit » est réintroduit avec le triple objectif annoncé de « revaloriser le diplôme », de « motiver » davantage les élèves, et de les « préparer » à aborder des examens ultérieurement. Lors de sa première mouture, le taux de reçus n’a pas dépassé 49 %.

CAP, BEP, bac pro : quand les diplômes de la voie professionnelle ont-ils été créés ?

Le certificat d’aptitude professionnelle (CAP), destiné à sanctionner un apprentissage, est institué en 1911. Cet examen est réservé aux « jeunes gens et jeunes filles de moins de dix-huit ans qui justifient de trois années de pratiques dans le commerce et l’industrie » (décret du 24 octobre 1911). Mais comme le CAP n’a pas été rendu obligatoire ni même associé à une grille de rémunération, le CAP demeurera un diplôme rare dans un premier temps.

Le brevet d’enseignement professionnel (BEP) a été créé en 1966. Il a été institué dans le but de remplacer progressivement le CAP en ayant un caractère plus théorique et moins pratique. Préparé en deux ans après la classe de troisième, il relevait d’une conception plus scolaire de la qualification ouvrière face aux exigences techniques de l’industrie et du commerce modernes.


À lire aussi : Lycée : surmonter les clichés sur la voie professionnelle


Le baccalauréat professionnel, institué en 1985, parachève cette évolution. Selon Jean-Pierre Chevènement, le ministre de l’éducation nationale, il s’agit en premier lieu de répondre aux besoins de la modernisation du pays en formant des « ouvriers » de plus en plus qualifiés, « souvent au niveau du baccalauréat, quelquefois à un niveau supérieur encore »(28 mai 1985).

Quand le bac s’est-il vraiment démocratisé ?

Le taux de titulaires d’un baccalauréat dans une classe d’âge donnée a été longtemps très restreint ce qui induit qu’il était réservé de fait, sauf exception, aux enfants de milieux socioculturellement favorisés. Il a été de moins de 3 % tout au long de la IIIe République. Et c’est seulement dans les dernières années de cette période que les établissements secondaires publics sont devenus gratuits, alors que c’était déjà le cas pour les établissements primaires publics depuis le début des années 1880.

Il y a eu alors un petit desserrage dans la sélection sociale, concomitant avec la montée du taux de titulaires du baccalauréat dans une classe d’âge. Mais la grande période de l’envolée du taux de bacheliers généraux se situe dans la période gaullienne : on passe de 10 % à 20 % de 1959 à 1969. Il reste à peu près à cet étiage durant presque vingt ans.

Bac de philo : le reportage incontournable des JT (INA ACTU, 2021).

Mais un autre baccalauréat est créé en 1970 : le « baccalauréat technologique ». Il va apporter un taux supplémentaire de titulaires d’un baccalauréat dans une classe d’âge : autour de 16 % – un taux qui reste quasiment constant depuis 1989. Les élèves des lycées technologiques sont d’origines socioculturelles plutôt modestes, et leurs destinations scolaires ou sociales aussi.

En 1985, une troisième couche apparaît : le « baccalauréat professionnel ». Le 8 octobre 1985, le ministre Jean-Pierre Chevènement précise qu’il s’agit « d’offrir, à l’issue de la classe de troisième, trois voies d’égale dignité » :

  • la voie générale, dans laquelle « peuvent s’engager ceux qui ont les capacités de poursuivre des études aux niveaux les plus élevés de l’Université » ;

  • la voie technologique, « qui conduira la majorité des jeunes qui s’y engagent vers un niveau de technicien supérieur » ;

  • la « voie professionnelle, qui assure, après l’obtention d’une qualification de niveau V, une possibilité de poursuivre la formation jusqu’au niveau du baccalauréat et même vers un niveau plus élevé ».

Il y a donc l’affirmation par le titre de baccalauréat d’une égalité de dignité, mais non d’un égalité de parcours – même si l’obtention du baccalauréat permet juridiquement l’entrée à l’Université. Entre 1987 et 2008, le taux de bacheliers professionnel dans une classe d’âge atteint 12 %, puis passe de 12 % en 2008 à 24 % en 2012 (en raison d’un changement de curriculum). Il se stabilise ensuite autour de 21 %.

Par ailleurs, dans le cadre de l’horizon annoncé par Jean-Pierre Chevènement de « 80 % d’une classe d’âge au niveau bac en l’an 2000 », on a une nouvelle accélération du taux de titulaires d’un baccalauréat général dans une classe d’âge qui passe de 22 % en 1987 à 37 % en 1995. Ces dernières années, il atteint 43 %.

The Conversation

Claude Lelièvre ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

03.06.2025 à 16:35

Covid-19 : de nouvelles molécules anticoronavirus isolées à partir de l’argousier

Céline Rivière, Professeure des Universités, Chimie des substances naturelles, Université de Lille

Karin Séron, Chercheuse en virologie, Centre national de la recherche scientifique (CNRS)

Des composés anticoronavirus ont été identifiés dans l’argousier, un arbuste épineux commun sur nos côtes. Une découverte qui plaide pour une meilleure préservation de la biodiversité.
Texte intégral (2648 mots)
L’argousier contient des composés actifs contre les coronavirus. Joanna Boisse/Wikimedia Commons, CC BY-NC-SA

L’arsenal pharmaceutique dont nous disposons pour combattre les coronavirus demeure très limité. En raison de la grande diversité des composés qu’elles produisent, les plantes pourraient s’avérer de précieuses alliées pour l’étoffer. Y compris les plus communes d’entre elles : des composés anticoronavirus ont en effet été découverts dans l’argousier, un arbuste épineux qui peuple nos rivages.


Cinq ans après l’émergence du SARS-CoV-2, responsable de la pandémie de Covid-19, très peu de molécules antivirales efficaces contre ce coronavirus sont disponibles pour soigner les patients. Malgré les efforts des équipes de recherche académique et pharmaceutiques à travers le monde, le repositionnement des médicaments existants n’a pas donné les résultats escomptés.

Même si la pandémie est désormais considérée comme terminée, et que les vaccins permettent de protéger les personnes les plus à risque de faire des formes sévères, il demeure important de poursuivre les recherches. En effet, les spécialistes s’accordent sur le fait que l’émergence d’autres coronavirus hautement virulents se produira dans le futur.

La poursuite des efforts pour identifier des molécules actives contre cette famille de virus s’impose donc, notamment parce qu’il est particulièrement difficile d’anticiper l’apparition de ces nouveaux épisodes infectieux.

C’est précisément l’objet des recherches que nous menons en collaboration depuis plusieurs années au sein de nos équipes respectives. Nos travaux ont pour but de diversifier les sources de molécules antivirales, d’identifier de nouvelles cibles virales ou cellulaires, ou de découvrir de nouveaux mécanismes d’action.

Ils nous ont permis d’identifier un composé anticoronavirus prometteur à partir d’une plante commune, l’argousier (Hippophae Rhamnoides L., Elaegnaceae). Si ces travaux sont encore préliminaires, ils démontrent l’intérêt d’explorer le potentiel antiviral des molécules présentes dans les végétaux.

Peu de molécules efficaces contre les coronavirus

Les coronavirus humains se divisent en deux groupes : les coronavirus « peu virulents », responsables de simples rhumes (tels que HCoV-229E, HCoV-HKU-1, ou HCoV-NL63, par exemple), et les coronavirus « hautement virulents ». On trouve parmi ces derniers non seulement le SARS-CoV-2, responsable de la pandémie de Covid-19, mais aussi le SARS-CoV-1, à l’origine en 2003 d’une épidémie qui avait contaminé plus de 8 000 personnes et entraîné près de 800 décès, ou encore le MERS-CoV, qui circule au Moyen-Orient.

Cinq ans après l’apparition du SARS-CoV-2, et malgré un effort international colossal en matière de recherche de molécules efficaces contre cet agent infectieux, un seul antiviral par voie orale est disponible sur le marché français, le Paxlovid. Celui-ci est basé sur l’association de deux composés : le nirmatrelvir, qui inhibe une enzyme nécessaire à la réplication du coronavirus SARS-CoV-2, et le ritonavir, un second inhibiteur d’enzyme qui permet, dans ce contexte, d’augmenter les concentrations sanguines du nirmatrelvir.

Un autre antiviral, le remdesivir, qui inhibe la polymérase virale (autre enzyme indispensable au virus pour se reproduire), est également disponible, mais par voie intraveineuse et seulement pour certains patients.

Cet arsenal limité souligne à quel point il est compliqué de mettre au point des molécules spécifiques dans des délais courts. La recherche d’antiviraux est un processus de longue haleine.

Les plantes, une réserve de substances actives à préserver

Les plantes représenteraient la seconde plus grande source de biodiversité de notre planète : on estime en effet que le nombre d’espèces végétales est compris entre 300 000 et 500 000. Parmi elles, de 20 000 à 50 000 sont employées en médecine traditionnelle.

Chaque plante a sa propre identité « phytochimique » : elle produit plusieurs centaines de composés dont les structures sont souvent uniques et complexes. Les végétaux constituent donc un réservoir majeur de molécules ayant potentiellement des activités biologiques très différentes les unes des autres.

De nombreux médicaments couramment utilisés à travers le monde s’appuient sur des principes actifs d’origine végétale. Ces derniers peuvent être utilisés après avoir été directement extraits de la plante, comme la morphine, extraite du pavot. Ils peuvent aussi être légèrement modifiés par réaction chimique, comme dans le cas du taxol (un anticancéreux obtenu par hémisynthèse, processus consistant à fabriquer une molécule à partir de composés naturels dont la structure chimique est déjà proche du composé souhaité) à partir d’un précurseur isolé de l’if européen ou des dérivés hémisynthétiques de l’artémisinine, une molécule à activité antipaludique extraite de l’armoise annuelle.

Cependant, à l’heure actuelle, seuls 15 à 20 % des plantes terrestres ont été évaluées pour leur potentiel pharmaceutique. En outre, jusqu’à présent, les molécules d’origine végétale ont été très peu étudiées par les scientifiques recherchant des antiviraux, qu’ils soient dirigés contre les coronavirus ou d’autres familles de virus.

En raison de leur grande diversité et des nombreuses molécules qu’elles produisent, les plantes constituent pourtant une source potentielle d’agents antiviraux très intéressante, pouvant être utilisés tels quels ou légèrement modifiés. Les composés produits par les plantes peuvent aussi inspirer la conception d’antiviraux obtenus par synthèse totale (autrement dit fabriqués entièrement artificiellement). Mais avant d’en arriver là, encore faut-il réussir à identifier les molécules actives, ce qui n’est pas une mince affaire.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Des milliers de molécules à séparer

Identifier une molécule biologiquement active à partir d’organismes vivants n’est pas simple, en raison du très grand nombre de composés qui constituent ces derniers. Cela requiert de passer par un « fractionnement bioguidé » : il s’agit de tester l’activité biologique à chaque étape du processus de séparation des composés (fractionnement). Ce fractionnement peut être accéléré en combinant des approches analytiques et statistiques.

Concrètement, lorsque l’on cherche à identifier un composé actif dans un végétal, la plante concernée est d’abord broyée et mise en contact avec des solvants (eau, éthanol, solvants organiques…). Les filtrats récupérés (appelés « extraits ») sont ensuite séchés. Ils contiennent des centaines, voire des milliers de molécules.

Ces extraits sont ensuite testés sur différents modèles (comme des cultures de bactéries, de champignons, de virus, de cellules tumorales, etc) afin de détecter une activité biologique (on parle de « criblage »).

S’il s’avère qu’un extrait présente un effet, il va subir plusieurs étapes de purification successives, par des techniques dites de chromatographie préparative. Le but est de séparer les nombreux composés différents qu’il contient pour ne garder que celui (ou ceux) responsable(s) de l’activité.

À chaque étape, du début à la fin de ce processus, les nouveaux extraits produits (on parle de « fractions ») à partir de l’extrait précédent sont testés, afin de suivre l’activité biologique. La phase ultime de ce « fractionnement bioguidé » est d’obtenir une molécule active purifiée dont on pourra déterminer la structure par des techniques spectroscopiques.

Le potentiel antiviral des plantes adaptées à des conditions extrêmes

Nos deux équipes s’intéressent depuis plusieurs années aux plantes extrêmophiles, qui, comme leur nom l’indique, vivent dans des conditions extrêmes. Ces espèces végétales doivent, en partie, leur capacité à survivre dans des milieux difficiles à des molécules spécifiques qui leur permettent de s’y adapter. Nous avons étudié en particulier les plantes halophytes, autrement dit poussant sur des sols qui contiennent des teneurs en sel très élevées.

En 2019, nos travaux ont permis d’identifier un agent antiviral d’origine naturelle, actif contre la réplication du virus de l’hépatite C, nommé dehydrojuncusol ; ce composé phénanthrénique a été découvert dans le rhizome de jonc de mer (Juncus maritimus Lam.) suite au criblage d’une quinzaine d’extraits de plantes halophytes et à un fractionnement bioguidé. Le déhydrojuncusol possède un mécanisme d’action similaire à celui de médicaments efficaces utilisés dans le traitement de l’hépatite C en inhibant une protéine du virus nécessaire à sa réplication.

Cette étude in vitro était la preuve que les plantes halophytes pouvaient contenir des antiviraux puissants aux mécanismes d’action similaires à ceux issus de la chimie de synthèse.

Dans la continuité de ces travaux, vingt-deux plantes strictement halophytes ou tolérantes au sel ont ensuite été collectées sur le littoral des Hauts-de-France, en partenariat avec les gestionnaires de ses sites naturels, dans le but cette fois de rechercher une activité contre les coronavirus humains.

L’argousier, une source d’inspiration d’agents antiviraux ?

Les extraits réalisés à partir de ces vingt-deux nouvelles plantes, parmi lesquelles la salicorne, la criste marine, la matricaire maritime, l’argousier, l’euphorbe maritime, l’oyat, ou encore le saule des dunes, ont été testés contre le coronavirus HCoV-229E, responsables de rhumes bénins.

Ceux qui se sont révélés les plus actifs ont ensuite été testés contre le coronavirus SARS-CoV-2, responsable de la Covid-19. Le but de ces recherches était en effet d’identifier des antiviraux capables de traiter plusieurs coronavirus humains.

Le meilleur candidat s’est avéré être un extrait d’argousier. Cette plante indigène, relativement tolérante au sel et à caractère envahissant, pousse dans les massifs dunaires de la région des Hauts-de-France.

Après un fractionnement bioguidé, des composés actifs ont pu être isolés et identifiés. Les plus prometteurs se sont avérés capables d’inhiber (in vitro) non seulement l’infection par le SARS-CoV-2, mais aussi par le HCoV-229E.

Quelle suite à ces travaux ?

Ces travaux ont permis de démontrer, au laboratoire, l’intérêt de molécules d’origine végétale dans la lutte contre les maladies humaines d’origine virale. Ils ne constituent cependant que l’étape préliminaire dans le long parcours semé d’embûches qui mène à la mise au point de nouveaux médicaments.

Après cette première étape de mise en évidence de molécules d’intérêt réussie, il faut ensuite poursuivre les essais, en passant notamment à des essais précliniques, autrement dit, sur des cellules humaines primaires isolées de biopsie de patients ou sur des animaux de laboratoire.

Si les résultats sont concluants, viendront ensuite les premières administrations chez l’humain, en général sur un petit nombre de volontaires sains (essais cliniques de phase I). La phase suivante (phase II) consiste à administrer le médicament à un plus grand nombre de patients afin de tester son efficacité, sa posologie et son devenir dans l’organisme (pharmacodynamique). Les essais de phase III portent sur un nombre encore plus grand de participants. Il faudra également les tester in vitro sur d’autres membres de la famille des coronavirus humains, tels que le MERS-CoV.

Toutes ces étapes nécessitent d’importants financements. Lorsqu’il s’agit d’identifier de nouveaux « candidats médicaments » (« drug candidate » en anglais), la finalisation de la recherche préclinique puis le passage en clinique reste le maillon faible, en raison du manque de moyens.

Il est cependant urgent aujourd’hui de trouver les moyens d’amener ces molécules d’intérêt à un stade plus avancé. En effet, dans l’optique de se préparer à une prochaine épidémie ou pandémie de coronavirus humains, disposer de médicaments actifs contre l’ensemble des coronavirus serait un atout majeur.

Rappelons qu’il faut en moyenne quinze ans pour qu’une molécule présentant un intérêt arrive sur le marché, et que le taux d’échec est très important (plus de la moitié des molécules qui arrivent en phase III échouent…). Il n’y a donc pas de temps à perdre. Actuellement, nos équipes continuent à chercher des composés antiviraux dans d’autres collections de plantes.

Nos travaux soulignent aussi que la découverte de molécules bioactives est très étroitement liée à la biodiversité végétale. La problématique de la dégradation des milieux naturels, qui s’est accentuée ces dernières décennies, doit donc être prise en considération dans le cadre des programmes de recherche qui ciblent le potentiel biologique des molécules d’origine naturelle.


Les autrices tiennent à remercier Malak Al Ibrahim, doctorante sur le projet (2021-2024, programme HaloHcoV PEARL), le Dr Gabriel Lefèvre (pour la sélection, la collecte et l’identification des différentes plantes testées), les gestionnaires de sites qui ont participé aux échanges et partagé leurs connaissances, ainsi que l’ensemble des membres des équipes de recherche.

The Conversation

Céline Rivière est membre de sociétés savantes (Association Francophone pour l'Enseignement et la Recherche en Pharmacognosie, Phytochemical Society of Europe). Elle est aussi experte pour l'ANSES. Elle a reçu des financements de la Région Hauts-de-France, de l'Union Européenne "Horizon 2020 Research and Innovation program" et I-Site ULNE (PEARL programme) et de l'ANR.

Karin Séron a reçu des financements de la Région Hauts-de-France, de l'Union Européenne "Horizon 2020 Research and Innovation program" et I-Site ULNE (PEARL programme) et de l'ANR.

PDF

03.06.2025 à 16:34

Niches socio-fiscales : comment faire le tri ?

Éric Pichet, Professeur et directeur du Mastère Spécialisé Patrimoine et Immobilier, Kedge Business School

Alors que s’ouvre le débat budgétaire, la question des niches fiscales est posée une nouvelle fois. Faut-il les supprimer ? Peut-on le faire ? Comment ?
Texte intégral (2215 mots)

Comment gouverner un pays qui possède 471 dépenses fiscales, pourrait s’exclamer en le paraphrasant le successeur du général de Gaulle ? Alors que pour réduire le déficit et donc la dette de la France, il faudrait voter 40 milliards d’économies, l’ensemble des niches socio-fiscales représenteraient un manque à gagner de 83 milliards d’euros par an.

Mais comment faire le ménage dans des niches réputées bien gardées ? Bonne nouvelle : la tâche peut être accomplie sans peser sur l’économie, à condition de définir au préalable une méthode rationnelle de tri des bonnes et des mauvaises niches.


La dérive du déficit public, encore attendu en 2025 à 5,4 % du PIB à peine plus bas qu’en 2024 (5,8 %) rappelle au pays qu’il est désormais l’homme malade de la zone euro et contraint le gouvernement à chercher 40 milliards d’euros en 2026 pour le ramener à 4,6 % l’an prochain.

Dans ce contexte, Bercy reprend une antienne de ses prédécesseurs : la chasse aux dépenses fiscales. Le gisement est important puisque les 471 niches recensées représenteraient selon le gouvernement un manque à gagner de l’ordre de 83 milliards par an, soit 25 % des recettes budgétaires ou 2,8 % du PIB. En ajoutant les exonérations de cotisations sociales, estimées dans le projet de loi de financement de la Sécurité sociale pour 2025 à 91 milliards, la perte de recettes théorique sur l’ensemble des prélèvements obligatoires serait donc de 174 milliards soit très exactement la totalité du déficit public…

L’univers des dépenses socio-fiscales en 2025

Dans notre thèse consacrée aux dépenses socio-fiscales, nous les qualifions ainsi :

« Toute disposition, législative, réglementaire ou administrative, dont la mise en œuvre entraîne pour les administrations publiques une perte de recettes, qui peut être remplacée par une dépense budgétaire et qui accorde, directement ou indirectement, à une catégorie de contribuables, un allégement de ses prélèvements obligatoires par rapport à ce qui serait résulté de l’application de la norme issue des principes généraux du droit et appliqué au segment spécifique de référence considéré. »


À lire aussi : La tronçonneuse de Buenos Aires et le DOGE de Washington : vague d’austérité sur le continent américain


Concrètement, tout comme leur évaluation qui doit tenir compte de la réaction des contribuables devant la fin d’une carotte fiscale, le périmètre des niches socio-fiscales est particulièrement difficile à tracer. À titre d’exemple doit-on suivre le gouvernement qui a déclassé certains taux réduits de TVA en simples modalités d’imposition et divisé par deux leur coût alors que ces différents taux avantageux pour les consommateurs représentent un manque à gagner pour les finances publiques de plus de 50 milliards par an.

Des méthodes globales inefficaces

Pour réduire le coût de ces avantages fiscaux, les méthodes dites globales ont montré leur inefficacité. Ainsi le plafonnement général en valeur absolue des seules niches fiscales instauré par les lois de programmation des finances publiques de 2012-2017 puis 2014-2019 a toujours été dépassé du fait de l’impossibilité juridique de restreindre le droit d’amendement des parlementaires au cours de l’examen des lois de finances.

Limité au seul impôt sur le revenu, le plafonnement des niches actuellement de 10 000 euros par foyer a été instauré sous la présidence de François Hollande au 1ᵉʳ janvier 2013. Il est lui-même mité de nombreuses exceptions et son rendement s’avère modeste puisque le supplément d’impôt collecté s’élève à environ 50 millions par an. Plus efficace serait la généralisation aux foyers imposables de la contribution différentielle (qui s’ajoute donc à la contribution exceptionnelle de 2011) sur les hauts revenus (sur le modèle de L’Alternative Minimum Tax américaine datant de 1969) et qui contraint depuis cette année les contribuables les plus aisées à payer au moins 20 % d’IR.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Trois types de mesures suggérées ou déjà appliquées dans le passé sont également à proscrire car elles agissent de manière indifférenciée sur des niches utiles. Il s’agit du rabot, de la règle du gage qui implique la suppression d’une mesure pour toute nouvelle création ou de la suppression d’office de niches à coût faible préconisée par la ministre chargée des comptes publics qui n’aurait qu’un impact marginal sur les finances publiques tout en détruisant des mesures utiles pour la sauvegarde d’un écosystème social, économique ou environnemental rare voire unique. Parmi les propositions globales, seule l’instauration d’une sunset clause, courante dans les pays anglo-saxons, qui conditionne le maintien d’une mesure à l’évaluation de son efficacité est pertinente. Encore faudrait-il commencer à chiffrer la cinquantaine de niches toujours non évaluées.

Une analyse individuelle et analytique

Notre théorie générale des dépenses socio-fiscales propose une méthode rationnelle de gestion de ces dispositifs fondée sur une série de cinq filtres successifs interrogeant d’abord leur légitimité (ainsi l’ancienneté d’une niche n’est jamais un critère pertinent de conservation d’une niche et l’effet d’aubaine est toujours un critère d’élimination), leur utilité (économique, sociale, écologique, etc.), leur pertinence (le dispositif bénéficie-t-il aux contribuables ou est-il capté par des intermédiaires ?), leur efficacité (en prenant en compte tous les coûts y compris ceux de gestion du fisc) ainsi que leur substituabilité (est-il possible de remplacer la mesure par une simple subvention moins coûteuse ?).

Pour mettre en œuvre les résultats, il faut encore franchir un sixième et ultime filtre à savoir l’acceptabilité sociale de la disparition de la mesure, une question éminemment politique.

Les niches illégitimes à supprimer

L’intégralité des niches dites brunes qui subventionnent les gaz à effet de serre et autres produits toxiques, dont le coût est au bas mot de 7 milliards d’euros, sont évidemment à supprimer, encore faut-il prévoir des mesures d’accompagnement pour les secteurs qui seraient lourdement touchés comme l’agriculture, la pêche ou les transports. L’abattement de 10 % sur les pensions, plafonné à 4 321 euros par foyer en 2024, est la deuxième niche fiscale la plus coûteuse à près de 5 milliards. Créée en 1977 pour compenser le fait que les pensions étaient parfaitement connues du fisc, ce qui interdisait toute fraude elle n’a désormais plus aucune justification d’autant qu’elle est par nature inéquitable, car régressive puisque ne profitant qu’aux foyers imposables.

Les taux réduits de TVA de 10 % sur les travaux (quatrième niche coûteuse), ou dans les DOM (huitième niche) et l’exonération d’IR des heures supplémentaires ou sur les pourboires (neuvième niche) coûtent chacun environ 2 milliards et ne semblent ni légitimes ni utiles. Il en est de même des nombreux avantages fiscaux liés à l’épargne (intéressement, assurance-vie…), mal évalués mais supérieurs à 6 milliards d’euros.

Dans ce dernier cas, la perte de cotisations sociales en fait en outre des niches sociales coûteuses. Enfin, l’alignement du taux de CSG des retraités les plus favorisés limité à 8,3 % contre 9,2 % pour les smicards est une évidente mesure d’équité sociale. D’ailleurs les multiples exonérations et taux réduits de CSG sur les retraites de base et les allocations chômage sont estimés à 4,3 milliards en 2019.

Des niches à aménager

Si la fiscalité des dons aux associations contribue au dynamisme d’un secteur mêlant bénévoles et salariés et doit être maintenue, il serait juste de transformer la réduction d’impôt au titre des dons aux associations (qui pèse près de 2 milliards d’euros par an) en un véritable crédit d’impôt, permettant ainsi à tous les donateurs, même les plus modestes, de bénéficier d’un avantage fiscal actuellement réservé, de manière inique, aux seuls contribuables dont les revenus dépassent le seuil effectif d’imposition.

Dans le même esprit, la demi-part supplémentaire accordée aux contribuables de plus de 74 ans titulaires de la carte du combattant bénéficiant à plus de 800 000 ménages et coûtant 480 millions d’euros devrait être remplacée, à coût constant, par un versement per capita à tous les anciens combattants.

France 24 – 2025.

Des niches économiquement ou socialement utiles

Trois des plus importantes dépenses socio-fiscales sont économiquement utiles et doivent être conservées après ajustements pour éviter les effets d’aubaine. La première, d’un coût de l’ordre de 80 milliards, est l’allégement massif des cotisations patronales initié en 1993 pour atténuer le poids des cotisations des entreprises, le plus élevé au monde, et qui a permis le maintien de millions d’emplois.

La seconde est le crédit d’impôt en faveur de la recherche, la plus coûteuse des dépenses fiscales (7,8 milliards en 2025), qui contribue puissamment à l’attractivité fiscale du pays en facilitant la création d’un écosystème de recherche appliquée très favorable à l’innovation. La troisième est le crédit d’impôt de 50 % des charges salariales (plafonnées à 12 000 euros par an) pour emploi d’un salarié à domicile pour un coût de 6,8 milliards d’euros par an en 2025 qui n’est probablement pas une véritable dépense fiscale mais plutôt une mesure de simplification traitant les ménages comme n’importe quelle microentreprise dont les charges doivent logiquement s’imputer sur leur revenu. Elle est dans tous les cas légitime au nom de la création d’emploi et de la lutte contre le travail au noir.

Quelle majorité pour voter ?

Les présentes recommandations aboutiraient à une économie budgétaire de 20 à 25 milliards d’euros par an mais se traduiraient par une nouvelle hausse des prélèvements obligatoires déjà les plus élevés de l’OCDE. En toute logique il faudrait les alléger d’un montant équivalent mais la dérive persistante des comptes publics rend cette hypothèse hautement improbable tout comme… leur adoption par l’Assemblée nationale. Dans ces conditions, on voit mal comment le pays pourra éviter les injonctions du FMI.

The Conversation

Éric Pichet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

03.06.2025 à 16:33

Israël est-il toujours une démocratie ?

Anna C. Zielinska, MCF en philosophie morale, philosophie politique et philosophie du droit, membre des Archives Henri-Poincaré, Université de Lorraine

Alors que la guerre à Gaza bat son plein et que l’État hébreu perd ses soutiens internationaux, la « seule démocratie du Moyen-Orient » peut-elle encore être qualifiée ainsi ?
Texte intégral (3152 mots)

Catastrophe humanitaire à Gaza, plus de 50 000 morts palestiniens, accusations de génocide, d’épuration ethnique et de crimes contre l’humanité, violences policières à l’égard des manifestants pro-paix… Tout cela a provoqué dernièrement des menaces de sanctions à l’encontre d’Israël de la part de ses alliés occidentaux, dont la France, le Royaume-Uni et le Canada, et l’évocation d’un réexamen des accords liant l’UE à Tel-Aviv. Le soutien international à l’État hébreu, qui reste souvent qualifié de « seule démocratie du Moyen-Orient », vacille. Alors que Juifs et Palestiniens paient le prix de l’impasse politique, la question s’impose : peut-on toujours parler de démocratie à propos d’Israël ?


Quelles sont les conditions qui déterminent si un pays est, ou non, démocratique ? La réponse semble consensuelle : l’équilibre des pouvoirs ; la tenue d’élections périodiques et concurrentielles ; le pluralisme politique ; la reconnaissance de garanties du respect des droits fondamentaux des citoyens. L’égalité formelle est un prérequis (le vote), mais elle devrait s’accompagner de la protection des minorités pour éviter le règne de la majorité, l’aspiration à l’égalité matérielle et enfin les efforts coordonnés allant dans le sens de l’égalité épistémologique, assurant l’accès à l’information de qualité à tous.

La Déclaration d’indépendance de 1948, document fondateur d’Israël, vise un idéal démocratique. Elle établit « l’État juif dans le pays d’Israël » qui « assurera une complète égalité de droits sociaux et politiques à tous ses citoyens, sans distinction de croyance, de race ou de sexe ; il garantira la pleine liberté de conscience, de culte, d’éducation et de culture ». Tous ces éléments sont en partie suffisants pour affirmer qu’Israël est une démocratie.

Toutefois, compte tenu de la résurgence sur la scène politique israélienne des idées qui prônent l’établissement d’un État religieux, la Knesset (le Parlement israélien) a décidé en 1985 d’ajouter quelques articles plus explicites à la série de « Lois fondamentales » qui font office de Constitution.

Par exemple, un des amendements affirme que les candidats ne peuvent pas participer aux élections à la Knesset si le programme qu’ils défendent contient « la négation de l’existence de l’État d’Israël en tant qu’État juif et démocratique, l’incitation au racisme ou le soutien à la lutte armée d’un État hostile ou d’une organisation terroriste contre l’État d’Israël ».

Or depuis l’instauration de l’actuel gouvernement en décembre 2022, au moins un, voire deux ministres – Itamar Ben-Gvir et Bezalel Smotrich – défendent des opinions ouvertement contraires à l’idée d’Israël en tant qu’État démocratique. Ils tiennent des propos très clairement racistes à l’égard des Palestiniens et s’opposent à l’égalité des droits sociaux et politiques entre les citoyens.

« Israël : quelle démocratie ? – Une Leçon de géopolitique du Dessous des cartes | Arte » (2022).

Gaza, la catastrophe humanitaire

La démocratie moderne est fondée sur l’idée que les hiérarchies entre les individus introduites par des siècles de représentations conjoncturelles concernant la place des humains dans leur communauté sont injustifiées. Elle se comprend d’abord en pensant aux citoyens d’un pays, mais l’idée de l’universalité des droits humains s’est imposée après la Seconde Guerre mondiale, notamment en 1948 avec la Déclaration universelle des droits de l’homme. Ce souci démocratique et juridique pour les individus transparaît aussi dans les Conventions de Genève, documents qui fondent le droit humanitaire international. Or les actions militaires menées à Gaza contreviennent clairement à ces principes.

L’armée israélienne ignore la notion de « personnes protégées », qui désigne les civils, lesquels ne devraient pas être privés des moyens de subsistance nécessaires, y compris de l’accès à la nourriture. Le droit international humanitaire interdit expressément d’utiliser la famine comme une arme de guerre.

« Gaza, la famine et l’"éducide" », France 24 (28 mai 2025)

Or Israël, dans sa guerre contre le Hamas, suspend régulièrement l’approvisionnement alimentaire dans la bande de Gaza, ce qui engendre un risque critique de famine. Le ministre de la défense Israel Katz a affirmé le 16 avril 2025 que l’aide humanitaire ne pourra pas entrer dans la bande de Gaza « jusqu’à ce qu’un mécanisme civil soit mis en place pour contourner le contrôle des approvisionnements par le Hamas ». Depuis, plusieurs organisations sur place dénoncent une situation humanitaire catastrophique. Le journal israélien Haaretz arbore un titre sans ambiguïté : « Les gens mangent de l’herbe ».


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Les déplacements forcés annoncés depuis quelques mois sont, eux aussi, contraires au droit humanitaire.

Les pressions internationales et la dénonciation de ces contradictions semblent toutefois porter leurs fruits, au moins partiellement. Le 19 mai, le cabinet de sécurité a décidé de laisser entrer l’aide humanitaire à Gaza, malgré les protestations d’Itamar Ben Gvir, ministre de la sécurité nationale. Mais le général responsable des « actions sur les territoires » Ghassan Alian a prévenu que la nourriture cessera bientôt d’être disponible à Gaza, ce qui témoigne mieux de la réalité du terrain que les déclarations optimistes du gouvernement israélien.

Le consensus semble être le suivant : le retour des opérations militaires (Chariots de Gédéon, opération qui vise à détruire les infrastructures administratives du Hamas et se présente comme préparant à un accord imminent) serait moralement justifié s’il est accompagné de l’aide humanitaire. Il n’en demeure pas moins que, en tout état de cause, plus de 50 000 Palestiniens auraient déjà perdu la vie, et l’ensemble de la population de Gaza restera traumatisée pour des décennies à venir par ses blessures physiques et psychiques. Les amputations sont plus nombreuses chez les enfants de Gaza que nulle part ailleurs dans le monde, selon The Guardian.

Côté israélien, les familles des otages constatent une fois de plus que la vie des dizaines de leurs proches maintenus à Gaza n’est qu’une des variables de l’opération israélienne – et font ce qu’elles peuvent pour s’opposer à cette approche du gouvernement Nétanyahou.

Violences policières contre les manifestants pro-paix

La société civile en Israël continue à se mobiliser, et le traitement de ces mobilisations est l’un des indices de la santé de la vie démocratique. C’est contre cette reprise des combats que protestaient, le 18 mai 2025, des centaines d’activistes et de membres des familles des otages détenus à Gaza depuis 602 jours au moment de l’écriture de ce texte. La manifestation avait lieu le lendemain du lancement de l’opération militaire « Chariots de Gédéon ».

Le 16 mai 2025, Alon-Lee Green, le co-leader (avec Rula Daood) national du mouvement Standing Together, déclarait dans son appel à manifester qu’il était « interdit de fermer les yeux, interdit de rester indifférent » face aux actions du gouvernement qui visent les citoyens et les enfants de Gaza, ainsi que les otages. Les manifestations à la frontière de Gaza – « pour arrêter les massacres, la famine et pour faire revenir les otages » – continuent. Une deuxième a eu lieu le 23 mai, et une troisième est prévue pour les 4-6 juin. Et cela malgré les violences policières et les arrestations, dont celle d’Alon-Lee Green, des participants aux manifestations.

Manifestation à la frontière de Gaza, mai 2025. Anna Zielinska, Fourni par l'auteur

Le combat de Standing Together se caractérise précisément par la volonté suivante : montrer à la société israélienne que ce ne sont pas les lignes de division religieuses ou ethniques qui devraient être déterminantes pour elle. Selon le mouvement, les plus grandes difficultés des habitants de la région sont des conséquences des politiques d’exclusion néolibérales associées à une conception militarisée de l’État du gouvernement actuel, et d’une certaine droite de façon plus générale. Standing Together soutient aussi les manifestants anti-Hamas à Gaza, qui savent qu’ils risquent leur vie et qui pourtant, depuis des mois, s’opposent au régime meurtrier et totalitaire du Hamas.

Populisme de droite

Dans le récit populiste déployé par le gouvernement Nétanyahou repose sur des fantasmes nationalistes imaginés à partir d’une certaine vision de l’histoire analysée par le politiste Dani Filc, où une opposition est créée entre, d’un côté, les « vrais » Juifs et, de l’autre, les traîtres. Ce populisme est politiquement soutenu par l’extrême droite, particulièrement présente parmi les colons installés en Cisjordanie.

La façon de faire de la politique de ces colons n’a rien de démocratique ; elle s’apparente plutôt à un « fascisme clérical », caractérisé par l’union des objectifs religieux et nationaux. Ce fascisme n’a rien d’égalitaire, et s’accommode très bien de rapports de domination socio-économiques de plus en plus tendus. Le fascisme se nourrit du sentiment d’injustice, mais prétend ensuite donner sa propre justification insensée des nouvelles injustices qu’il crée ou qu’il fortifie.

Dans une conversation plus récente toutefois, Dani Filc nuance son récit : le Likoud, après le 7 octobre 2023, quitte progressivement ce terrain populiste pour épouser la rhétorique fasciste. Noa Shpigel l’a noté dans un texte publié par Haaretz, où elle cite Liran Harsgor, de l’École de sciences politiques de l’Université de Haïfa. Pour Harsgor, « les frontières idéologiques et rhétoriques entre le Likoud et Otzma Yehudit (mouvement d’extrême droite d’Itamar Ben Gvir) se sont considérablement estompées ces dernières années ». Toutefois, ce phénomène n’est pas propre à Israël : face à la montée en puissance de mouvements d’extrême droite, les partis de droite classiques adoptent également des positions plus extrêmes.

« Le gouvernement d’extrême droite en Israël, une épreuve pour la démocratie », France 24 (2022)

La direction exclusionnaire est soutenue en même temps par le populisme de droite de Nétanyahou et par les positions anti-démocratiques et pro-militaires de mouvements fascisants tels que Otzma Yehudit. Elle a été symboliquement annoncée en 2018, avec une nouvelle loi à valeur fondamentale, la « Loi Israël, État-nation du peuple juif ». Contrairement à la Déclaration de l’indépendance de 1948, le texte de 2018 ne fait aucune référence à l’égalité, et déclasse la langue arabe, qui jusqu’alors était l’une des deux langues officielles de l’État.

Juifs et Palestiniens ont besoin de la paix

L’Europe doit aider les mouvements, les personnes, les partis et les institutions en Israël et en Palestine qui sont conformes aux valeurs de l’Union européenne, conformes aux exigences de la démocratie au sens fort, qui inclut le respect du pluralisme et des droits humains, et non seulement au sens du règne de la majorité. La tragédie de Gaza doit conduire à l’autodétermination des peuples sur place, donc le plus probablement à deux États. Comme il existe de nombreux pays qui ne possèdent pas d’armées, une telle restriction peut également concerner la Palestine, ce qui fait disparaître l’un des arguments clés contre l’établissement de ce pays. Le Canada, le Royaume-Uni et la France ont déjà fait un pas important dans ce sens, avec une déclaration commune :

« Nous sommes déterminés à reconnaître un État palestinien dans le cadre de la recherche d’une solution à deux États et sommes prêts à collaborer avec d’autres parties à cette fin. »

La démocratie israélienne se défend, comme en témoignaient quasiment tout au long de l’année 2023 des manifestations contre la réforme visant à limiter le pouvoir, et donc l’indépendance, du judiciaire.

Depuis le 7 Octobre, le sentiment d’une menace existentielle a certes modifié la hiérarchie des luttes, et la première semble être celle pour la libération des otages. Mais ce qui est rejeté aujourd’hui, à savoir la politique autoritaire et de conquête, est mené par ce même gouvernement qui a essayé d’introduire des réformes judiciaires qualifiées d’antidémocratiques.

Ce qui manque dans ces revendications est sans doute l’exigence de la fin de l’occupation de la Cisjordanie. S’ajoute au malaise des observateurs un sondage récent montrant qu’en mai 2025, « 82 % des personnes interrogées étaient favorables à l’expulsion des habitants de Gaza, tandis que 56 % étaient favorables à l’expulsion des citoyens palestiniens d’Israël ». L’augmentation de positions aussi hostiles est en grande partie circonstancielle, due à la propagande jouant avec le mythe biblique d’Amalek, l’ennemi ultime à faire disparaître. Le besoin d’une autre façon de penser la politique est urgent.

Aujourd’hui, la ligne de division la plus importante telle qu’elle est perçue par les sondages n’est pas entre les Juifs et les citoyens palestiniens d’Israël, mais entre la gauche et la droite. Toutefois, même si les questions ethniques sont importantes dans les considérations derrière cette polarisation, on peut espérer qu’elle signifie plutôt le retour à la politique dans les débats publics, plutôt qu’à des considérations purement identitaires.

The Conversation

Anna C. Zielinska fait partie des "Friends of Standing Together", mouvement cité dans l'article.

PDF

03.06.2025 à 16:33

Le droit est-il impuissant au sujet de l’égalité de rémunération femmes-hommes ?

Stéphane Lamaire, Professeur associé au CNAM en droit du travail, Conservatoire national des arts et métiers (CNAM)

Loi après loi, l’égalité salariale entre hommes et femmes est inscrite dans les textes, moins dans la réalité. Pourquoi ? La solution viendra-t-elle de l’Europe ?
Texte intégral (2486 mots)

Depuis un demi-siècle, les textes se succèdent pour aboutir à la parité de rémunération entre les hommes et les femmes. Des écarts non explicables subsistent. Comment expliquer le maintien de cette différence de traitement ? La mise en place de la transparence des salaires aboutira-t-elle enfin à l’égalité ? Ou les entreprises, dans leur ensemble, trouveront-elles des moyens de perpétuer un traitement injuste ?


Déclarée « grande cause nationale » du quinquennat par le président de la République (discours du président de la République du 25 novembre 2017), l’égalité professionnelle entre les femmes et les hommes s’escrime à sa réalisation. En effet, la loi n°72-1143 du 22 décembre 1972 a consacré « l’égalite de rémunération entre les hommes et les femmes ». Or, depuis plus d’un demi-siècle, une douzaine de lois a redoublé d’efforts sans parvenir à la réalisation de cet objectif d’intérêt public dont la réalisation dépend désormais de la négociation collective d’entreprise (ou de branche professionnelle).

À ce titre, la loi n° 2018-771 du 5 septembre 2018 a soumis les entreprises à une obligation de négocier sur ce sujet assorti d’une nécessité de résultat sous menace de sanction pécuniaire en cas d’échec. Elle a notamment créé l’index de l’égalité salariale femmes-hommes par entreprise dont les conclusions sont désormais publiques et par conséquent connues de tous. Toutefois, si les résultats de cette démarche gouvernementale sont plutôt positifs, ils ne correspondent pas avec la réalité d’une inégalité persistante dans le domaine.

En effet, l’Insee (Insee Focus-no 349 du 4 mars 2025) précise qu’en 2023, le salaire moyen des femmes dans le secteur privé (21 340 € net par an) est de 22,2 % inférieur à celui des hommes (27 430 €). Une partie de cet écart s’explique par des justifications structurelles et statistiques (ex : temps partiel féminin), mais le ministère du travail reconnaît qu’il demeure environ 9 % d’écarts de salaire injustifiés. Par conséquent, commençons par examiner la manière collective par laquelle le droit du travail tente de s’approcher d’un objectif d’égalité réelle, puis passons au crible la façon par laquelle une salariée victime d’une inégalité salariale peut éventuellement tenter individuellement de corriger cette situation avant de découvrir les espoirs que soulève la prochaine transposition en droit français d’une directive européenne consacrée à la transparence salariale.

Un accord nécessaire

Au sein des entreprises, les organisations syndicales et les employeurs doivent conclure un accord collectif en matière d’égalité professionnelle disposant de diverses actions qualitatives permettant d’atteindre des objectifs annuels de progression fondés sur des critères clairs, précis et opérationnels (embauche, formation, promotion professionnelle, qualification, classification, conditions de travail, santé et sécurité au travail, rémunération effective et articulation entre l’activité professionnelle et la vie personnelle et familiale). Cette opération contrôlée par l’administration déconcentrée du travail fait l’objet d’une obligation de résultat « renforcée » car en cas de défaillance les entreprises employant au moins cinquante salariés encourent une pénalité (articles L. 2242-5 et R. 2242-7 code du travail) pour inexécution de leurs obligations liées à l’égalité professionnelle (articles L. 2242-8 et R. 2242-2 du code du travail).

Au surplus, soulignons qu’à compter du 1er mars 2026, les entreprises d’au moins 1 000 salariés devront atteindre une proportion minimale de 30 % (40 % au 1er mars 2029) de personnes de chaque sexe parmi les cadres dirigeants et les cadres membres des instances dirigeantes (loi n° 2021-1774 du 24 décembre 2021 visant à accélérer l’égalité économique et professionnelle). Mais le droit va plus loin et pousse les entreprises (employant au moins cinquante salariés) dans leurs retranchements en matière d’égalité de rémunération. En effet, avant le 1er mars de chaque année, elles sont assujetties au calcul de l’index d’« écarts de rémunération » (signalons que la démarche a été étendue au sein des admirations publiques par la loi n° 2023-623 du 19 juillet 2023).

Indispensable indice

Par conséquent, en fonction de la taille de leur effectif, elles calculent et publient un certain nombre d’indicateurs ainsi que les actions mises en œuvre pour supprimer les écarts de salaires en question (Articles D. 1142-2-1 et D. 1142-3 du code du travail). Ainsi, elles doivent mesurer par tranche d’âge et par catégorie de « postes équivalents », les écarts de rémunération, de taux d’augmentations individuelles, et de promotions entre les femmes et les hommes. Elles doivent également recenser le nombre de salariés par genre parmi les dix salariés ayant perçu les plus hautes rémunérations ainsi que le pourcentage de salariées ayant bénéficié d’une augmentation dans l’année suivant leur retour de congé de maternité. Si la note globale est inférieure à un seuil réglementaire requis (désormais de 85 sur 100), des mesures correctrices doivent être adoptées par la négociation collective dans un délai de trois ans.

En définitive, l’employeur peut être soumis à une pénalité pour l’absence d’accord (ou de plan d’action) ou pour la non-conformité de celui-ci aux principes généraux de l’égalité professionnelle. Il peut également se voir appliquer une sanction financière pour la non-publication de sa note en matière d’égalité de rémunération ou pour ne pas voir remédier aux mauvais scores résultant de son action à ce sujet. Malgré l’ensemble des efforts déployés, le bilan de cette démarche est controversé car cette politique publique s’appuie sur un diagnostic principalement établi par l’employeur pouvant faire l’objet de nombreux biais statistiques.

En progression

Selon le bilan effectué par le ministère du travail, au 1er mars 2025, 80 % des entreprises concernées ont publié leur note, confirmant une augmentation continue depuis plusieurs années (54 % en 2020, à la même date). Néanmoins, en fin d’année 2024, plus de 10 % des entreprises assujetties ne l’avaient pas publié pour l’exercice précèdent. En outre, la note moyenne déclarée progresse encore à un haut niveau avec 88,5/100 en 2025 (contre 88/100 en 2024) mais seules 2 % des entreprises ont une note de 100/100 (soit 560 entreprises). Enfin, notons que 6 % des entreprises ont obtenu une note inférieure au seuil requis. Or, depuis 2019, 2 000 mises en demeure et 209 pénalités financières seulement ont été notifiées par les services de l’État aux entreprises défaillantes.

Quand bien même le nombre de sanctions n’est pas un indicateur d’efficacité, ces derniers chiffres ne s’avèrent pas être en rapport avec le nombre d’entreprises ne respectant pas leurs obligations en la matière. Malgré tout, réjouissons-nous de la réduction notable de l’écart de revenu salarial entre femmes et hommes entre 1995 et 2023 (passant de 34 % à 22,2 %) et notons que cette tendance s’est accélérée par une baisse plus rapide des inégalités salariales depuis 2019.


Abonnez-vous dès aujourd’hui !

Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).


En tête de l’UE

Si cette trajectoire positive place la France dans le peloton de tête de l’Union européenne, nous savons qu’elle ne gomme que trop lentement certaines inégalités structurelles. En définitive, si cette politique a le mérite d’éclairer un objectif d’intérêt général, il flotte autour d’elle un parfum de suspicion au sujet de l’authenticité des résultats obtenus. Plus exactement, il peut effectivement demeurer un décalage entre la présentation de ces bons éléments statistiques et les injustices ressenties par de nombreuses salariées.


À lire aussi : Rémunérations hommes/femmes : « Show me the money ! », les défis de la directive européenne sur la transparence


Effectivement, malgré une note globalement positive de son entreprise, une salariée peut avoir une suspicion au sujet de sa propre situation salariale et considérer à tort ou à raison qu’elle est moins bien rémunérée que ses collègues masculins. Elle peut donc être contrainte d’engager une action judiciaire individuelle en matière d’égalité de rémunération dont la principale difficulté résidera dans l’établissement de la preuve.

La voie privilégiée des prud’hommes

À ce sujet, elle privilégiera la procédure devant le conseil des prud’hommes, car elle y bénéficiera d’un notable aménagement de la charge de la preuve. En effet, elle n’aura pas à prouver l’existence d’une discrimination, mais devra au moins « présenter des éléments de fait laissant supposer l’existence d’une discrimination directe ou indirecte ». Au vu de ces éléments, il incombera à l’employeur de démontrer que « sa décision est justifiée par des éléments objectifs étrangers à toute discrimination ». À charge pour le juge, en dernier lieu, de prendre en considération ces éléments d’appréciation pour former sa conviction après avoir éventuellement ordonné « toutes mesures d’instruction qu’il estime utiles ».

Lumni 2018.

Quand cela sera possible, la salariée devra effectuer une comparaison de sa situation avec celle de ses collègues dans une situation « comparable ». Selon cette perspective, sont considérés comme ayant une « valeur égale », les travaux qui exigent des salariés un ensemble comparable de connaissances professionnelles consacrées par un titre, un diplôme ou une pratique professionnelle, ainsi que des capacités découlant de l’expérience acquise, de responsabilités, de charge physique ou nerveuse. En définitive, l’action judiciaire individuelle peut apparaître plus prosaïque et efficace que l’action collective embourbée dans ses divers biais statistiques. Toutefois si la voie judiciaire est efficace sa pente est tout de même rude.

Au centre de ce bilan mitigé surgit la directive (UE) 2023/970 du 10 mai 2023 visant à renforcer l’application du principe de l’égalité des rémunérations entre les femmes et les hommes qui devrait être transposée en droit français avant la fin de l’année 2025. Sous réserve des détails de sa transposition, elle apparaît comme ambitieuse à de nombreux égards. Elle commence par préciser la notion de « rémunération » afin de supprimer plusieurs biais comparatifs, puis impose au reste de l’Union européenne une politique publique proche de celle déjà en vigueur en France.

La transparence pour mieux négocier

Nous verrons donc si elle incitera le législateur français à durcir cette dernière ou quelque peu la modifier. Au-delà de cette série de futures modifications techniques, elle impose deux bouleversements majeurs. Premièrement, elle permet aux candidats à une offre d’emploi de recevoir des informations sur la rémunération initiale du poste convoité ou la « fourchette de rémunération initiale sur la base de critères objectifs non sexistes ». Assurément, la bonne communication de ces informations devrait permettre à la salariée de négocier de manière éclairée et transparente sa rémunération. Secondement, au cours de l’exécution de son contrat, elle pourra demander à recevoir par écrit des informations sur son niveau de rémunération individuel comparé à la moyenne des salaires ventilée par sexe pour les catégories de travailleurs accomplissant le même travail. L’ambition de cette transparence est de permettre de se comparer à une moyenne afin de savoir ce qu’il en retourne réellement de sa situation. Cela permettra d’apprécier la réalité d’une égalité de rémunération et le cas échéant de déterminer la preuve d’une éventuelle discrimination.

En définitive, les difficultés rencontrées par les politiques publiques dans le domaine qui nous intéresse soulèvent la question de l’efficacité d’un droit peinant à rendre effective une égalité proclamée. Dès lors, la transparence des salaires aura-t-elle la vertu d’atteindre cette égalité réelle, ou se heurtera-t-elle à de hautes cloisons culturelles entravant sa réalisation ? La réponse à cette dernière question dépendra en grande partie des détails de la transposition en droit français des principes issus de la directive du 10 mai 2023.

The Conversation

Stéphane Lamaire ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

03.06.2025 à 16:27

BD : L’Héritage du dodo (épisode 6)

Mathieu Ughetti, Illustrateur, vulgarisateur scientifique, Université Paris-Saclay

Franck Courchamp, Directeur de recherche CNRS, Université Paris-Saclay

La crise climatique n’avance pas seule : elle est indissociable de la crise de la biodiversité. Découvrez en exclusivité les 10 épisodes de la BD concoctée par Mathieu Ughetti et Franck Courchamp.
Texte intégral (703 mots)

La crise climatique n’avance pas seule : elle est indissociable de la crise de la biodiversité. Découvrez en exclusivité, chaque mercredi, les 10 épisodes de la BD concoctée par Mathieu Ughetti et Franck Courchamp. Dans l’épisode 6, on s’intéresse aux limites planétaires.


L’Héritage du dodo, c’est une bande dessinée pour tout comprendre à la crise du climat et de la biodiversité. Chaque semaine, on explore la santé des écosystèmes, on parle du réchauffement climatique mais aussi de déforestation, de pollution, de surexploitation… On y découvre à quel point nous autres humains sommes dépendants de la biodiversité, et pourquoi il est important de la préserver. On s’émerveille devant la résilience de la nature et les bonnes nouvelles que nous offrent les baleines, les bisons, les loutres…

On décortique les raisons profondes qui empêchent les sociétés humaines d’agir en faveur de l’environnement. On décrypte les stratégies de désinformation et de manipulation mises au point par les industriels et les climatosceptiques. Le tout avec humour et légèreté, mais sans culpabilisation, ni naïveté. En n’oubliant pas de citer les motifs d’espoir et les succès de l’écologie, car il y en a !

Retrouvez ici le sixième épisode de la série !

Ou rattrapez les épisodes précédents :

Épisode 1
Épisode 2
Épisode 3
Épisode 4
Épisode 5


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !



Rendez-vous la semaine prochaine pour l’épisode 6 !
Pour ne pas le rater, laissez-nous votre adresse mail


Ou abonnez-vous à L’Héritage du dodo sur :


Une BD de Franck Courchamp & Mathieu Ughetti
Qui sommes-nous ?

Republication des planches sur support papier interdite sans l’accord des auteurs


Créé en 2007 pour accélérer et partager les connaissances scientifiques sur les grands enjeux sociétaux, le Fonds Axa pour la Recherche a soutenu près de 700 projets dans le monde entier, menés par des chercheurs originaires de 38 pays. Pour en savoir plus, consultez le site Axa Research Fund ou suivez-nous sur X @AXAResearchFund.

The Conversation

Cette BD a pu voir le jour grâce au soutien de l’Université Paris Saclay, La Diagonale Paris-Saclay et la Fondation Ginkgo.

Mathieu Ughetti ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

03.06.2025 à 15:59

Etna : qu’est-ce qu’une « éruption strombolienne » ? Explications d’une volcanologue

Teresa Ubide, ARC Future Fellow and Associate Professor in Igneous Petrology/Volcanology, The University of Queensland

L’Etna, le plus grand volcan en activité d’Europe, situé en Sicile, est entré en éruption le lundi 2 juin, sans danger pour la population. Éclairages par une volcanologue.
Texte intégral (1634 mots)
En Sicile, une colonne de cendres s’élève de l’Etna, le plus grand volcan actif d’Europe. Fabrizio Villa/Getty Images

L’Etna, le plus grand volcan en activité d’Europe, situé en Sicile (Italie) et culminant à 3 324 mètres, est entré en éruption le lundi 2 juin 2025, heureusement sans danger pour la population selon les sources locales.

Lundi 2 juin matin (heure locale), le mont Etna, en Italie, s’est mis à cracher une énorme colonne de cendres, de gaz chauds et de fragments rocheux.

Un formidable panache de fumée exhalé par le plus grand volcan actif d’Europe, l’Etna en Sicile, s’est élevé sur plusieurs kilomètres dans le ciel.

Si l’explosion a produit un spectacle impressionnant, l’éruption n’a, à ce qu’il semble, fait ni victimes ni dégâts, et c’est tout juste si les vols en provenance ou en partance de l’île ont été perturbés. On a coutume de nommer les éruptions de l’Etna « éruptions stromboliennes » ; cependant, comme on le verra, ce terme ne s’applique pas forcément à ce récent événement.

Que s’est-il passé au mont Etna ?

L’éruption a commencé par une augmentation de la pression des gaz chauds contenus dans le volcan. Ce réchauffement a entraîné l’effondrement partiel d’un des cratères qui se trouvent au sommet de l’Etna.

Cet effondrement a déclenché ce qu’on appelle un « flux pyroclastique » : un panache de cendres, de gaz volcaniques et de fragments de roches qui jaillit des entrailles du volcan et se déplace à toute vitesse.

Deux images d’une caméra thermique montrant une montagne
Les images d’une caméra thermique montrent l’éruption et les écoulements de lave sur les flancs de l’Etna. National Institute of Geophysics and Volcanology, CC BY

Ensuite, la lave s’est mise à couler sur les flancs de la montagne, dans trois directions différentes. Ces écoulements sont désormais en train de refroidir. Lundi soir, l’Institut national de géophysique et de volcanologie italien a annoncé que l’activité volcanique avait pris fin.

L’Etna est l’un des volcans les plus actifs du monde, donc cette éruption n’a rien d’exceptionnel.

Échelle d’éruptions volcaniques

Les volcanologues classent les éruptions en fonction de leur puissance explosive. Plus elles sont explosives, plus elles sont dangereuses, car elles évoluent plus vite et couvrent une zone plus importante.

Les plus bénignes sont celles qui se produisent à Hawaï (États-Unis), dans l’océan Pacifique. Vous en avez probablement vu les images : la lave coule mollement, comme léthargique, sur les pentes du volcan. Certes, elle abîme ce qui se trouve sur son chemin, mais le rayonnement en est relativement restreint.

Quand les éruptions se font plus explosives, en revanche, elles essaiment de la cendre et des fragments de roche à de plus grandes distances.

Tout en haut de l’échelle, on a les éruptions pliniennes, les plus explosives de toutes. On peut compter parmi elles la célèbre éruption du Vésuve, en l’an 79 de notre ère, qui fut décrite par Pline le Jeune. C’est elle qui a enseveli les villes romaines de Pompéi et d’Herculanum sous des mètres de cendres.

Lors d’une éruption plinienne, les gaz chauds, la cendre et les rochers peuvent être expulsés avec une telle violence et à une telle hauteur qu’ils atteignent la stratosphère – et lorsque le panache d’éruption retombe, les débris s’abattent sur la terre et peuvent causer des dégâts monstrueux sur une zone assez étendue.

Qu’est-ce qu’une éruption strombolienne ?

Qu’en est-il des éruptions stromboliennes ? Ces éruptions relativement modérées empruntent leur nom au Stromboli, un autre volcan italien qui connaît une éruption mineure toutes les dix à vingt minutes.

Dans une éruption strombolienne, les éclats de roches et les braises peuvent parcourir des dizaines ou des centaines de mètres dans les airs, mais rarement davantage.

Le flux pyroclastique de l’éruption d’hier, sur l’Etna, s’est avéré doté d’une puissance explosive supérieure à cette moyenne – il ne s’agissait donc pas, au sens strict, d’une éruption strombolienne.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Les éruptions volcaniques sont-elles prévisibles ?

Les éruptions volcaniques sont un peu comme le temps qu’il fait. Elles sont très difficiles à prédire avec précision, mais nous avons beaucoup progressé dans ce domaine. Pour comprendre le comportement futur d’un volcan, nous devons d’abord savoir ce qui se passe à l’intérieur à un moment X. On ne peut pas regarder dans le volcan directement, mais on dispose de mesures indirectes fiables.

Par exemple, que se passe-t-il avant que le magma d’éruption jaillisse des entrailles de la Terre ? En route vers la surface, le magma pousse des rochers et peut provoquer des tremblements de terre. En enregistrant les vibrations concomitantes, il nous est possible de suivre le trajet du magma jusqu’à la surface.

Le magma prêt à jaillir peut aussi provoquer un léger gonflement du terrain dans la région volcanique. Une affaire de quelques millimètres ou centimètres. L’observation attentive de ce phénomène, par exemple grâce à des satellites, nous permet de rassembler de précieuses informations sur une éruption à venir.

Certains volcans libèrent des gaz même en l’absence d’éruption stricto sensu. Il nous est possible d’analyser la composition chimique de ces gaz – si celle-ci se modifie, cela peut nous indiquer que le magma est de nouveau en route vers la surface.

Une fois qu’on a rassemblé toutes ces informations sur le fonctionnement interne d’un volcan, il est également indispensable de comprendre sa personnalité, pour savoir les analyser et comprendre ce qu’elles nous disent des éruptions à venir.

Les éruptions volcaniques sont-elles plus courantes que dans le passé ?

En tant que volcanologue, j’entends souvent dire qu’on a l’impression que les éruptions sont plus nombreuses de nos jours qu’autrefois. Ce n’est pas le cas.

Ce qui se produit, je l’explique à ceux qui m’interrogent sur le sujet, c’est que nous disposons désormais de meilleurs systèmes de mesure et d’un système médiatique mondialisé très actif. Donc on apprend systématiquement l’existence des éruptions – on en voit même des photos.

La surveillance est extrêmement importante. Nous avons la chance que de nombreux volcans – dans des pays comme l’Italie, les États-Unis, l’Indonésie et la Nouvelle-Zélande – soient équipés d’excellents systèmes de surveillance.

Cette surveillance permet aux autorités locales de prévenir la population en cas d’éruption imminente. Pour le visiteur ou le touriste venu admirer ces merveilles naturelles que sont les volcans, écouter ces avertissements est crucial.

The Conversation

Teresa Ubide ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

03.06.2025 à 15:59

La descente aux enfers d’Ubisoft : crise interne ou déclin du jeu vidéo ?

Valentin Gachet, Doctorant en sciences de gestion, spécialisé en finance, Université Grenoble Alpes (UGA)

Ubisoft, le géant français du jeu vidéo, traverse une période de crise. Grèves, procès pour harcèlement et mauvais résultats économiques l’obligent à se réinventer s’il veut continuer à peser dans ce secteur.
Texte intégral (2464 mots)
Comme _Assassin’s Creed_, certaines franchises d’Ubisoft semblent peiner à se renouveler. Alex Van Aken/Shutterstock

Alors que le confinement laissait entrevoir un avenir radieux pour Ubisoft, les dernières années ne semblent lui apporter que de mauvaises nouvelles. Entre franchises qui s’essoufflent, performances financières en berne et troubles internes allant jusqu’à un procès pour harcèlement sexuel et moral de trois anciens cadres, le géant français du jeu vidéo traverse une période délicate.


Depuis 2018, Ubisoft a plongé en bourse. Alors que son cours s’élevait jusqu’à 107 €, aujourd’hui le titre s’échange aux alentours de 10 €, soit une baisse de 86 % en cinq ans ! Et les résultats de l’exercice 2024-2025, communiqués le 14 mai dernier, n’ont pas rassuré les investisseurs avec des chiffres et prévisions en dessous de ce qu’avaient anticipé les analystes.

Dans une logique de réduction des coûts, Ubisoft s’est déjà séparé de 3 000 employés depuis 2022.

L’entreprise, qui bénéficie de plusieurs dizaines de millions d’aides publiques, a également annoncé en mars dernier la création d’une filiale qui va regrouper trois licences phares mais qui va surtout être détenue à 25 % par le géant chinois Tencent. De quoi alimenter l’hypothèse d’un rachat futur et d’un passage sous pavillon étranger. Le 9 octobre, un député a ainsi envoyé une lettre au premier ministre pour l’alerter sur « l’enjeu de souveraineté culturelle et industrielle forte » que représente la filière du jeu vidéo, sans citer expressément l’entreprise française.

Pourtant, Ubisoft, c’est aussi une histoire à succès. D’une petite entreprise de distribution de jeux vidéo fondée en 1986 en Bretagne, le groupe s’est depuis imposé comme l’un des plus grands éditeurs du globe. Connu pour ses licences phares Assassin’s Creed, Far Cry, Rainbow Six ou encore Just Dance, Ubisoft compte environ 17 000 employés et plus de 40 studios à travers le monde.

Sommes-nous donc en train d’assister à la chute du plus grand éditeur français ou est-ce le secteur du jeu vidéo qui se trouve en difficulté ?

Le management d’Ubisoft au cœur des polémiques

En 2020, à la suite de témoignages sur les réseaux sociaux relatant des comportements abusifs au sein de l’entreprise, une enquête journalistique révèle les harcèlements moraux et les agressions sexuelles pratiqués par certains haut placés sur les employés. D’autres médias recueillent également des témoignages qui font apparaître un grave dysfonctionnement des ressources humaines. Toutes ces révélations amèneront au départ ou à la mise à pied de nombreuses personnes importantes au sein du studio, dont Serge Hascoët, directeur créatif considéré à l’époque comme le numéro 2 d’Ubisoft, validant la plupart des jeux développés. C’est également le cas de Guillaume Patrux, Game director, ou encore Michel Ancel, à l’origine de la saga à succès Rayman.

Ces évènements ne passent pas inaperçus et portent atteinte à l’image d’Ubisoft avec une baisse de plus de 9 % en bourse en une seule journée.

Mais ce n’est pas tout, la perte des personnes qui ont largement contribué au succès faramineux des jeux les plus connus et lucratifs de l’entreprise affecte les résultats de celle-ci : sur la période 2021-2022, le chiffre d’affaires est en baisse 4,4 % et il est en grande partie maintenu par le back-catalogue (+11 %), c’est-à-dire les anciens jeux publiés.

En 2022-2023, le back-catalogue est en recul et le chiffre d’affaires chute encore de 14,6 %, le résultat de sorties de jeux décevants (notamment Far Cry 6) et d’autres qui sont reportés (Skull and Bones, Avatar…).

Pour Ubisoft, la crise sociale ne s’arrête pas là…

Plusieurs grèves

En février dernier survenait en France une grève nationale lancée par le Syndicat des travailleurs et travailleuses du jeu vidéo (STJV) pour lutter contre les licenciements de plus en plus nombreux dans le milieu mais également pour revendiquer une réduction du temps de travail. En octobre 2024, c’étaient les syndicats d’Ubisoft qui avaient déjà appelé à la grève pour demander une revalorisation des salaires et contester une diminution des jours de télétravail. Un mouvement qui avait déjà été précédé par une autre grève en février 2024, là encore sur la question des salaires…

Ubisoft a donc, depuis quelques années, de réels problèmes de management, ce qui ternit son image et fait fuir ses talents. Tout cela ne rassure pas ses investisseurs, d’autant que le studio doit également faire face à un problème qui touche plus largement le secteur du jeu vidéo.

Les conséquences post-Covid sur le jeu vidéo

Si Ubisoft s’est retrouvé au cœur des polémiques en 2020, nul doute que le studio aura tout de même profité de l’impact positif qu’aura eu la pandémie dans ce milieu. En effet, en se basant sur les ratios financiers de grandes entreprises du jeu vidéo, une étude a ainsi démontré que l’industrie est l’un des rares secteurs à avoir prospéré économiquement pendant cette période de crise. Un constat qui s’explique par un temps de jeu qui a largement augmenté du fait des confinements. À ce moment, l’Organisation mondiale de la santé (OMS) avait d’ailleurs recommandé la pratique des jeux en ligne pour garder un lien social tout en restant à distance.

D’autres chercheurs ont également mis en avant le rôle de la pandémie dans la perception positive et la pratique du jeu vidéo, mais en rappelant toutefois que cela reste encore une fois lié au contexte particulier et temporaire de l’épidémie.

La période 2020-2022 a été la plus prolifique en termes de croissance, mais aussi d’investissements dans les jeux vidéo. Par exemple, entre 2020 et 2021, le nombre total d’investisseurs en capital-risque actifs dans le financement de studios ou éditeurs a été multiplié par quatre ! Il est clair que les investisseurs espéraient une croissance continue du secteur sur les années qui suivent.

Cependant, les chiffres délivrés par le Syndicat des éditeurs de logiciels de loisirs (Sell) révèlent plutôt une tendance stagnante qu’une réelle progression depuis 2020.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Désengagement des investisseurs

L’année 2023 a été un peu particulière puisqu’elle était marquée par la sortie d’une nouvelle génération de consoles qui a dopé les ventes, mais les résultats de 2024 montrent un retour à un niveau similaire aux années précédentes. Ces chiffres établissent donc une assez bonne résilience du secteur, toutefois bien loin des résultats que l’on pourrait attendre après les investissements massifs qui ont été faits. Résultat, les investisseurs se désengagent avec, pour conséquence, une baisse des cours boursiers et des licenciements. Un constat auquel Ubisoft ne déroge évidemment pas.

Et malheureusement pour l’éditeur français, en plus du contexte économique du jeu vidéo et de ses problèmes de management, il est également attaqué sur l’orientation prise par ses derniers jeux.

Des choix marketing remis en cause

Si, jusqu’en 2015, Ubisoft a fait sa renommée en proposant continuellement des jeux plus ambitieux et captivants, les années suivantes semblent marquer un essoufflement. Les quatre premiers jeux de la licence Far Cry ont ainsi tous récolté une note supérieure à 85 sur 100 sur Metacritic (agrégateur de notes reconnu dans le milieu), les suivants n’atteignent pas ce niveau avec 81 pour Far Cry 5 et seulement 73 pour Far Cry 6.

Même constat pour la saga Assassin’s Creed qui peine à ravir les fans de la première heure. Une étude de cas de cette licence a pu démontrer qu’Ubisoft a modifié sa stratégie marketing depuis Assassin’s Creed Origins (2017). La formule a été adaptée et universalisée pour s’adresser au public le plus large possible, quitte à laisser de côté les aspects plus narratifs.

Des jeux plus chers à produire

Un virage aux résultats discutables car, si les ventes sont plutôt encourageantes, égalant voire surpassant les premiers jeux, il faut rappeler que le coût des derniers épisodes est bien plus conséquent puisque, aujourd’hui, les budgets des grosses productions atteignent les 200 millions de dollars. Ubisoft ne communique pas sur les coûts de ses jeux, mais on estime qu’Assassin’s Creed Unity (2014) aurait coûté 140 millions d’euros et le dernier opus, environ 300 millions d’euros, marketing inclus.

Mais, plus important encore, les notes n’atteignent pas celles des précédents opus et les derniers jeux sont pointés du doigt pour leurs ressemblances. Des critiques qui s’étendent à toutes les licences d’Ubisoft puisque la formule a été adoptée pour tous les derniers projets.

Ce choix attire la méfiance des joueurs et a un impact sur les ventes de l’éditeur. D’ailleurs, si Assassin’s Creed Shadows, sorti le 20 mars dernier, semble apporter suffisamment de recettes pour donner une bouffée d’air à Ubisoft, le studio n’a pas communiqué sur le nombre d’unités vendues, ce qui est rarement une bonne nouvelle… Sans compter que le 3 juin, XDefiant, un jeu de tir multijoueur aux ambitions énormes réalisé par Ubisoft en mai 2024, a fermé définitivement ses portes, faute d’audience. Un échec colossal qui marque donc à nouveau la fracture entre le studio et les attentes des joueurs.

Finalement, une mauvaise adaptation au secteur du jeu vidéo ?

Le 24 avril dernier sortait le jeu Clair Obscur : Expédition 33, développé par Sandfall Interactive, un studio français nouvellement créé et composé d’une trentaine de développeurs, pour la plupart des juniors (et quelques anciens de chez Ubisoft).

Il s’agit d’un jeu de rôle se jouant au tour par tour, un genre assez peu populaire qui est donc loin d’être tout public… et qui a été vendu plus de deux millions d’unités en moins de deux semaines. Il atteint par ailleurs l’excellente note de 92. Une réussite qui prouve que le secteur du jeu vidéo ne se porte pas si mal et qu’il est même possible de capter l’attention des joueurs avec un style de jeu d’ordinaire boudé par le public et les éditeurs.

Ce succès met en exergue les difficultés du géant Ubisoft qui peine à rester aussi agile et innovant que de petits studios. Si elle veut sortir la tête de l’eau, l’entreprise va donc devoir réussir rapidement à s’adapter aux transformations du secteur tout en réglant ses problèmes internes.

The Conversation

Valentin Gachet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

03.06.2025 à 14:39

Crimes racistes et islamophobes, lutte contre « le frérisme » et culture du soupçon anti-musulmans

Haoues Seniguer, Maître de conférences HDR en science politique. Spécialiste de l’islamisme et des rapports entre islam et politique, Sciences Po Lyon, laboratoire Triangle, ENS de Lyon

Philippe Corcuff, Professeur des universités en science politique, membre du laboratoire CERLIS (UMR 8070), Sciences Po Lyon

Un contexte idéologique islamophobe et une « xénophobie d’atmosphère » ne sont pas sans lien avec l’assassinat à la mosquée de La Grand-Combe et les crimes racistes de Puget-sur-Argens.
Texte intégral (2651 mots)

Le meurtre d’Aboubakar Cissé, assassiné dans la mosquée de la Grande-Combe (Gard) le 25 avril 2025, est le point d’acmé d’une culture du soupçon à l’égard de l’islam et des musulmans. Le récent rapport gouvernemental sur l’entrisme des Frères musulmans en France participe de cette logique de suspicion à tonalité conspirationniste qui s’est installée jusqu’au sommet de l’État. Au-delà de l'hostilité à l’égard des musulmans, les crimes racistes de Puget-sur-Argens (Var), ce 31 mai, soulignent la prégnance de la xénophobie dans l’espace public.


Aboubakar Cissé a été assassiné le 25 avril dernier. La trajectoire du meurtrier reste à préciser pour mieux cerner l’étendue de ses motivations. Néanmoins, cet événement revêt d’ores et déjà une portée emblématique à maints égards : d’abord, par la violence extrême de l’acte ; ensuite, par le fait qu’il s’agisse d’un musulman ordinaire, sans antécédents ; par le lieu du forfait, la mosquée de La Grand-Combe dans le Gard ; enfin, par le mode opératoire de l’assaillant, qui a pris soin de filmer son geste en l’accompagnant de paroles ouvertement anti-islam et antimusulmanes, les deux dimensions s’entremêlant dans les propos rapportés par l’AFP : « Ton Allah de merde. » Ce fait inordinaire ayant affecté un musulman du quotidien peut être interprété comme le point d’acmé d’une culture du soupçon à l’égard de l’islam et des musulmans qui s’est déplacée des marges de la sphère publique à son centre.

Dans une enquête de science politique publiée en 2022, nous avons mis en évidence que, depuis les attentats de 2015, des représentants de l’État ont glissé de la critique légitime des auteurs des attentats terroristes vers une suspicion plus étendue à l’égard du monde musulman, dans une « confusion conceptuelle entre conservatisme, rigorisme, radicalisation, séparatisme, islamisme et djihadisme ». Le récent rapport gouvernemental sur les Frères musulmans en France, en évoquant « un projet secret » sans « aucun élément sérieux pour le démontrer », selon les mots du politiste Franck Frégosi, participe de cette logique de suspicion à tonalité conspirationniste qui s’est installée jusqu’au plus haut niveau de l’État. Les acteurs incriminés sont sommés de faire constamment la preuve de leur innocence malgré leur légalisme affiché et revendiqué.


À lire aussi : Débat : Le traitement de l’islam en France est-il symptomatique d’une crise républicaine ?


L’islamophobie et son déni

Compte tenu des nombreux indices empiriques, il semble par conséquent difficile d’en ignorer la portée éminemment islamophobe. Pourtant, malgré ce qui relève de l’évidence factuelle – fondée tant sur le lieu du crime que sur les déclarations de l’assassin, confirmée par les premières investigations de la justice –, certains responsables politiques, journalistes et éditorialistes ont spontanément hésité à en admettre le caractère fondamentalement raciste, avec un aspect anti-islam remarquable.

Si le premier ministre François Bayrou a immédiatement qualifié ce meurtre d’« ignominie islamophobe », d’autres membres du gouvernement, et plus largement de la classe politique, n’ont pas adopté la même clarté. Les raisons de ces hésitations sont diverses. Le ministre de l’intérieur et des cultes Bruno Retailleau, après un silence inhabituel et sans se rendre directement sur les lieux du drame, s’est contenté d’évoquer la possibilité d’« un acte antimusulman », dans une prudence en décalage avec ses déclarations alarmistes sur la menace de « l’islamisme ».

Manuel Valls, ministre des outre-mer, a, pour sa part, parlé « d’un acte de haine à l’encontre des musulmans », tout en affirmant qu’il ne faut « jamais employer les termes de l’adversaire, ceux qui veulent la confrontation avec ce que nous sommes », car le terme islamophobie aurait été « inventé il y a plus de trente ans par les mollahs iraniens ».

Pourtant, les sociologues Abdellali Hajjat et Marwan Mohammed ont montré dès 2013, dans leur livre Islamophobie, que le mot apparaît en français dès 1910 chez des administrateurs coloniaux-ethnologues. Toutefois, au-delà de la fake news, Manuel Valls met en accusation la façon la plus courante de qualifier les actes antimusulmans au niveau des institutions internationales, dans les ONG et dans la recherche en sciences sociales, comme l’a mis en évidence Houda Asal en 2014. Or, en n’en faisant qu’une arme aux mains de ceux qui voudraient déstabiliser le pacte républicain français, l’ancien premier ministre risque d’amoindrir la condamnation d’un meurtre horrible, en la mettant en balance avec un autre danger flou aux tonalités conspirationnistes affectant cette fois l’ensemble de la communauté nationale.

Dans le champ médiatique, l’éditorialiste Caroline Fourest, disqualificatrice de longue date du terme islamophobie, s’est précipitée pour relayer sur X, le 28 avril 2025, la version du présumé coupable qui, selon son avocat italien, nierait toute intention antimusulmane. Puis, le lendemain sur LCI, elle est allée jusqu’à soutenir, de manière non documentée, que c’est le mot islamophobie « qui a beaucoup tué dans ce pays ». D’autres, comme le journaliste Alexandre Devecchio ou le politiste Gilles Kepel dans le Figaro, ont préféré insister sur les potentielles instrumentalisations du terme islamophobie à gauche ou dans les milieux dits « islamistes », plutôt que d’interroger sérieusement la responsabilité politique et idéologique d’un climat globalement dépréciatif à l’égard des manifestations publiques et légales de l’islamité. Un climat qui a pu créer des conditions facilitant un passage à l’acte aux relents racistes et islamophobes manifestes.

En association avec l’air du temps anti-musulmans, c’est hostilité à l’égard des étrangers et des migrants qui a été légitimée dans les débats publics. Les crimes racistes commis le 31 mai à Puget-sur-Argens (Var) par un sympathisant des idées d’extrême droite ayant posté des vidéos xénophobes en constituent un indice effrayant. Hichem Miraoui, de nationalité tunisienne, a été assassiné et un jeune homme de nationalité turque a été blessé par balles.

Antisémitisme d’atmosphère et islamophobie d’atmosphère

Depuis le 7 octobre 2023 en France, un antisémitisme d’atmosphère, qui ne constitue pas la cause mécanique d’actes antisémites en recrudescence documentés par le rapport 2024 de la Commission nationale consultative des droits de l’homme, mais qui se présente comme un bain idéologique propice, a rendu davantage légitime aux yeux d’une petite minorité de personnes le passage à des actes extrêmes. C’est le cas du viol et des violences antisémites à l’égard d’une fillette de 12 ans à Courbevoie, le 15 juin 2024, où la judéité de la victime a été associée par ses agresseurs à l’État d’Israël et à la Palestine. Dans ce bain idéologique, des porosités se sont développées entre la notion floue et à géométrie variable d’« antisionisme » et l’antisémitisme.

De manière analogue, il existe une islamophobie d’atmosphère, au sein de laquelle la violence islamophobe peut apparaître davantage acceptable aux yeux de quelques personnes. Cet air du temps idéologique a été alimenté par des personnalités politiques, journalistiques et intellectuelles, dans un soupçon vis-à-vis des pratiques musulmanes visibles (comme le voile) indûment associées à « l’islamisme », catégorie aux frontières d’ailleurs dilatées, amalgamant les islamoconservatismes légalistes, critiquables du point de vue d’une éthique de l’émancipation comme les catho-conservatismes ou les judéo-conservatismes mais pas juridiquement condamnables, et les djihadismes meurtriers faisant peser des dangers mortels sur la population.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Dans le cas de l’islamophobie, à la différence de l’antisémitisme actuel refoulé aux marges du débat public à cause de la mémoire des horreurs de la Shoah, la suspicion s’est exprimée jusqu’au sommet de l’État, lui donnant une légitimité forte. Ainsi la loi du 24 août 2021 « confortant le respect des principes de la République » a d’abord été présentée comme une « loi contre les séparatismes », faisant suite au discours prononcé par le président de la République aux Mureaux (Yvelines), le 2 octobre 2020, contre « le séparatisme islamiste ». Dès après le drame de La Grand-Combe (Gard), Emmanuel Macron a réitéré une logique de soupçon vis-à-vis du voile musulman sur TF1, le 13 mai 2025 : « Je suis pour la charte olympique qui interdit le port de tout signe religieux dans les compétitions » ; interdiction qui n’est d’ailleurs pas présente dans la Charte du Comité international olympique comme l’ont montré par la suite des vérifications journalistiques.

Islamophobie, antisémitisme et confusionnisme

L’islamophobie d’atmosphère, l’antisémitisme d’atmosphère, mais aussi la xénophobie d’atmosphère se présentent comme des modalités de l’aimantation des débats publics par les extrêmes droites. Dans une enquête sur les transformations idéologiques des espaces publics en France à partir du milieu des années 2000, nous avons construit le concept de « confusionnisme » pour en rendre compte.

Le confusionnisme renvoie au développement d’interférences et d’hybridations entre des postures et des thèmes d’extrême droite, de droite, de gauche modérée et de gauche radicale favorisant l’extrême droitisation dans un contexte de recul du clivage gauche/droite. C’est, par exemple, la valorisation du national et la dévalorisation du mondial et de l’européen, ou la fixation positive (comme dans « l’identité nationale ») ou négative (comme avec « les musulmans ») sur des identités supposées homogènes et closes.

La concurrence entre les combats contre l’antisémitisme et contre l’islamophobie en a constitué un terrain de développement, à partir du début des années 2000, d’abord dans la galaxie antiraciste. Ainsi, la Ligue internationale contre le racisme et l’antisémitisme (Licra) et SOS Racisme ont refusé de participer à une manifestation contre tous les racismes (parce qu’incluant la question de l’islamophobie), initiée par le Mouvement contre le racisme et pour l’amitié entre les peuples (Mrap) et la Ligue des droits de l’homme (LDH), le 7 novembre 2004. Puis cette concurrence s’est étendue à la sphère politique. Ceux qui privilégient le combat contre l’antisémitisme vont dénigrer la notion d’islamophobie, comme Manuel Valls qui en fait, en 2013, « un cheval de Troie des salafistes ». Ceux qui privilégient l’islamophobie minorent l’antisémitisme, « résiduel » pour le leader de La France insoumise (LFI), Jean-Luc Mélenchon, en 2024.

En quoi cette compétition a-t-elle eu des effets confusionnistes ? Pour plusieurs raisons :

  1. cela a travaillé des intersections avec la tendance à l’enfermement des débats publics autour d’identités homogènes et closes, portée par la galaxie de l’ultradroite : identitarisme antisémite, chez Dieudonné et Alain Soral, et identitarisme islamophobe, chez Éric Zemmour ou dans « la théorie du grand remplacement » de Renaud Camus ;

  2. cela a participé à la cristallisation des identités collectives en compétition, en les avivant via des concurrences victimaires ; les porte-parole de chaque identité mise en avant réclamant la place de « plus grande victime » ;

  3. cela a contribué à la banalisation des schémas conspirationnistes, avec deux pôles opposés « le grand remplacement » et « le complot islamiste » ;

  4. et cela a enrayé les convergences antiracistes comme réponse à l’extrême droitisation, les antiracistes étant divisés.

Contextes collectifs et cas singuliers

Nous faisons l’hypothèse que le contexte idéologique islamophobe a joué un rôle dans le meurtre de La Grand-Combe, comme la xénophobie d’atmosphère constitue un facteur à l’œuvre dans les crimes racistes de Puget-sur-Argens. Mais il ne s’agit pas d’une cause directe en un sens déterministe, c’est-à-dire d’une cause unique produisant nécessairement de tels effets. C’est une invitation pour les sciences sociales, dans la douleur de drames, à penser autrement les relations entre des contraintes sociales structurelles, d’une part, et des itinéraires individuels et des dynamiques spécifiques de situation, d’autre part.

Le pari de connaissance propre aux sciences sociales sur ce plan consiste à se saisir du défi formulé par le philosophe Emmanuel Levinas dans son grand livre de la maturité de 1974, Autrement qu’être, ou au-delà de l’essence : « La comparaison de l’incomparable. » Il s’agit de mettre en tension ce qui se répète dans la vie sociale, à travers « la comparaison », et des singularités, en tant que relevant pour une part de « l’incomparable ». Et cela sans abdiquer le souci scientifique d’intelligibilités partielles, ni prétendre pour autant enfermer les pratiques humaines dans une totalité devenant complètement transparente aux savoirs scientifiques.

The Conversation

Haoues Seniguer a reçu des financements de la Fondation pour la mémoire de la Shoah (une bourse postdoctorale) entre 2013 et 2014

Philippe Corcuff est membre de l'association RAAR (Réseau d'Actions contre l'Antisémitisme et tous les Racismes)

PDF

03.06.2025 à 12:44

Une brève histoire de la diplomatie des océans

Kevin Parthenay, Professeur des Universités en science politique, membre de l'Institut Universitaire de France (IUF), Université de Tours

Rafael Mesquita, Professeur Associé à l’Université Fédérale du Pernambuco, Brésil

L’histoire de la diplomatie des océans permet de mieux comprendre les enjeux actuels : la conférence Unoc 3 à Nice doit être l’occasion de consolider le droit international des océans.
Texte intégral (2774 mots)

À la veille de la 3e Conférence des Nations unies sur l’océan (Unoc 3), où en est la gouvernance marine ? Se pencher sur l’histoire de la diplomatie des océans permet de mieux comprendre la nature des enjeux actuels : Nice doit être l’occasion de consolider un nouveau droit international des océans.


Le 9 juin 2025, la Conférence des Nations unies sur l’océan (Unoc) s’ouvrira à Nice (Alpes-Maritimes). Il s’agit de la troisième conférence du nom, après celle de New York en 2017 puis de Lisbonne en 2022. Organisée conjointement par la France et par le Costa Rica, elle rassemblera 150 États et près de 30 000 personnes autour de la « gestion durable de l’océan ».

Ce qui est présenté comme un moment fort pour les océans s’inscrit en réalité dans un changement de dynamique profond de la gouvernance marine, qui a été lancé il y a déjà plusieurs décennies. Jadis pensée pour protéger les intérêts marins des États, la gouvernance des océans doit désormais tenir compte des enjeux climatiques et environnementaux des océans.

Ce « moment politique » et médiatique ne devra ni occulter ni se substituer à la véritable urgence, qui est d’aboutir à des évolutions du droit international qui s’applique aux océans. Sans quoi, le sommet risque de n’être qu’un nouveau théâtre de belles déclarations vaines.

Pour comprendre ce qui se joue, il convient de débuter par une courte rétrospective historique de la gouvernance marine.


Participez au webinaire The Conversation France / Normandie pour la Paix, jeudi 19 juin à 18h : « Environnement et sécurité : quelle place pour l’Europe sur la scène mondiale ? » - Inscription gratuite ici


Quelle gouvernance internationale des océans ?

La gouvernance des océans a radicalement changé au cours des dernières décennies. Auparavant centrée sur les intérêts des États et reposant sur un droit international consolidé dans les années 1980, elle a évolué, depuis la fin de la guerre froide, vers une approche multilatérale qui mêle un large spectre d’acteurs (organisations internationales, ONG, entreprises, etc.).

Cette gouvernance est progressivement passée d’un système d’obligations concernant les différents espaces marins et leur régime de souveraineté associé (mers territoriales, zones économiques exclusives (ZEE) ou encore haute mer) à un système prenant en compte la « santé des océans », où il s’agit de les gérer dans une optique de développement durable.

Pour mieux comprendre ce qui se joue à Nice, il faut comprendre comment s’est opérée cette bascule. Les années 1990 ont été le théâtre de nombreuses déclarations, sommets et autres objectifs globaux. Leur efficacité, comme on le verra plus bas, s’est toutefois montrée limitée. Ceci explique pourquoi on observe aujourd’hui un retour vers une approche davantage fondée sur le droit international, comme en témoignent par exemple les négociations autour du traité international sur la pollution du plastique.


À lire aussi : Traité mondial contre la pollution plastique : en coulisses, le regard des scientifiques français présents


La « Constitution des mers », un texte fondateur

L’émergence du droit de la mer remonte à la Conférence de La Haye en 1930. Aujourd’hui, c’est essentiellement autour de la Convention des Nations unies sur le droit de la mer (CNUDM) de 1982 que la gouvernance marine s’est progressivement structurée.

L’Unoc 3 en est le prolongement direct. En effet, les réflexions sur la gestion durable des océans découlent des limites de ce texte fondateur, souvent présenté comme la « Constitution des mers ».

Adoptée en décembre 1982 lors de la Convention de Montego Bay (Jamaïque), la CNUDM est entrée en vigueur en novembre 1994, à l’issue d’un long processus de négociations internationales qui a permis à 60 États de ratifier le texte. Les discussions portaient au départ sur les intérêts des pays en développement, en particulier des pays côtiers, dans un contexte de crise du multilatéralisme, une dimension que les États-Unis sont parvenus à infléchir, et cela sans avoir jamais ratifié la Convention. Celle-ci constitue depuis un pilier central de la gouvernance marine.

Elle a créé des institutions nouvelles, comme l’Autorité des fonds marins (International Seabed Authority), dont le rôle est d’encadrer l’exploitation des ressources minérales des fonds marins dans les zones au-delà des juridictions nationales. La CNUDM est à l’origine de la quasi-totalité de la jurisprudence internationale sur la question.

Elle a délimité les espaces maritimes et encadré leur exploitation, mais de nouveaux enjeux sont rapidement apparus. D’abord du fait des onze années de latence entre son adoption et sa mise en œuvre, délai qui a eu pour effet de vider la Convention de beaucoup de sa substance. L’obsolescence du texte tient également aux nouveaux enjeux liés à l’usage des mers, en particulier les progrès technologiques liés à la pêche et à l’exploitation des fonds marins.

Le début des années 1990 a marqué un tournant dans l’ordre juridique maritime traditionnel. La gestion des mers et des océans a pu être inscrite dans une perspective environnementale, sous l’impulsion de grandes conférences et déclarations internationale telles que la déclaration de Rio (1992), la Déclaration du millénaire (2005) et le Sommet Rio+20 (2012). Il en a résulté l’Agenda 2030 et les Objectifs du développement durable (ODD), 17 objectifs visant à protéger la planète (l’objectif 14 concerne directement l’océan) et la population mondiale à l’horizon 2030.


À lire aussi : Un pacte mondial pour l’environnement, pour quoi faire ?


La Conférence des Nations unies sur l’environnement et le développement (CNUED) à Rio de Janeiro (Brésil) en 1992 a inauguré l’ère du « développement durable ». Elle a permis de faire le lien entre les questions environnementales et maritimes, notamment grâce aux découvertes scientifiques réalisées dans la décennie précédente.

Entre 2008 et 2015, les questions environnementales ont pris une place plus importante, avec l’adoption régulière de résolutions portant l’environnement et sur le climat.

Un glissement dans le langage de l’ONU

Depuis 2015, deux thèmes sont devenus récurrents dans l’agenda international : la biodiversité et l’utilisation durable des océans (ODD 14). Dans ce contexte, les enjeux liés aux océans intègrent désormais leur acidification, la pollution plastique et le déclin de la biodiversité marine.

La résolution de l’Assemblée générale des Nations unies sur les océans et le droit de la mer (Oceans and the Law of the Seas, OLOS) est particulièrement utile pour comprendre cette évolution. Rédigée chaque année depuis 1984, elle couvre tous les aspects du régime maritime des Nations unies et permet de refléter les nouveaux enjeux et préoccupations.

Évolution des enjeux et préoccupations liés aux océans dans les résolutions de l’ONU portant sur les océans et le droit de la mer. Fourni par l'auteur

Certains termes environnementaux étaient au départ absents du texte, mais sont devenus plus visibles depuis les années 2000.

Mais cette évolution se reflète aussi dans le choix des mots.

Évolution des termes caractéristiques des résolutions OLOS des années 1984-1995 (gris) vs. 2016-2022 (bleu). Fourni par l'auteur

Tandis que les résolutions OLOS des années 1984 à 1995 étaient surtout orientées vers la mise en œuvre du traité et l’exploitation économique des ressources marines, celles des années plus récentes se caractérisent par l’usage de termes liés à la durabilité, aux écosystèmes et aux enjeux maritimes.

Vers un nouveau droit des océans ?

La prise de conscience des enjeux liés aux océans et de leur lien avec le climat a progressivement fait des océans une « dernière frontière » (final frontier) planétaire en termes de connaissances.

La nature des acteurs impliqués dans les questions océaniques a également changé. D’un monopole détenu par le droit international et par les praticiens du droit, l’extension de l’agenda océanique a bénéficié d’une orientation plus « environnementaliste » portée par les communautés scientifiques et les ONG écologistes.

L’efficacité de la gouvernance marine, jusqu’ici surtout fondée sur des mesures déclaratives non contraignantes (à l’image des ODD), reste toutefois limitée. Aujourd’hui semble ainsi s’être amorcé un nouveau cycle de consolidation juridique vers un « nouveau droit des océans ».

Son enjeu est de compléter le droit international de la mer à travers, par exemple :

Parmi ces accords, le BBNJ constitue probablement le plus ambitieux. Le processus de négociation, qui a débuté de manière informelle en 2004, visait à combler les lacunes de la CNUDM et à le compléter par un instrument sur la biodiversité marine en haute mer (c’est-à-dire, dans les zones situées au-delà des juridictions nationales).

L’accord fait écho à deux préoccupations majeures pour les États : la souveraineté et la répartition équitable des ressources.

Adopté en 2023, cet accord historique doit encore être ratifié par la plupart des États. À ce jour, seuls 29 États ont ratifié ce traité (dont la France, en février 2025, ndlr) alors que 60 sont nécessaires pour son entrée en vigueur.

Le processus BBNJ se situe donc à la croisée des chemins. Par conséquent, la priorité aujourd’hui n’est pas de prendre de nouveaux engagements ou de perdre du temps dans des déclarations alambiquées de haut niveau.

La quête effrénée de minéraux critiques, dans le contexte de la rivalité sino-américaine, a par exemple encouragé Donald Trump à signer en avril 2025 un décret présidentiel permettant l’exploitation minière du sol marin. Or, cette décision défie les règles établies par l’Autorité des fonds marins sur ces ressources en haute mer.

À l’heure où l’unilatéralisme des États-Unis mène une politique du fait accompli, cette troisième Conférence mondiale sur les océans (Unoc 3) doit surtout consolider les obligations existantes concernant la protection et la durabilité des océans, dans le cadre du multilatéralisme.

The Conversation

Kevin Parthenay est membre de l'Institut Universitaire de France (IUF).

Rafael Mesquita ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

03.06.2025 à 11:14

Peut-on vraiment prévenir les arrêts cardiaques avec du champagne ou du vin blanc ? retour sur une étude aux résultats trompeurs

Mickael Naassila, Professeur de physiologie, Directeur du Groupe de Recherche sur l'Alcool & les Pharmacodépendances GRAP - INSERM UMR 1247, Université de Picardie Jules Verne (UPJV)

Une étude prétend que consommer du champagne ou utiliser son ordinateur réduirait le risque d’arrêt cardiaque soudain. Attention, elle présente des biais méthodologiques majeurs !
Texte intégral (2076 mots)

Une étude prétend que consommer du champagne ou encore utiliser son ordinateur réduirait le risque d’arrêt cardiaque soudain. Mais elle présente des biais méthodologiques majeurs ! Ses soi-disant résultats ne doivent donc pas être pris en compte.


Il y a des études scientifiques qui font sourire, d’autres qui interrogent, et certaines qui, bien qu’habillées du vernis de la rigueur, diffusent des conclusions aussi fragiles que les bulles d’un verre de champagne.

C’est le cas d’un article récemment publié dans le Canadian Journal of Cardiology qui conclut, entre autres, que la consommation de champagne et/ou de vin blanc pourrait protéger contre l’arrêt cardiaque soudain.

Ce n’est pas une blague, c’est le résultat d’une étude sérieuse… du moins en apparence.


À lire aussi : Le « French paradox » démonté : non, une consommation modérée d’alcool n’a pas d’effet protecteur


Un cocktail de données et d’algorithmes

L’étude, conduite par une équipe chinoise, repose sur l’analyse des données de la UK Biobank, une vaste base d’information médicale et comportementale rassemblée auprès de plus de 500 000 volontaires britanniques).

Les chercheurs ont sélectionné 125 « facteurs de risque modifiables » (comme la consommation d’alcool, le temps passé sur l’ordinateur ou les sentiments d’irritabilité) et ont évalué leur lien avec la survenue d’un arrêt cardiaque soudain, sur une période de près de quatorze ans.

Pourquoi 125 ? Pourquoi pas 300 ? Ou 28 859, qui correspond au nombre initial de variables ? On ne saura jamais. Ce choix arbitraire, filtré par des critères aussi opaques qu’un vin trop vieux, a permis de faire ressortir que les buveurs de champagne ou de vin blanc et les amateurs d’ordinateurs seraient mieux protégés des arrêts cardiaques.

Le tout repose sur une approche dite exposomique, qui vise à explorer sans a priori un grand nombre de facteurs environnementaux et comportementaux.


À lire aussi : « L’envers des mots » : Exposome


Pour aller plus loin, les auteurs ont utilisé une méthode sophistiquée – la randomisation mendélienne –, censée permettre d’inférer un lien de causalité entre certains comportements et les arrêts cardiaques.

Le résultat : 56 facteurs seraient associés au risque d’arrêt cardiaque, dont 9 considérés comme causaux. Parmi les facteurs mis en avant comme protecteurs : la consommation de champagne ou de vin blanc, la consommation de fruits secs, ou encore le temps passé sur un ordinateur.

Au passage, six autres facteurs sont présentés comme ayant un lien délétère : le sentiment de ras-le-bol, la quantité et le taux élevés de masse grasse mesurés au bras, l’indice de masse corporelle (IMC), la pression artérielle systolique et un niveau d’éducation inférieur.

Quand la génétique s’égare

La randomisation mendélienne est une méthode puissante, souvent présentée comme un « essai clinique naturel » fondé sur la génétique. L’idée est la suivante : certaines variantes génétiques influencent nos comportements ou traits biologiques (comme l’indice de masse corporelle) et, en les étudiant, on peut tenter d’estimer l’effet causal de ces comportements sur la santé, sans les biais habituels des études observationnelles.


À lire aussi : Voici comment les lois de la génétique nous aident à prévenir les maladies chroniques


Mais cette méthode repose sur trois hypothèses très fortes, qui doivent être absolument vérifiées pour pouvoir conclure :

  1. Les gènes choisis doivent être fortement liés au comportement étudié (ex. : boire du champagne).

  2. Ils ne doivent pas être associés à d’autres facteurs (pas de « confusion »). Or, il est peu probable que les buveurs de champagne aient exactement les mêmes conditions de vie que les autres.

  3. Ils doivent influencer l’arrêt cardiaque seulement via la consommation de champagne, et non par d’autres biais sociétaux ou comportementaux (pléiotropie horizontale).


Chaque mardi, le plein d’infos santé : nutrition, bien-être, nouveaux traitements… Abonnez-vous gratuitement dès aujourd’hui.


Une étude récente réalisée par la Société française d’alcoologie a, par exemple, montré que la consommation d’alcool a un lien causal démontré par la randomisation mendélienne sur de nombreuses pathologies : les cancers de la cavité buccale, de l’oropharynx, de l’œsophage, le cancer colorectal, le carcinome hépatocellulaire et le mélanome cutané, ainsi que sur les maladies cardiovasculaires telles que l’hypertension, la fibrillation atriale (un trouble du rythme cardiaque qui accélère le cœur et le fait battre de manière irrégulière), l’infarctus du myocarde et les maladies vasculaires.

Dans l’étude publiée dans le Canadian Journal of Cardiology, plusieurs de ces hypothèses sont probablement faussées. Par exemple, les gènes supposés influencer la consommation de champagne ou de vin blanc pourraient tout aussi bien refléter un statut socio-économique élevé ou des préférences culturelles qui, eux-mêmes, sont liés au risque de maladies cardiovasculaires. C’est ce qu’on appelle la pléiotropie, un biais bien connu en génétique, (également évoqué plus haut dans l’article, ndlr).

L’étude repose en grande partie sur des données autodéclarées (consommation d’alcool, sentiments de ras-le-bol, usage de l’ordinateur), ce qui apporte un niveau de subjectivité supplémentaire. À cela s’ajoute une absence totale de prise en compte des changements dans le temps : boire du champagne à 55 ans n’implique pas qu’on en boira encore à 68, l’âge moyen des arrêts cardiaques dans cette cohorte.

Des résultats aussi exagérés que séduisants

Les résultats montrent un effet protecteur du champagne et de l’ordinateur. Sauf que… surprise ! Les méthodes de sensibilité, qui permettent de juger de la robustesse des résultats (randomisation mendélienne et médiane pondérée), ne trouvent souvent aucune significativité, voire un effet inversé.

La robustesse des résultats étant remise en cause, la prudence doit être de mise. Car les conclusions ne tiennent plus debout quand on change un peu les calculs et les hypothèses de départ. Cela révèle ainsi que ces résultats peuvent être influencés par des biais ou par des incertitudes cachées.

Le plus spectaculaire dans l’étude, ce n’est pas tant le champagne que les chiffres avancés : selon les auteurs, jusqu’à 63 % des arrêts cardiaques pourraient être évités si les facteurs de risque étaient corrigés. Ce chiffre impressionnant repose sur un calcul appelé « fraction de risque attribuable », qui suppose que l’on peut modifier les comportements sans que cela ne change rien d’autre dans la vie des personnes. Une hypothèse très contestable : améliorer son alimentation modifie aussi souvent le poids, le sommeil ou l’humeur.

Plus grave encore : seuls 9 des 56 facteurs identifiés seraient réellement causaux, selon les auteurs eux-mêmes. En d’autres termes, un lien de cause à effet ne serait avéré que pour 9 facteurs sur 56. Il est donc méthodologiquement incohérent de calculer une fraction de risque globale sur la base de données aussi incertaines.

Un cas d’école de surinterprétation

Le problème ici n’est pas l’utilisation des données massives ni des outils statistiques modernes. C’est la surinterprétation des résultats, l’usage approximatif des méthodes et la communication d’un message qui frôle le sensationnalisme scientifique.

En faisant croire qu’un verre de champagne ou quelques heures d’écran pourraient sauver des vies, on détourne l’attention des véritables leviers de prévention : l’arrêt du tabac, la réduction de l’hypertension, la lutte contre les inégalités sociales et l’accès aux soins.

Le risque est de promouvoir une vision naïve de la prévention centrée sur des comportements individuels anodins, au détriment des politiques de santé publique ambitieuses.

La science mérite mieux

Il est essentiel de rester critique face aux résultats trop beaux pour être vrais, surtout lorsqu’ils concernent des sujets graves comme l’arrêt cardiaque. La recherche épidémiologique a tout à gagner à la transparence méthodologique, à la prudence dans les interprétations, et à l’humilité dans la communication des résultats.


À lire aussi : Comprendre l’épidémiologie


Le champagne et le vin blanc ne sont pas des médicaments. Et une étude, même statistiquement sophistiquée, ne vaut que par la solidité de ses hypothèses.

Si vous voulez vraiment réduire votre risque cardiovasculaire, préférez une marche quotidienne à un verre de bulles, même si c’est moins festif.

The Conversation

Mickael Naassila est Président de la Société Française d'Alcoologie (SFA) et de la Société Européenne de Recherche Biomédicale sur l'Alcoolisme (ESBRA); Vice-président de la Fédération Française d'Addictologie (FFA) et vice-président junior de la Société Internationale de recherche Biomédicale sur l''Alcoolisme (ISBRA). Il est membre de l'institut de Psychiatrie, co-responsable du GDR de Psychiatrie-Addictions et responsable du Réseau National de Recherche en Alcoologie REUNRA et due projet AlcoolConsoScience

PDF

03.06.2025 à 11:14

Activité physique : les objets connectés peuvent-ils nous motiver ?

Simone Burin-Chu, Enseignante-chercheuse contractuelle, Université d'Artois

Farole Bossede, Enseignante chercheure contractuelle, Université d'Artois

Appli, jeux vidéo, montres intelligentes… les outils numériques consacrés à l’activité physique nous motivent-ils pour nous impliquer et bouger davantage ? On fait le point.
Texte intégral (2047 mots)

Appli, jeux vidéo actifs, montres intelligentes, plateformes… les outils numériques consacrés à l’activité physique ont-ils fait leurs preuves pour nous motiver à bouger davantage ? Et conviennent-ils à tous les publics, depuis les enfants jusqu’aux personnes âgées ? On fait le point.


L’activité physique est largement reconnue comme bénéfique pour la santé. À l’inverse, l’inactivité physique représente un facteur de risque majeur pour le développement de maladies non transmissibles. Face à ce constat, l’Organisation mondiale de la santé (OMS) a établi des recommandations.

Les adultes devraient pratiquer entre 150 et 300 minutes d’exercice aérobie d’intensité modérée (comme la marche rapide), ou entre 75 et 150 minutes d’activité soutenue par semaine. Pour les personnes âgées, ces recommandations incluent également des exercices d’équilibre tandis que, pour les enfants, 60 minutes d’activité physique quotidienne sont préconisées. Pourtant, une grande partie de la population ne parvient pas à atteindre ces niveaux de pratique.


À lire aussi : Activité physique et santé : aménager nos espaces de vie pour contrer notre tendance au moindre effort


Les outils numériques semblent constituer un levier prometteur pour l’adoption d’un mode de vie plus actif. Mais quels sont ces outils, et dans quelle mesure permettent-ils d’encourager la pratique d’une activité physique ?

Peuvent-ils constituer un moyen efficace d’engagement et de motivation, ou se heurtent-ils à des limites en termes d’accessibilité, d’usabilité ou de durabilité de leurs effets ?

Engagement et motivation pour la pratique d’une activité physique : de quoi parlons-nous ?

L’engagement reflète l’implication d’un individu dans un domaine, tandis que la motivation est l’énergie qui le pousse à agir, qu’elle soit intrinsèque (plaisir personnel, bien-être) ou extrinsèque (influencée par des récompenses).

Dans le domaine des activités physiques et sportives, des études montrent que la motivation impacte les émotions, la vitalité et les performances des pratiquants. Celle-ci constitue un facteur clé de réussite, en lien avec la théorie de l’autodétermination, qui repose sur trois besoins psychologiques fondamentaux : l’autonomie, le lien social et le sentiment de compétence.

Engagement et motivation sont donc essentiels pour maintenir une pratique régulière et dépendent d’un ensemble de facteurs psychologiques, sociaux et environnementaux. À long terme, un mode de vie actif repose sur l’adoption de stratégies adaptées qui tiennent compte de ces différents déterminants.

Montres intelligentes, applis, plateformes ou jeux vidéo actifs

Les outils numériques ont profondément transformé notre quotidien. Appliqués à l’activité physique, ils présentent plusieurs avantages, tels que la mesure et l’enregistrement des performances, le suivi des progrès, le partage des données avec d’autres pratiquants ou encore la gamification, c’est-à-dire l’intégration d’éléments de jeu à des contextes non ludiques, ce qui rend la pratique plus attractive.

Les objets connectés, notamment les montres intelligentes, développées par des marques comme Fitbit, Apple ou Garmin, sont de plus en plus populaires parmi les pratiquants.


Chaque mardi, le plein d’infos santé : nutrition, bien-être, nouveaux traitements… Abonnez-vous gratuitement dès aujourd’hui.


Ces dispositifs permettent de mesurer le nombre de pas, la fréquence cardiaque ou les calories brûlées, tout en encourageant l’atteinte d’objectifs quotidiens. Ils offrent également une vision claire de l’évolution des performances et renforce la motivation à poursuivre l’effort.

Avec plusieurs millions de téléchargements à travers le monde, les applications mobiles consacrées à l’activité physique sont devenues des outils incontournables pour encourager une pratique régulière.

Des plateformes telles que Strava, Fitbit, Nike Training Club ou MyFitness, proposent des programmes personnalisés adaptés aux objectifs des utilisateurs, qu’il s’agisse de perte de poids, de gain musculaire ou d’amélioration de l’endurance.

Certaines de ces applications incluent des fonctionnalités de suivi des progrès, des défis entre pratiquants et des rappels pour maintenir la régularité de la pratique. Ce type de gamification transforme l’effort physique en un défi motivant, tout en générant un sentiment d’accomplissement.

Voués aux enfants et adolescents… également aux personnes âgées

Les jeux vidéo actifs, ou exergames, s’avèrent particulièrement pertinents pour les enfants et les adolescents, en combinant exercice physique et jeu vidéo. Qu’il s’agisse d’exercices aérobiques, de renforcement ou d’équilibre, les consoles, comme la Nintendo Wii ou Switch, mais aussi la Xbox et la PlayStation, encouragent le mouvement de façon ludique.

Ces technologies sollicitent également certaines fonctions cognitives (attention, contrôle exécutif), ce qui peut présenter un intérêt chez les personnes âgées.


À lire aussi : Pour booster son cerveau, quelles activités physiques privilégier après 60 ans ?


Quant à la pratique de l’activité physique par le biais de visioconférences, elle a connu son essor durant la crise sanitaire, et est restée largement utilisée après la fin du confinement.

Ce mode d’entraînement à distance, accessible via des plateformes, comme Zoom, Teams ou Google Meet, permet de lever certains freins à la pratique, notamment chez les individus vivant dans zones géographiques éloignées ou confrontées à des limitations physiques, liées à l’âge ou à une pathologie, qui restreignent leurs déplacements.

Des technologies prometteuses, mais qui présentent des limites

Si ces outils ouvrent de nouvelles perspectives, notamment pour les groupes vulnérables, ils peuvent aussi présenter des limites, comme le renforcement de l’isolement, en remplaçant les activités de groupe par des pratiques individuelles.

Les enjeux financiers représentent également une barrière. Les outils plus performants étant souvent coûteux, ils risquent d’accentuer les inégalités d’accès. L’ergonomie peut aussi poser des freins, notamment pour les personnes âgées ou en situation de handicap, si les interfaces ne sont pas suffisamment adaptées.

Une complexité excessive peut en fait décourager les débutants et limiter l’adoption de ces outils par certaines populations. Et il reste à déterminer si les comportements peuvent vraiment être impactés par leur utilisation.

Le changement de comportement en matière d’activité physique désigne un processus graduel par lequel une personne modifie ses habitudes pour adopter une pratique régulière. Selon le modèle dit transthéorique du changement (développé par Prochaska et Di Clemente), outre la motivation et l’engagement, le soutien social et l’accessibilité représentent également des facteurs clés.

Une étude a montré que les applications pour l’activité physique intègrent des techniques de changement de comportement, telles que des instructions pour la réalisation des exercices, la fixation d’objectifs, la planification du soutien ou du changement social, ainsi que le feedback sur les performances. Ces outils semblent avoir des effets plus intéressants chez les néo-pratiquants, en augmentant leur motivation à débuter la pratique.

Des résultats scientifiques encourageants mais encore restreints

Concernant les preuves scientifiques relatives aux effets de ces technologies, une méta-analyse a révélé des augmentations significatives du niveau d’activité physique chez les participants soumis à des interventions basées sur des applications pour smartphones, par rapport aux groupes contrôles bénéficiant des séances classiques.

Ces résultats encourageants ont également été observés dans un essai contrôlé randomisé, où les applications mobiles ont considérablement augmenté le nombre moyen de pas quotidiens. En revanche, ces effets n’ont été étudiés que sur le court terme. Cette limite fréquemment relevée dans la littérature scientifique empêche d’évaluer pleinement leur potentiel à générer des changements de comportement durables. Par ailleurs, certaines recherches s’appuient sur des échantillons de petite taille, ce qui restreint la généralisation des résultats.

Si ces technologies suscitent un intérêt croissant – en grande partie grâce à leurs fonctionnalités et leur dimension ludique –, elles présentent à la fois des avantages et des limites, sur le plan pratique comme sur le plan scientifique.

Néanmoins, dans un contexte où l’inactivité physique atteint des niveaux préoccupants, toute solution susceptible de favoriser l’activité physique mérite une attention particulière.

À ce stade des connaissances, il apparaît pertinent de considérer ces outils numériques comme des moyens complémentaires pouvant contribuer à l’adoption d’un mode de vie plus actif.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

03.06.2025 à 08:20

Quand a-t-on le droit de réutiliser les eaux de pluie et les eaux grises en France ?

Service Environnement, The Conversation France

Réutiliser l’eau de pluie ou les eaux grises chez soi est désormais plus simple : un nouveau cadre réglementaire élargit les usages autorisés, du lavage du linge à l’arrosage des potagers.
Texte intégral (855 mots)
Les usages non domestiques de l’eau de pluie sont désormais autorisés. Anna Nikonorova/Shutterstock

La réglementation française a évolué concernant la réutilisation des eaux de pluie et des eaux grises à des fins d’usage non potable, domestique et non domestique. L’enjeu de ces textes, nous expliquent Julie Mendret (université de Montpellier) et Thomas Harmand (Aix-Marseille Université) : valoriser ces eaux « non conventionnelles » pour économiser et limiter la pression sur les ressources en eau.


L’eau de pluie est précieuse, tant au plan écologique qu’économique : jardins, chasses d’eau, lavage des voitures… Jusqu’à peu, leur réutilisation était strictement encadrée par un arrêté de 2008, qui n’autorisait leur usage que dans plusieurs cas très précis (évacuation des excrétas, lavage des sols ou encore arrosage des espaces verts à certaines conditions).

Plus strict pour les eaux grises

Ce cadre juridique a évolué en 2023 et 2024 : les usages non domestiques de l’eau de pluie sont désormais autorisés, et un nouveau cadre réglementaire s’applique à ses usages domestiques. Par exemple, il est maintenant permis de laver son linge, d’arroser des jardins potagers ou de laver son véhicule à son domicile. Il faut toutefois en passer par une déclaration en mairie – et pour une déclaration supplémentaire au préfet pour le lavage du linge ou l’alimentation des fontaines décoratives non destinées à la consommation humaine. Dans ce cas, les eaux de pluie utilisées doivent aussi atteindre des objectifs de qualité précis.

Autre nouveauté législative : il est désormais possible d’utiliser ces eaux dans les établissements de santé, thermaux ou encore scolaires, dans les mêmes conditions de déclaration que précédemment.

Au-delà des eaux de pluie, les nouveaux textes de loi autorisent aussi la réutilisation des eaux grises (qui proviennent des éviers, lavabos, douches, baignoires et machines à laver et ne contiennent pas de matières fécales, ou encore qui proviennent des piscines à usage collectif). Les conditions sont toutefois plus strictes que pour les eaux de pluie : la procédure minimale est ici une déclaration préfectorale.

Évaluation en 2035

Les usages sont théoriquement plus limités : au niveau domestique, il s’agit de l’alimentation des fontaines décoratives non destinées à la consommation humaine, de l’évacuation des excrétas, du nettoyage des surfaces extérieures, ainsi que de l’arrosage des espaces verts à l’échelle du bâtiment. Le lavage du linge, le nettoyage des sols en intérieur et l’arrosage des jardins potagers font toutefois l’objet d’une procédure dérogatoire, et peuvent être autorisés à titre expérimental. L’évaluation de ces expérimentations aura lieu en 2035, et leur généralisation éventuelle sera décidée en conséquence.

Pour les établissements recevant du public sensible, la procédure est encore plus stricte pour la réutilisation des eaux grises ou de piscines, où il faut obtenir une autorisation.

Les contraintes de surveillance diffèrent également. Pour les usages soumis à des exigences de qualité, un suivi sanitaire est requis. Il est à effectuer jusqu’à six fois par an. On le devine, il sera plus difficile de mettre en œuvre ce type de valorisation dans ces établissements.

Ces textes représentent malgré tout une avancée : les sources d’eaux non conventionnelles sont désormais identifiées par la réglementation, et peuvent être intégrées à la gestion de l’eau.

Ce texte est la version courte de l’article écrit par Julie Mendret de l’université de Montpellier et Thomas Harmand d’Aix-Marseille Université, publié sur The Conversation le 3 décembre 2024.

The Conversation

Cet article a été édité par le service Environnement de The Conversation à partir de la version longue écrite par Julie Mendret (Maître de conférences, HDR, Université de Montpellier) et Thomas Harmand (Doctorant en droit de l'eau, Aix-Marseille Université).

PDF

02.06.2025 à 17:03

Karol Nawrocki élu président de la Pologne : une mauvaise nouvelle pour l’UE, pour l’Ukraine et pour les Polonaises

Adam Simpson, Senior Lecturer, International Studies, University of South Australia

Bien que le président ait moins de pouvoirs que le premier ministre, la victoire du conservateur Karol Nawrocki ne sera pas sans conséquences, loin de là.
Texte intégral (1895 mots)
Quelques jours avant le second tour qu’il allait remporter, Karol Nawrocki près de l’aéroport de Rzeszow-Jasionka, en Pologne, le 27 mai 2025. La CPAC vise à réunir les conservateurs du monde entier et se décrit comme un forum mondial qui rassemble « des dirigeants publics, des élus, des journalistes, des intellectuels et des citoyens attachés à la liberté, à la souveraineté nationale, à la responsabilité individuelle et à la tradition ». Wojtek Radwanski/AFP, Fourni par l'auteur

Le nouveau président, un historien ouvertement nationaliste largement aligné sur Donald Trump, refuse l’entrée de l’Ukraine dans l’UE et l’OTAN, critique Bruxelles sur de nombreux dossiers et est opposé au droit à l’avortement.


C’est peu dire que le résultat du second tour de l’élection présidentielle polonaise a contrarié, en Pologne et partout ailleurs sur le Vieux continent, les tenants du camp pro-européen.

Historien de formation, Karol Nawrocki, connu pour son nationalisme intransigeant et pour son alignement sur Donald Trump, a battu de justesse le maire libéral et pro-UE de Varsovie, Rafal Trzaskowski, avec 50,89 % des suffrages contre 49,11 %.

Le président polonais a peu de pouvoirs exécutifs, mais il peut opposer son veto à l’adoption de nouvelles lois. Cela signifie que les conséquences de la victoire de Nawrocki seront ressenties avec acuité, tant en Pologne que dans le reste de l’Europe.

Nawrocki, qui s’est fait élire en tant qu’indépendant mais qui sera soutenu par le parti conservateur Droit et Justice (PiS), fera sans aucun doute tout son possible pour empêcher le premier ministre libéral Donald Tusk et la coalition formée autour du parti de celui-ci, la Plate-forme civique, de mettre son programme en œuvre.

Le blocage législatif promis à la Pologne pour les prochaines années pourrait bien voir Droit et Justice revenir au gouvernement lors des élections législatives de 2027, et remettre le pays sur la voie anti-démocratiques que le parti avait empruntée lors de son dernier passage au pouvoir, de 2015 à 2023. Durant ces huit années, le PiS avait notamment affaibli l’indépendance du pouvoir judiciaire polonais en prenant le contrôle des nominations aux plus hautes fonctions judiciaires et à la Cour suprême.

Au-delà de la Pologne elle-même, la victoire de Nawrocki a donné un coup de fouet aux forces pro-Donald Trump, antilibérales et anti-UE à travers le continent. C’est une mauvaise nouvelle pour l’UE et pour l’Ukraine.

La Pologne, nouveau poids lourd du continent

Pendant la majeure partie de la période qui a suivi la Seconde Guerre mondiale, la Pologne n’a eu qu’une influence limitée au niveau européen. Ce n’est plus le cas aujourd’hui. L’économie polonaise est en plein essor depuis l’adhésion à l’UE en 2004. Elle consacre près de 5 % de son produit intérieur brut à la défense, soit près du double de ce qu’elle dépensait en 2022, au moment de l’invasion massive de l’Ukraine par la Russie.

La Pologne possède aujourd’hui une plus grande armée que le Royaume-Uni, que la France ou encore que l’Allemagne. Et son PIB par habitant en parité de pouvoir d’achat vient de dépasser celui du Japon.

Ajoutée au Brexit, cette progression a entraîné un déplacement du centre de gravité de l’UE vers l’est, en direction de la Pologne. Puissance militaire et économique montante de 37 millions d’habitants, la Pologne contribuera à façonner l’avenir de l’Europe.

Quel impact sur l’Ukraine ?

L’influence dont la Pologne bénéficie aujourd’hui en Europe est illustrée de façon éclatante par le rôle central qui est le sien dans l’appui de l’UE à l’Ukraine contre la Russie. On l’a encore constaté lors du récent sommet de la « Coalition des volontaires » à Kiev, où Donald Tusk, aux côtés des dirigeants des principales puissances européennes – la France, l’Allemagne et le Royaume-Uni —, s’est engagé à rehausser le niveau de soutien de l’Union à l’Ukraine et à son président Volodymyr Zelensky.

Ce soutien inconditionnel de la Pologne à l’Ukraine est désormais menacé, car Nawrocki a eu des propos très durs à l’encontre des réfugiés ukrainiens arrivés dans son pays et s’oppose à l’intégration de l’Ukraine à l’UE et à l’OTAN.

Pendant sa campagne, Nawrocki a reçu le soutien de l’administration Trump. Lors de la récente Conservative Political Action Conference, tenue en Pologne, Kristi Noem, la secrétaire à la sécurité intérieure des États-Unis, a déclaré :

 « Nous avons chez nous un leader fort, Donald Trump. Mais vous avez la possibilité d’avoir un leader tout aussi fort si vous faites de Karol le leader de votre pays. »

Trump a d’ailleurs accueilli Nawrocki dans le Bureau ovale alors que celui-ci n’était qu’un simple candidat à la présidence. Il s’agit là d’un écart important par rapport au protocole diplomatique standard des États-Unis, qui consiste à ne pas se mêler des élections à l’étranger.

Nawrocki n’est pas aussi favorable à la Russie que la plupart des autres dirigeants internationaux estampillés « MAGA », mais cela est dû en grande partie à la géographie de la Pologne et à l’histoire de ses relations avec la Russie. La Pologne a été envahie à plusieurs reprises par les troupes russes ou soviétiques dans ses plaines orientales. Elle a des frontières communes avec l’Ukraine ainsi qu’avec le Bélarus, État client de la Russie, et avec la Russie elle-même à travers l’enclave fortement militarisée de Kaliningrad, située sur la mer Baltique.

J’ai fait l’expérience de l’impact que peut avoir sur la Pologne la proximité de ces frontières lors d’un terrain en 2023, quand j’ai effectué un voyage en voiture de Varsovie à Vilnius, la capitale lituanienne, en passant par le corridor de Suwalki.

Cette frontière stratégiquement importante entre la Pologne et la Lituanie, longue de 100 kilomètres, relie les États baltes au reste de l’OTAN et de l’UE au sud. Elle est considérée comme un point d’ignition potentiel si la Russie venait à occuper ce corridor afin d’isoler les États baltes.


À lire aussi : Kaliningrad au cœur de la confrontation Russie-OTAN


Du fait de ce contexte géopolitique, les conservateurs nationalistes polonais sont nettement moins pro-russes que ceux de Hongrie ou de Slovaquie. Nawrocki, par exemple, n’est pas favorable à l’arrêt de l’approvisionnement en armes de l’Ukraine.

Il n’en demeure pas moins que son accession à la présidence Nawrocki ne constitue pas une bonne nouvelle pour Kiev. Pendant la campagne, Nawrocki a déclaré que Zelensky « traite mal la Pologne », reprenant ainsi le type de formules que Trump lui-même aime à employer.

Un pays divisé

L’importance de l’élection s’est traduite par un taux de participation record de près de 73 %.

L’alternative qui se présentait aux électeurs polonais entre Nawrocki et Trzaskowski était extrêmement tranchée.

Trzaskowski souhaitait une libéralisation des lois polonaises sur l’avortement – l’IVG avait de facto été interdite en Pologne sous le gouvernement du PiS – et l’introduction de partenariats civils pour les couples LGBTQ+. Nawrocki s’oppose à de telles mesures et à ces changements et mettra très probablement son veto à toute tentative de loi allant dans ce sens.

Un sondage Ipsos effectué à la sortie des urnes a mis en évidence les divisions sociales qui traversent aujourd’hui le pays.

Comme lors d’autres élections récentes dans le monde, les femmes et les personnes ayant un niveau d’éducation élevé ont majoritairement voté pour le candidat progressiste (Trzaskowski), tandis que la plupart des hommes et des personnes ayant un niveau d’éducation moins élevé ont voté pour le candidat conservateur (Nawrocki).

Après le succès surprise du candidat à la présidence libéral et pro-UE aux élections roumaines il y a quinze jours, les forces pro-UE espéraient un résultat similaire en Pologne. Ces espoirs ont été déçus : les libéraux du continent devront désormais s’engager dans une relation difficile avec ce dirigeant trumpiste de droite qui jouera un rôle majeur au sein d’un pays devenu, à bien des égards, le nouveau cœur battant de l’Europe.

The Conversation

Adam Simpson ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

02.06.2025 à 16:02

Démocraties en danger : pourquoi nous minimisons les risques, selon les sciences du comportement

Ralph Hertwig, Director, Center for Adaptive Rationality, Max Planck Institute for Human Development

Stephan Lewandowsky, Chair of Cognitive Psychology, University of Bristol

Les Européens, qui vivent en démocratie depuis plus de 70 ans, sous-estiment les risques de basculement vers l’autoritarisme car ils n’en ont jamais fait l’expérience.
Texte intégral (1745 mots)
L’éruption du Vésuve par le peintre Pietro Fabris en 1779. Aujourd’hui, 700 000 personnes vivent au pied de ce volcan dangereux, malgré les alertes des vulcanologues. Que nous dit la psychologie sociale de notre rapport au risque, notamment politique ? Wellcome Collection

La psychologie sociale explique pourquoi le risque d’effondrement démocratique n’est pas suffisamment pris au sérieux par les populations qui vivent en démocratie depuis longtemps. Quels outils mobiliser pour amener à une prise de conscience ?


La chute du mur de Berlin en 1989 a ouvert la voie à la démocratisation de nombreux pays d’Europe de l’Est et a triomphalement inauguré l’ère de la démocratie libérale mondiale que certains universitaires ont célébrée comme « la fin de l’histoire ». L’idée était que l’histoire politique de l’humanité aurait suivi une progression inéluctable, culminant avec la démocratie libérale occidentale, perçue comme le point final d’une forme sécurisée de gouvernement. Malheureusement, les événements se sont déroulés quelque peu différemment.

Forte progression de l’extrême droite

Les 20 dernières années n’ont pas suivi la trajectoire du progrès énoncé, encore moins marqué « la fin de l’histoire ». Le succès électoral croissant des partis d’extrême droite dans de nombreux pays occidentaux, de la France à la Finlande, des Pays-Bas à l’Allemagne, a transformé « la fin de l’histoire » en un possible écroulement de la démocratie.

Qu’est-ce qui pousse autant d’Européens à se détourner d’un système politique qui a permis de reconstruire le continent après la Seconde Guerre mondiale et de le transformer en marché unique le plus prospère au monde ?

Les raisons sont multiples : crises économiques, inégalités croissantes, impact négatif des médias sociaux sur le comportement politique, violations des normes démocratiques par les élites. Mais il existe un autre facteur qui est rarement discuté : le pouvoir de l’expérience personnelle.

Au cours des deux dernières décennies, les spécialistes du comportement ont largement exploré la manière dont nos actions sont guidées par nos expériences. La douleur, le plaisir, les récompenses, les pertes, les informations et les connaissances acquises au cours d’événements vécus nous aident à évaluer nos actions passées et à guider nos choix futurs.

Une expérience positive associée à une option donnée augmente la probabilité que celle-ci soit à nouveau choisie ; une expérience négative a l’effet inverse. Cartographier les expériences des individus – en particulier face aux risques de la vie – peut nous éclairer sur des comportements déroutants, comme le fait de construire des habitations sur des zones inondables, en région sismique ou au pied d’un volcan actif.

Des risques mal évalués

La dernière éruption violente du Vésuve, la « bombe à retardement » de l’Europe, date d’il y a 81 ans. Le Vésuve est considéré comme l’un des volcans les plus dangereux au monde. Pourtant, quelque 700 000 habitants vivent dans la « zone rouge » à ses pieds, semblant ignorer les avertissements alarmants des volcanologues.

Pour comprendre cette relative indifférence face à un possible Armageddon, il faut analyser l’expérience individuelle et collective face à ce risque. La plupart des habitants de la zone rouge n’ont jamais vécu personnellement l’éruption du Vésuve. Leur expérience quotidienne leur donne probablement le sentiment rassurant que « tout va bien ».

De nombreuses études psychologiques ont confirmé comment ce type de comportement peut émerger. Notre expérience tend à sous-estimer la probabilité et l’impact des événements rares pour la simple raison qu’ils sont rares.

Les crises exceptionnelles, mais dont la portée est désastreuse, en particulier sur le marché financier, ont été appelés « cygnes noirs ». Les négliger a contribué à une réglementation bancaire insuffisante et à des effondrements majeurs comme la crise financière mondiale de 2008.

Sous-estimation de l’effondrement démocratique

Les populations d’Europe occidentale vivent dans des démocraties prospères depuis plus de 70 ans. Elles ont été épargnées, jusqu’à présent, par les prises de pouvoir autoritaires, et par ce fait, sous-estiment le risque d’un effondrement démocratique.

Paradoxalement, le succès même des systèmes démocratiques peut semer les graines de leur propre destruction. C’est un phénomène comparable au paradoxe de la prévention des maladies : lorsque les mesures préventives, comme les vaccins infantiles, sont efficaces, la perception de leur nécessité diminue, entraînant une méfiance quant à la vaccination.

Une autre connexion inquiétante existe entre l’érosion d’un système démocratique et les expériences vécues par ses citoyens. L’histoire a montré que les démocraties ne s’effondrent pas brutalement, mais périssent lentement, coup par coup, jusqu’à atteindre un point de basculement.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Le public ne perçoit généralement pas un risque pour la démocratie lorsqu’un dirigeant politique rompt avec une convention. Mais lorsque les violations répétées des normes démocratiques par les élites sont tolérées, que les transgressions rhétoriques s’intensifient, et qu’un flot de mensonges et de manipulations devient « normal », le fait que le public ne sanctionne pas ces signes précoces dans les urnes, peut avoir des conséquences dramatiques.

Tout comme une centrale nucléaire peut sembler fonctionner en toute sécurité jusqu’à ce que la dernière soupape de sécurité lâche, une démocratie peut sembler stable jusqu’à basculer dans l’autocratie.

Des solutions contre le basculement autocratique

Un moyen de contrer ces problèmes peut être de simuler l’expérience des risques, même si ce n’est que par procuration. Par exemple, les centres de formation aux catastrophes au Japon miment l’expérience d’un tremblement de terre d’une manière bien plus réaliste que toute alerte sous forme de graphiques.

Nous soutenons qu’il est aussi possible de simuler ce que l’on ressent sous un régime autoritaire. L’Europe accueille des centaines de milliers d’immigrés qui ont subi le joug des autocraties et qui peuvent être invités dans les salles de classe pour partager leur vécu. Les expériences détaillées vécues par procuration sont susceptibles de s’avérer très persuasives.

De même, est-il possible pour tout à chacun de mieux comprendre ce que signifiait être un prisonnier politique en visitant des lieux tels que l’ancienne prison de la Stasi, Hohenschönhausen à Berlin, en particulier lorsque le guide est un ancien détenu. Il existe de nombreuses autres façons de reproduire les traits caractéristiques de l’oppression et de l’autoritarisme, permettant ainsi d’informer ceux qui ont eu la chance de ne jamais les avoir endurés.

L’absence persistante d’événements à risque peut être séduisante et trompeuse. Mais nous ne sommes pas condamnés par ce que nous n’avons pas encore vécu. Nous pouvons également utiliser le pouvoir positif de ces expériences afin de protéger et d’apprécier nos systèmes démocratiques.

The Conversation

Ralph Hertwig remercie la Fondation Volkswagen pour son soutien financier (subvention "Récupérer l'autonomie individuelle et le discours démocratique en ligne : Comment rééquilibrer la prise de décision humaine et algorithmique") et de la Commission européenne (subvention Horizon 2020 101094752 SoMe4Dem).

Stephan Lewandowsky remercie le Conseil européen de la recherche (ERC) pour son soutien financier dans le cadre du programme de recherche et d'innovation Horizon 2020 de l'Union européenne (convention de subvention avancée n° 101020961 PRODEMINFO), la Fondation Humboldt pour une bourse de recherche, la Fondation Volkswagen (subvention ``Reclaiming individual autonomy and democratic discourse online : Comment rééquilibrer la prise de décision humaine et algorithmique"), et la Commission européenne (subventions Horizon 2020 964728 JITSUVAX et 101094752 SoMe4Dem). Il est également financé par Jigsaw (un incubateur technologique créé par Google) et par UK Research and Innovation (par l'intermédiaire du centre d'excellence REPHRAIN et de la subvention de remplacement Horizon de l'UE numéro 10049415).

PDF

02.06.2025 à 16:02

Devoir de vigilance : quel bilan après l’annonce de son retrait par Macron ?

Carla Bader, Assistant Professor en Management et Stratégie, IÉSEG School of Management

Maximiliano Marzetti, Associate Professor of Law, IESEG School of Management, Univ. Lille, CNRS, UMR 9221 - LEM - Lille Économie Management, IÉSEG School of Management

Avec la réforme Omnibus, l’Union européenne opère un retour en arrière sur le dispositif du devoir de vigilance. Avec quel bilan pour les entreprises françaises pionnières ?
Texte intégral (1865 mots)
Lors du sommet Choose France, Emmanuel Macron a appelé à un retrait total de la directive européenne sur le devoir de vigilance. FedericoPestellini/Shutterstock

Avec la réforme « Omnibus », l’Union européenne opère un retour en arrière sur le dispositif du devoir de vigilance. Pour quelles leçons de sa mise en application dans certaines entreprises françaises pionnières ? L’abrogation de la loi française 2017-339, votée à la suite du drame du Rana Plaza en 2013, obligeant les entreprises à prendre en compte les risques sociaux et environnementaux sur l’ensemble de leurs filiales, sera-t-elle envisagée ?


Le 26 février dernier, la Commission européenne présente un paquet de mesures de simplification baptisé « Omnibus ». Elles ont pour effet de reporter, voire supprimer l’application des obligations de vigilance et de reporting pour les entreprises, tout en modifiant leur champ d’application. Cette procédure Omnibus est critiquée pour son calendrier précipité, son manque de débat, l’exclusion des acteurs de la société civile… et un retour en arrière dans la création de normes sociales et environnementales.

Les lois sur le devoir de vigilance sont votées en réaction au scandale du Rana Plaza. En 2013, cet immeuble au Bangladesh abritant des ateliers de textile, sous-traitants de grandes marques comme H&M, s’effondre et entraîne la mort de plus de 1 000 salariés. La France réagit en 2017 avec une loi pionnière. La directive européenne du 13 juin 2024 étend ce concept à l’ensemble de ses États membres. Elle impose aux entreprises – d’au moins 5 000 salariés en France et de plus de 10 000 salariés dans l’Hexagone ayant leur siège social ailleurs dans le monde – de repenser leur approche des risques sociaux, environnementaux et de gouvernance.

Ce dispositif s’étend aux activités de leurs filiales et de leurs partenaires commerciaux. Une façon de responsabiliser les entreprises à tracer tous leurs sous-traitants. Pour mieux comprendre comment les entreprises françaises vivent ces évolutions, nous avons interrogé des managers de terrain dans des secteurs d’activité divers : responsables de conformité, dirigeants en responsabilité sociale et environnementale (RSE) et de contrôle qualité.

Processus itératif

Pour les entreprises interrogées, se conformer à la loi implique des ressources importantes et des capacités organisationnelles solides. Elles attestent de la nécessité à former leurs équipes et développer des systèmes de contrôle performants. C’est pourquoi les départements de conformité jouent un rôle clé, avec divers départements tels le développement durable, les directions d’achats et les équipes de qualité.

Face à une incertitude juridique s’ajoute la complexité des chaînes d’approvisionnement mondiales ; de facto, une grande difficulté dans l’établissement des cartographies de risques. La traçabilité et la transparence deviennent difficiles à assurer, notamment au-delà du premier niveau de sous-traitance où l’identification des partenaires est beaucoup moins aisée. Un dirigeant en RSE dans une entreprise de production et distribution d’articles de sport, questionne la complexité pour connaître les impacts de ses partenaires, fournisseurs ou sous-traitants :

« Si nous sommes capables d’identifier les impacts de notre activité, il n’est pas aussi évident de le faire pour les impacts sectoriels de nos partenaires. Quelle est notre connaissance des impacts du secteur de transport, du e-commerce, des services de prestations informatiques ? »

Adapter les contrats

Si certains fournisseurs sont réticents à partager les informations de leurs partenaires, l’application du devoir de vigilance est caduque pour certaines parties de la chaîne de valeur. Les entreprises n’ont pas d’autres choix que de renégocier leurs contrats avec des clauses spécifiques en matière d’éthique et de conformité ; des négociations souvent longues et potentiellement conflictuelles. Les audits environnementaux, en particulier, sont difficiles à mener en raison de réglementations différentes dans les pays comme le traitement de l’eau et la gestion des déchets par exemple :

« On peut demander des matières recyclées/recyclables à nos fournisseurs, mais comment gèrent-ils leurs déchets si au local ils ne sont pas assujettis à des exigences particulières de traitement des eaux ? », se demande un responsable conformité du secteur de la grande distribution

Pour les groupes opérant dans des secteurs d’activités très différents – tels Elo, Aedo, Engie, LVMH et d’autres –, la demande d’une cartographie unique, censée regrouper tous les risques identifiés, est souvent perçue comme ambiguë, voire inadaptée. Il leur est difficile de produire un document unique à la fois pertinent, opérationnel et fidèle à la diversité de leurs métiers et de leurs chaînes de valeur. Les managers rencontrés soulignent le caractère itératif et évolutif de ce processus, ainsi que l’importance d’ajuster en permanence les pratiques en fonction de la réévaluation continue des risques.


Abonnez-vous dès aujourd’hui !

Chaque lundi, des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH, marketing, finance…).


Orange et Air Liquide en pointe

Le retour d’expérience des professionnels interviewés confirme un bilan positif. Les activités de conformité s’alignant sur des objectifs organisationnels plus larges, notamment les initiatives de RSE, créent souvent un chevauchement significatif entre les rapports extrafinanciers et les obligations du devoir de vigilance. Résultat ? Un effet de levier. Les entreprises s’appuient sur des outils de suivi des risques environnementaux et sociaux ainsi que sur des données extra-financières pour établir leur plan de vigilance et harmoniser leur reporting de durabilité.

Graphique avec la gouvernance du plan de vigilance d’Air Liquide
Le plan de vigilance d’Air Liquide a été salué pour l’évaluation régulière de ses sous-traitants ou ses actions de prévention ciblées ainsi que pour son mécanisme d’alerte développé en collaboration avec les syndicats. Air Liquide, FAL

Certaines entreprises, comme Air Liquide et Orange, se distinguent même par des plans de vigilance exemplaires, récompensés par le prix du Meilleur Plan de vigilance des entreprises du CAC40. Air Liquide a été saluée pour son approche globale et la transparence de la cartographie des risques, l’évaluation régulière de ses sous-traitants, ses actions de prévention ciblées et son mécanisme d’alerte développé en collaboration avec les syndicats. Orange, de son côté, a intégré la vigilance dans les formations de ses employés. Cette valorisation illustre l’importance de stratégies de vigilance solides, fondées sur la transparence, la gouvernance et le dialogue.

Les ONG en partenaire incontournable

Le rôle des ONG dans la mise en œuvre du devoir de vigilance est à la fois essentiel et source de tensions. En France, de nombreux managers reconnaissent que, si les organisations non gouvernementales jouent un rôle clé en matière de défense des droits humains et de l’environnement, leur approche est parfois perçue comme trop dogmatique. Certaines ONG se positionnent en gardiennes absolues des normes éthiques, ce qui freine la possibilité d’un travail réellement collaboratif avec les entreprises.

Sur le dialogue avec les ONG, un responsable RSE dans le secteur du BTP déclare : « Très peu d’ONG collaborent avec nous, et c’est vraiment dommage. Les ONG nous reprochent de faire du profit, mais elles oublient souvent que c’est justement grâce à ce profit qu’on peut investir dans des solutions durables ou dans des outils techniques pour mesurer notre impact environnemental. Il y a quand même quelque chose de vertueux dans le profit – ce n’est pas le diable. »

Les attentes sont souvent mal alignées : les ONG méconnaissent parfois les contraintes opérationnelles, juridiques et économiques auxquelles sont confrontées les entreprises, rendant les échanges difficiles et parfois peu productifs. Une coopération plus ouverte entre entreprises et ONG serait pourtant cruciale.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

02.06.2025 à 16:01

Vocabulaire et diversité linguistique : comment l’IA appauvrit le langage

Guillaume Desagulier, Professeur de linguistique anglaise, Université Bordeaux Montaigne

Dans un futur proche, la proportion de données en langage naturel sur le Web pourrait diminuer au point d’être éclipsée par des textes générés par l’Intelligence artificielle.
Texte intégral (1894 mots)

Les agents conversationnels tels que ChatGPT facilitent parfois notre quotidien en prenant en charge des tâches rébarbatives. Mais ces robots intelligents ont un coût. Leur bilan carbone et hydrique désastreux est désormais bien connu. Un autre aspect très préoccupant l’est moins : l’intelligence artificielle pollue les écrits et perturbe l’écosystème langagier, au risque de compliquer l’étude du langage.


Une étude publiée en 2023 révèle que l’utilisation de l’intelligence artificielle (IA) dans les publications scientifiques a augmenté significativement depuis le lancement de ChatGPT (version 3.5). Ce phénomène dépasse le cadre académique et imprègne une part substantielle des contenus numériques, notamment l’encyclopédie participative Wikipedia ou la plate-forme éditoriale états-unienne Medium.

Le problème réside d’abord dans le fait que ces textes sont parfois inexacts, car l’IA a tendance à inventer des réponses lorsqu’elles ne figurent pas dans sa base d’entraînement. Il réside aussi dans leur style impersonnel et uniformisé.

La contamination textuelle par l’IA menace les espaces numériques où la production de contenu est massive et peu régulée (réseaux sociaux, forums en ligne, plates-formes de commerce…). Les avis clients, les articles de blog, les travaux d’étudiants, les cours d’enseignants sont également des terrains privilégiés où l’IA peut discrètement infiltrer des contenus générés et finalement publiés.

La tendance est telle qu’on est en droit de parler de pollution textuelle. Les linguistes ont de bonnes raisons de s’en inquiéter. Dans un futur proche, la proportion de données en langues naturelles sur le Web pourrait diminuer au point d’être éclipsée par des textes générés par l’IA. Une telle contamination faussera les analyses linguistiques et conduira à des représentations biaisées des usages réels du langage humain. Au mieux, elle ajoutera une couche de complexité supplémentaire à la composition des échantillons linguistiques que les linguistes devront démêler.


À lire aussi : L’IA au travail : un gain de confort qui pourrait vous coûter cher


Quel impact sur la langue ?

Cette contamination n’est pas immédiatement détectable pour l’œil peu entraîné. Avec l’habitude, cependant, on se rend compte que la langue de ChatGPT est truffée de tics de langage révélateurs de son origine algorithmique. Il abuse aussi bien d’adjectifs emphatiques, tels que « crucial », « essentiel », « important » ou « fascinant », que d’expressions vagues (« de nombreux… », « généralement… »), et répond très souvent par des listes à puces ou numérotées. Il est possible d’influer sur le style de l’agent conversationnel, mais c’est le comportement par défaut qui prévaut dans la plupart des usages.

Un article de Forbes publié en décembre 2024 met en lumière l’impact de l’IA générative sur notre vocabulaire et les risques pour la diversité linguistique. Parce qu’elle n’emploie que peu d’expressions locales et d’idiomes régionaux, l’IA favoriserait l’homogénéisation de la langue. Si vous demandez à un modèle d’IA d’écrire un texte en anglais, le vocabulaire employé sera probablement plus proche d’un anglais global standard et évitera des expressions typiques des différentes régions anglophones.

L’IA pourrait aussi simplifier considérablement le vocabulaire humain, en privilégiant certains mots au détriment d’autres, ce qui conduirait notamment à une simplification progressive de la syntaxe et de la grammaire. Comptez le nombre d’occurrences des adjectifs « nuancé » et « complexe » dans les sorties de l’agent conversationnel et comparez ce chiffre à votre propre usage pour vous en rendre compte.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Ce qui inquiète les linguistes

La linguistique étudie le langage comme faculté qui sous-tend l’acquisition et l’usage des langues. En analysant les occurrences linguistiques dans les langues naturelles, les chercheurs tentent de comprendre le fonctionnement des langues, qu’il s’agisse de ce qui les distingue, de ce qui les unit ou de ce qui en fait des créations humaines. La linguistique de corpus se donne pour tâche de collecter d’importants corpus textuels pour modéliser l’émergence et l’évolution des phénomènes lexicaux et grammaticaux.

Les théories linguistiques s’appuient sur des productions de locuteurs natifs, c’est-à-dire de personnes qui ont acquis une langue depuis leur enfance et la maîtrisent intuitivement. Des échantillons de ces productions sont rassemblés dans des bases de données appelées corpus. L’IA menace aujourd’hui la constitution et l’exploitation de ces ressources indispensables.

Pour le français, des bases comme Frantext (qui rassemble plus de 5 000 textes littéraires) ou le French Treebank (qui contient plus de 21 500 phrases minutieusement analysées) offrent des contenus soigneusement vérifiés. Cependant, la situation est préoccupante pour les corpus collectant automatiquement des textes en ligne. Ces bases, comme frTenTen ou frWaC, qui aspirent continuellement le contenu du Web francophone, risquent d’être contaminées par des textes générés par l’IA. À terme, les écrits authentiquement humains pourraient devenir minoritaires.

Les corpus linguistiques sont traditionnellement constitués de productions spontanées où les locuteurs ignorent que leur langue sera analysée, condition sine qua non pour garantir l’authenticité des données. L’augmentation des textes générés par l’IA remet en question cette conception traditionnelle des corpus comme archives de l’usage authentique de la langue.

Alors que les frontières entre la langue produite par l’homme et celle générée par la machine deviennent de plus en plus floues, plusieurs questions se posent : quel statut donner aux textes générés par l’IA ? Comment les distinguer des productions humaines ? Quelles implications pour notre compréhension du langage et son évolution ? Comment endiguer la contamination potentielle des données destinées à l’étude linguistique ?

Une langue moyenne et désincarnée

On peut parfois avoir l’illusion de converser avec un humain, comme dans le film « Her » (2013), mais c’est une illusion. L’IA, alimentée par nos instructions (les fameux « prompts »), manipule des millions de données pour générer des suites de mots probables, sans réelle compréhension humaine. Notre IA actuelle n’a pas la richesse d’une voix humaine. Son style est reconnaissable parce que moyen. C’est le style de beaucoup de monde, donc de personne.

Bande annonce du film « Her » (2013) de Spike Jonze.

À partir d’expressions issues d’innombrables textes, l’IA calcule une langue moyenne. Le processus commence par un vaste corpus de données textuelles qui rassemble un large éventail de styles linguistiques, de sujets et de contextes. Au fur et à mesure l’IA s’entraîne et affine sa « compréhension » de la langue (par compréhension, il faut entendre la connaissance du voisinage des mots) mais en atténue ce qui rend chaque manière de parler unique. L’IA prédit les mots les plus courants et perd ainsi l’originalité de chaque voix.

Bien que ChatGPT puisse imiter des accents et des dialectes (avec un risque de caricature), et changer de style sur demande, quel est l’intérêt d’étudier une imitation sans lien fiable avec des expériences humaines authentiques ? Quel sens y a-t-il à généraliser à partir d’une langue artificielle, fruit d’une généralisation déshumanisée ?

Parce que la linguistique relève des sciences humaines et que les phénomènes grammaticaux que nous étudions sont intrinsèquement humains, notre mission de linguistes exige d’étudier des textes authentiquement humains, connectés à des expériences humaines et des contextes sociaux. Contrairement aux sciences exactes, nous valorisons autant les régularités que les irrégularités langagières. Prenons l’exemple révélateur de l’expression « après que » : normalement suivie de l’indicatif, selon les livres de grammaire, mais fréquemment employée avec le subjonctif dans l’usage courant. Ces écarts à la norme illustrent parfaitement la nature sociale et humaine du langage.

La menace de l’ouroboros

La contamination des ensembles de données linguistiques par du contenu généré par l’IA pose de grands défis méthodologiques. Le danger le plus insidieux dans ce scénario est l’émergence de ce que l’on pourrait appeler un « ouroboros linguistique » : un cycle d’auto-consommation dans lequel les grands modèles de langage apprennent à partir de textes qu’ils ont eux-mêmes produits.

Cette boucle d’autorenforcement pourrait conduire à une distorsion progressive de ce que nous considérons comme le langage naturel, puisque chaque génération de modèles d’IA apprend des artefacts et des biais de ses prédécesseurs et les amplifie.

Il pourrait en résulter un éloignement progressif des modèles de langage humain authentique, ce qui créerait une sorte de « vallée de l’étrange » linguistique où le texte généré par l’IA deviendrait simultanément plus répandu et moins représentatif d’une communication humaine authentique.

The Conversation

Guillaume Desagulier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

02.06.2025 à 16:00

L’action internationale pour la biodiversité, l’autre victime de Donald Trump ?

Camille Mazé-Lambrechts, Directrice de recherche en science politique au CNRS, titulaire de la chaire Outre-mer et Changements globaux du CEVIPOF (Sciences Po), fondatrice du réseau de recherche international Apolimer, Officier de réserve Marine nationale CESM/Stratpol, Sciences Po

Jordan Hairabedian, Enseignant en climat, biodiversité et transformations socio-environnementales, Sciences Po

Mathieu Rateau, Assistant researcher en politiques environnementales., Sciences Po

Dès le premier mandat Trump et depuis son retour en janvier dernier à la Maison Blanche, les positions des États-Unis ont influencé négativement les engagements pour la biodiversité ailleurs dans le monde.
Texte intégral (2422 mots)

Une ombre nommée Donald Trump devrait planer sur la troisième Conférence des Nations unies sur l’océan (Unoc 3), qui va se dérouler à Nice (Alpes-Maritimes), en juin 2025. Dès son premier mandat et depuis son retour en janvier dernier à la Maison Blanche, Trump a altéré les positions des États-Unis. Celles-ci ont influencé négativement les engagements pour la biodiversité ailleurs dans le monde. Y compris en Europe, quoi qu’indirectement.


Le climat n’est pas le seul enjeu international à souffrir des décisions prises par le président américain Donald Trump, qui vont à l’encontre du consensus scientifique mondial sur l’environnement.

De fait, celui-ci a déjà retiré les États-Unis de l’accord de Paris sur le climat, a fait disparaître l’expression même de « changement climatique » des sites de l’administration, a rétropédalé sur des mesures telles que l’interdiction des pailles en plastique et continue de soutenir les hydrocarbures et leur exploitation. De telles politiques vont à l’encontre des besoins des populations, tels que définis par la campagne One Planet, One Ocean, One Health, par exemple.

De telles décisions affectent la transition socio-écologique globale dans son ensemble, y compris en dehors des États-Unis. L’action internationale pour préserver la biodiversité devrait donc également en pâtir. Une question cruciale alors que va débuter la troisième Conférence des Nations unies pour l’océan (Unoc 3) et que les tensions se renforcent sur les arbitrages à réaliser entre climat, biodiversité, économie et autres enjeux de société.

Nous aborderons ici deux cas d’étude pour comprendre comment les politiques trumpiennes peuvent influencer le reste du monde en matière de multilatéralisme pour la biodiversité : d’abord la COP 16 biodiversité, à Cali (Colombie), qui s’est récemment conclue à Rome en février 2025, puis le Pacte vert pour l’Europe, ensemble de textes qui doivent permettre à l’Union européenne (UE) d’atteindre la neutralité carbone à l’horizon 2050 et d’établir un vaste réseau de zones protégées, sur terre et en mer (30 %).


Participez au webinaire The Conversation France / Normandie pour la Paix, jeudi 19 juin à 18h : « Environnement et sécurité : quelle place pour l’Europe sur la scène mondiale ? » - Inscription gratuite ici


Des avancées à la COP 16 malgré le contexte international défavorable

La COP 16 sur la biodiversité, qui s’est tenue à Cali (Colombie) du 21 octobre au 1er novembre 2024, avait pour objectif d’accélérer la mise en œuvre du Cadre mondial de la biodiversité de Kunming-Montréal. Celui-ci est l’équivalent de l’accord de Paris sur le climat.

Il prévoit notamment la conservation de 30 % des zones terrestres, des eaux intérieures et des zones côtières et marines, la restauration de 30 % des écosystèmes dégradés, tout en finançant l’action biodiversité à l’international. Ce dernier point fut le principal point de tension lors des négociations lors de la COP 16.

Les États-Unis ne sont pas membres de la Convention sur la diversité biologique (CDB), adoptée en 1992 lors du Sommet de la Terre à Rio, qui est l’un des textes fondateurs de la diplomatie internationale en matière de biodiversité. Mais ils influencent les discussions par leur poids économique et politique.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


L’élection de Trump, survenue peu après la COP 16, et son retrait renouvelé de l’accord de Paris accompagné de politiques pro-fossiles ont rapidement assombri les perspectives de coopération internationale. Ce revirement a affaibli la confiance dans les engagements multilatéraux et a rendu plus difficile la mobilisation de fonds pour la préservation de l’environnement et la conservation de la biodiversité.


À lire aussi : La COP16 de Cali peut-elle enrayer l’effondrement de la biodiversité ?


Malgré ce contexte international préoccupant, la COP 16 a pu aboutir à des avancées notables pour donner davantage de place au lien entre biodiversité et changement climatique, laissant espérer une appréhension plus transversale de la protection de l’environnement. De fait, la deuxième partie des négociations, en février 2025, a permis d’aboutir à un accord sur les financements.

La stratégie adoptée, qui doit être déployée sur cinq ans, est supposée permettre de débloquer les 200 milliards de dollars nécessaires à la mise en œuvre du Cadre mondial de la biodiversité. Toutefois, comme certaines des cibles de ce cadre doivent être atteintes d’ici 2030, le risque est que le délai soit trop court pour permettre la mobilisation des ressources nécessaires.

En parallèle, une décision historique a permis la création d’un organe de représentation permanent des peuples autochtones ainsi que la reconnaissance du rôle des communautés afro-descendantes, afin que leurs positions soient mieux prises en compte dans les négociations. La contribution des peuples autochtones à la conservation de la biodiversité est effectivement reconnue par la CDB, bien que son ampleur soit discutée.

La COP 16 a également permis des progrès en termes de protection des océans. Une décision y a ainsi défini des procédures pour décrire les zones marines d’importance écologique et biologique (en anglais, EBSA, pour Ecologically or Biologically Significant Marine Areas).

Ceci constitue l’aboutissement de 14 ans de négociations et ouvre la voie à la création d’aires protégées en haute mer et à des synergies potentielles avec le Traité de la haute mer (Biodiversity Beyond National Jurisdiction, BBNJ).

Ce traité reste bien plus significatif que l’EBSA, ce dernier n’ayant pas de dimension contraignante. Le problème reste qu’à ce jour, seuls 29 États ont ratifié cet accord alors qu’il en nécessite 60. La perspective d’une ratification de l’accord BBNJ par les États-Unis sous la présidence de Donald Trump semble bien improbable, d’autant plus depuis la signature d’un décret en avril 2025 pour autoriser l’exploitation minière des grands fonds marins en haute mer, au-delà des zones économiques exclusives.

Comment le Pacte vert européen s’est réinventé sous le vent trumpiste

Le vent des politiques trumpistes souffle jusque sur les côtes du continent européen. Depuis le premier mandat de Donald Trump entre 2016 et 2020 et ses décisions anti-environnementales, l’Europe a, elle aussi, ajusté ses politiques en matière d’action environnementale.

Annoncé en 2019 pour la décennie 2020-2030, le Pacte vert européen (Green Deal) a récemment cherché à se réinventer face aux décisions américaines. Dès les élections européennes de juin 2024, le Parlement s’est renforcé à sa droite et à son extrême droite, motivant une évolution de ses politiques internes.

Ainsi, en réaction au culte des énergies fossiles outre-Atlantique, l’Union européenne a récemment développé certaines dimensions du Green Deal destinées à mettre la focale sur les technologies bas carbone en Europe. En février 2025, le Pacte pour une industrie propre (Clean Industrial Deal) a ainsi été présenté, en cohérence avec le rapport Draghi de septembre 2024. Ce dernier s’inscrivait dans une logique libérale en faveur d’une stratégie de dérégulation.

Cela étant, les solutions présentées comme contribuant à la réduction des émissions de gaz à effet de serre dans le Pacte pour une industrie propre n’ont pas toujours des effets bénéfiques en matière de biodiversité. Les bioénergies, les technologies de stockage du carbone ou encore l’hydroénergie présentent des externalités négatives – c’est-à-dire, des effets indésirables – notables pour le vivant.

Il est intéressant de noter qu’à l’inverse, très peu d’actions en faveur de la biodiversité nuisent à l’action climatique, comme le montre le schéma ci-dessus. C’est ce qu’ont démontré le Giec et la Plateforme intergouvernementale scientifique et politique sur la biodiversité et les services écosystémiques (IPBES) (l’instance onusienne équivalente pour la biodiversité), dans leur rapport commun de 2021, une première.

Plusieurs reculs européens sur l’environnement

En parallèle, ces volontés de dérégulation ont contribué à détricoter plusieurs mesures environnementales clés pour l’UE. Or, ces ajustements risquent de compromettre les efforts de protection de la biodiversité tout au long des chaînes de valeur économique :

  • les réglementations relatives aux critères environnement-social-gouvernance (ESG) vont être simplifiées, ce qui devrait marquer un net recul en matière de transparence et d’incitation à l’action pour les entreprises ;

  • la directive qui impose aux entreprises la publication d’informations sur la durabilité (CSRD), bien qu’elle conserve la biodiversité dans son périmètre ainsi que l’approche en double matérialité, a vu son impact réduit par l’exclusion de 80 % des organisations initialement concernées et par plusieurs reports d’application ;

  • même la taxonomie environnementale de l’UE, outil clé pour classifier des activités économiques ayant un impact favorable sur l’environnement, a vu son périmètre revu à la baisse, ce qui limitera les effets incitatifs qu’elle devait avoir sur la transition écologique pour orienter les financements.

  • Enfin, la directive sur le devoir de vigilance (CSDDD) a été édulcorée en adoptant la vision allemande. Les impacts socio-environnementaux devront être analysés uniquement au niveau des sous-traitants directs. Cela exclut du périmètre des maillons critiques comme les exploitations agricoles, qui sont les plus en lien avec la biodiversité.

Malgré ces renoncements, plusieurs politiques publiques importantes pour la biodiversité ont pu être maintenues.

C’est notamment le cas de la Stratégie biodiversité 2030 de l’UE, de la loi sur la restauration de la nature et de la loi contre la déforestation importée (bien que reportée d’un an dans son application).

Un paquet spécifique sur l’adaptation est également attendu d’ici fin 2025 dans le cadre du Programme Horizon Europe 2025, dont la consultation publique s’est récemment terminée.

Ainsi, l’action pour le climat et la biodiversité est à la croisée des chemins. Plus que jamais, il appartient à la communauté internationale de défendre un cadre de gouvernance robuste fondé sur la science et la solidarité pour que la préservation de la biodiversité ne soit pas sacrifiée sur l’autel de la rentabilité immédiate.

Au-delà des déclarations d’intention, il faut mettre en place cette gouvernance de façon efficace, à travers des mesures politiques, des outils de protection et de surveillance adaptés, et surtout, à travers l’adaptation du droit. Une telle transdisciplinarité se révèle ici déterminante pour la solidarité écologique. En ce sens, l’Unoc est une bonne occasion, pour l’UE, de rester unie et forte face à la volonté de Trump de débuter l’exploration et l’exploitation des grands fonds marins.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

02.06.2025 à 15:56

Négociations Washington-Téhéran : un accord imminent sur le nucléaire iranien ?

Kevan Gafaïti, Enseignant à Sciences Po Paris en Middle East Studies, Président-fondateur de l'Institut des Relations Internationales et de Géopolitique, doctorant en science politique - relations internationales au Centre Thucydide, Université Paris-Panthéon-Assas

Donald Trump espère obtenir un de ses fameux « deals » en signant un accord avec l’Iran sur le programme nucléaire de ce dernier. Mais il reste bien des obstacles…
Texte intégral (2353 mots)

Des discussions directes sont en cours entre les représentants de l’administration Trump et ceux de l’Iran. Objectif : aboutir à un accord encadrant le programme nucléaire iranien et permettant à Washington de s’assurer que Téhéran ne pourra jamais se doter de l’arme atomique. En contrepartie, l’Iran obtiendrait la levée des sanctions économiques dont il fait l’objet. Mais après les nombreuses tractations passées et l’échec de l’accord de Vienne signé en 2015 et que Trump avait quitté lors de son premier mandat, la plus grande prudence est de mise.


« Je veux que l’Iran soit un pays merveilleux, grand et heureux, mais ils ne peuvent pas avoir d’arme nucléaire », déclarait en avril dernier Donald Trump, détonant avec son ton usuellement très véhément à l’encontre de la République islamique d’Iran, qu’il qualifiait, il y a quelques années encore, de « plus grand État sponsorisant le terrorisme ».

Si Trump se montre aujourd’hui plus avenant envers Téhéran, cela s’explique par un contexte international qui semblait difficile à imaginer il y a peu : Iraniens et Américains négocient de manière bilatérale et directe – et ce, à l’initiative du locataire de la Maison Blanche. Le déroulement de ces discussions – dont l’objectif annoncé est de parvenir à un accord encadrant le programme nucléaire iranien en contrepartie de la levée de sanctions économiques américaines – renforce chaque jour la possibilité d’une entente entre ces deux États systémiquement opposés depuis 1979.

La prudence est cependant de mise, tous les scénarios restant possibles – d’un accord approfondi à un échec des négociations et une confrontation ouverte au Moyen-Orient.

Des négociations opaques laissant entrevoir des avancées concrètes

Depuis le début de l’année 2025, des discussions directes et bilatérales entre les États-Unis et l’Iran sur le programme nucléaire de ce dernier ont été annoncées en grande pompe, mais leur contenu est et reste complètement opaque.

Menées en avril à Mascate, capitale du sultanat d’Oman, sous l’égide du ministre omanais des affaires étrangères Badr bin Hamad al-Busaidi, ces négociations ont connu plusieurs séquences, à Rome puis de nouveau à Oman, un quatrième round prévu pour le 3 mai ayant finalement été reporté.

Si aucun communiqué officiel ni image n’a filtré, des déclarations de part et d’autre laissent entrevoir une désescalade réelle et des avancées tangibles. Le vice-président américain J. D. Vance a, par exemple, déclaré le 7 mai que les négociations étaient « sur la bonne voie ».

La médiation discrète, mais efficace, d’Oman a ainsi permis de rétablir des canaux de communication (à l’image de l’accord de Vienne, ou JCPOA de 2015, dont les négociations secrètes entre Iraniens et Américains s’étaient également déroulées à Mascate).

Washington exige un arrêt net de l’enrichissement de l’uranium, estimant que le niveau actuel est trop élevé. Téhéran souligne, pour sa part, son droit à un nucléaire civil. Malgré des divergences de fond, les deux parties partagent désormais un langage commun : celui du compromis pragmatique. Le ministre iranien des affaires étrangères Abbas Araghchi qualifie de « constructifs » ces échanges bilatéraux, tandis que le Guide suprême Ali Khamenei, plus circonspect, estime que certaines exigences américaines restent « excessives et scandaleuses ».

Le caractère fastidieux des négociations ne saurait masquer le fait que le dialogue se poursuit, avec une fréquence inédite depuis 2018 et la sortie américaine du JCPOA, ce qui dévoile un infléchissement stratégique majeur de part et d’autre. Dans cette séquence encore incertaine, le choix d’Oman, acteur patient et neutre, symbolise une volonté commune d’éviter la rupture et d’explorer les marges d’un possible accord.

Un accord sur le nucléaire iranien, un scénario désormais crédible

Malgré des tensions persistantes et la difficulté de déceler précisément les points d’achoppement dans ces discussions, les négociations entre les États-Unis et l’Iran ont progressé vers ce qui pourrait être un accord-cadre bilatéral, en dehors du cadre du Conseil de sécurité des Nations unies ou du P5+1 (le groupe des cinq membres permaments du Conseil de sécurité + l’Allemagne). Donald Trump a même annoncé le 15 mai que l’Iran aurait « en quelque sorte » accepté les termes d’un futur accord.

Après des échanges d’ordre politique à Oman, Téhéran et Washington sont, selon Mascate, convenus de s’entendre sur des aspects techniques du programme nucléaire iranien. Sur une base régulière quasi hebdomadaire, les négociateurs américains et iraniens se retrouvent ainsi à Rome et à Mascate pour former des groupes de travail et établir un cadre général de discussions.

Le contenu précis d’un potentiel accord reste cependant difficile à déterminer, tant les parties elles-mêmes sont encore en phase de tractation, sans qu’aucune information officielle et substantielle ne filtre. Il est cependant possible d’avancer que s’il y avait un nouvel accord, ce dernier serait bien différent du JCPOA de 2015, tant la situation présente est distincte de celle d’il y a dix ans.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Depuis la constatation de l’obsolescence de l’accord de Vienne causée par le retrait américain de 2018, l’Iran enrichit son uranium à environ 60 % selon l’AIEA (ce qui est techniquement proche de l’enrichissement à 90 % nécessaire pour fabriquer une arme nucléaire). Pourtant, Téhéran n’a jamais explicitement affirmé vouloir développer une arme atomique, arguant même d’une fatwa du Guide suprême Khamenei qualifiant une telle arme de « contre-islamique » par nature. Les États-Unis, pour leur part, semblent chercher à conclure rapidement un accord, Trump espérant obtenir « son deal » après avoir fait échouer celui négocié par l’administration Obama.

Les demandes américaines se cantonnent au seul domaine nucléaire (écartant d’office d’autres sujets, comme la politique régionale de Téhéran ou son programme balistique) sans vouloir s’encombrer d’un accord aussi technique que celui de 2015, long de plusieurs centaines de pages : Donald Trump déclarait ainsi à la mi-mai qu’il n’avait « pas besoin de 30 pages de détail. Cela tient en une phrase : ils ne peuvent pas avoir d’arme nucléaire. »

La persistance de défis majeurs avant un accord

Bien que des avancées notables dans ces négociations se fassent jour (le principe même que Téhéran et Washington renouent le dialogue est positif en soi), de réels défis restent à surmonter avant la conclusion d’un accord nucléaire durable. Aux divergences et voix dissonantes au sein même des deux États impliqués s’ajoutent des tensions régionales, Israël et les monarchies arabes du golfe Persique étant réfractaires, à des degrés divers, à un accord Téhéran-Washington.

Côté iranien, le Guide suprême Ali Khamenei estime que certaines exigences américaines sont « dépourvues de sens » et fait preuve d’un lourd scepticisme quant à l’issue des pourparlers. Le ministre iranien des affaires étrangères a ainsi récemment rappelé que l’enrichissement de l’uranium iranien était un droit « non négociable ».

Côté états-unien, bien que l’administration Trump puisse conclure un accord exécutif sans l’aval du Congrès, le pouvoir législatif est un paramètre incontournable dans ces négociations avec l’Iran. Alors que la perspective des élections de mi-mandat, traditionnellement défavorables au parti présidentiel, commence à peser sur les équilibres politiques, le Congrès a exprimé le 8 mai 2025, par une résolution non contraignante, une opposition significative menaçant la pérennité de tout accord. Bien que majoritaires à la Chambre des représentants et au Sénat, les élus républicains restent usuellement farouchement opposés à tout rapprochement ou accord avec l’Iran, qui pourrait être perçu comme une forme de faiblesse à leurs yeux. Par ailleurs, des groupes de pression pro-israéliens tels que l’AIPAC (American Israel Public Affairs Committee) ou le CUFI (Christians United for Israel) pèsent de tout leur poids pour s’opposer à un tel rapprochement.


À lire aussi : Le sionisme chrétien, une influence majeure sur la nouvelle administration Trump


Côté Moyen-Orient enfin, Israël se cantonne à un réflexe pavlovien, affirmant depuis des décennies que l’Iran serait sur le point d’obtenir l’arme nucléaire, ce qui constituerait une menace existentielle à son encontre. Tel-Aviv s’est maintes fois dit prêt à lancer une action militaire unilatérale contre les installations nucléaires iraniennes, quitte à justement déclencher une escalade incontrôlable. Benyamin Nétanyahou, reçu à Washington par le président Trump début avril, n’a pas fait varier sa ligne sur ce sujet.

Les monarchies arabes du golfe Persique suivent également ce dossier de près et ont adopté une position plus mesurée qu’il y a dix ans : elles cherchent à s’assurer du parrainage politique de Washington et de sa protection contre toute menace réelle ou potentielle, iranienne ou infra-étatique. Ces mêmes États arabes du golfe Persique renouvellent par ailleurs un dialogue fourni avec l’Iran.

Les Européens, définitivement hors jeu du dossier nucléaire iranien ?

Si l’Union européenne a longtemps incarné un médiateur diplomatique central dans les négociations nucléaires avec l’Iran, elle semble aujourd’hui complètement délaissée. Avec l’échec du JCPOA et son incapacité à maintenir des relations économiques (malgré INSTEX, mécanisme de troc avec l’Iran lancé par les Européens), l’UE a malheureusement perdu en crédibilité aux yeux de Téhéran, l’alignement de facto sur les sanctions extraterritoriales américaines dès mai 2018 achevant la confiance iranienne.

Les négociations de Vienne, pourtant lancées dès 2021 par l’administration Biden et auxquelles les diplomates européens continuent de participer, n’ont jamais abouti à un résultat concret et rien ne semble indiquer une évolution à cet endroit. Pis encore, l’auteur a relevé au cours d’entretiens avec des diplomates des pays européens signataires du JCPOA qu’ils n’étaient ni informés ni consultés par leurs homologues transatlantiques, qui les laissent complètement dans l’ignorance quant au lancement et au déroulé de leurs négociations bilatérales.

Cette marginalisation est aujourd’hui diplomatique et serait demain économique en cas d’accord : la perspective d’une levée des sanctions américaines primaires (c’est-à-dire visant uniquement les entités américaines) s’accompagnerait d’un maintien voire d’un durcissement des sanctions secondaires (s’appliquant de facto aux entités non américaines, donc européennes). Le marché iranien (90 millions de consommateurs férus de produits occidentaux) serait alors ouvert exclusivement aux États-Unis, laissant les Européens complètement hors jeu. Cela serait le produit non pas d’un désintérêt européen pour la question, mais le signe d’une perte de crédibilité stratégique et économique de Bruxelles. Sans bouclier bancaire crédible et levier politique autonome et sincère, les Européens (et la France au premier rang) sont durablement exclus du « Grand Jeu » iranien.

The Conversation

Kevan Gafaïti ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

02.06.2025 à 15:56

Océan et climat : quelles options pour demain ? Un regard sur la recherche en France

Devi Veytia, Dr, École normale supérieure (ENS) – PSL

Adrien Comte, Chargé de recherche, Institut de recherche pour le développement (IRD)

Frédérique Viard, Directrice de recherche en biologie marine, Université de Montpellier

Jean-Pierre Gattuso, Research Professor, CNRS, Iddri, Sorbonne Université

Laurent Bopp, Research Professor, CNRS, École normale supérieure (ENS) – PSL

Marie Bonnin, Research Director in marine environmental law, Institut de recherche pour le développement (IRD)

Yunne Shin, Chercheuse en écologie marine, Institut de recherche pour le développement (IRD)

Le congrès de l’ONU sur les océans débutera à Nice, le 9 juin. Comment l’océan peut-il nous aider à atténuer le changement climatique et à nous y adapter ? La recherche française est mobilisée.
Texte intégral (3576 mots)

Dans quelques jours, la troisième Conférence des Nations unies sur l’océan (Unoc 3) se tiendra en France, à Nice (Alpes-Maritimes). Elle réunira des dirigeants, des décideurs, des scientifiques et des parties prenantes du monde entier dans le but « d’accélérer l’action et de mobiliser tous les acteurs pour conserver et utiliser durablement l’océan », avec à la clé, peut-être, un « accord de Nice » qui serait constitué d’une déclaration politique négociée à l’ONU et de déclarations volontaires — c’est, du moins, l’objectif des organisateurs, la France et le Costa Rica.

Pour soutenir ces décisions, des informations scientifiques sont indispensables – quel est le statut des recherches dans le monde et, en France, pour exploiter les solutions que l’océan peut offrir face à la crise climatique ?


La France joue un rôle essentiel pour progresser vers l’objectif de conserver et utiliser durablement l’océan, puisqu’avec la deuxième plus grande zone économique exclusive du monde, elle détient une grande partie du pouvoir d’orientation concernant l’utilisation des ressources océaniques.

Cependant, remplir un mandat aussi nécessaire qu’ambitieux d’accélération et de mobilisation de l’action ne sera pas simple. Les discussions de l’Unoc 3 se dérouleront dans un contexte où l’océan est confronté à des défis sans précédent dans l’histoire de l’humanité, notamment en raison des impacts de plus en plus prégnants du changement climatique.

Ces effets se manifestent avec une intensité croissante dans toutes les régions du monde, de la surface aux eaux les plus profondes de l’océan Austral autour du continent antarctique aux zones côtières densément peuplées où les risques climatiques s’accumulent, affectant notamment les pêcheries.

Les options fondées sur l’océan pour atténuer le changement climatique (par exemple en utilisant des énergies renouvelables marines qui limitent l’émission de gaz à effet de serre) et s’adapter à ses impacts (par exemple en construisant des digues) sont essentielles.

Pour optimiser leur déploiement, une synthèse exhaustive et objective des données scientifiques est indispensable. En effet, une évaluation incomplète des preuves disponibles pourrait en effet conduire à des conclusions biaisées, mettant en avant certaines options comme particulièrement adaptées tout en négligeant leurs effets secondaires ou des lacunes critiques dans les connaissances.

Au milieu de ce maelström de défis, quelle est la contribution de la France à la recherche et au déploiement d’options fondées sur l’océan ?

Grâce à une étude de 45 000 articles publiés entre 1934 à 2023, nous montrons que les chercheurs français publient une part importante des recherches scientifiques mondiales sur les options d’adaptation, mais qu’il reste néanmoins de nombreux leviers d’actions.

Par exemple, l’expertise scientifique française pourrait être développée au service de recherches sur l’adaptation des petits États insulaires en développement, qui sont particulièrement vulnérables au changement climatique. Par ailleurs, il conviendrait d’amplifier les recherches sur les options d’atténuation, par exemple dans le domaine des énergies marines renouvelables.

Les options fondées sur l’océan, c’est quoi ?

L’océan couvre 70 % de la surface de la Terre et a absorbé 30 % des émissions humaines de dioxyde de carbone. Pourtant, jusqu’à récemment, il était négligé dans la lutte contre le changement climatique.

Aujourd’hui, de nombreuses options fondées sur l’océan émergent dans les dialogues entre scientifiques, décideurs politiques et citoyens. Ces « options fondées sur l’océan » concernent des actions qui :

  • atténuent le changement climatique et ses effets en utilisant les écosystèmes océaniques et côtiers pour réduire les émissions de gaz à effet de serre atmosphériques ; il s’agit ici par exemple d’interventions utilisant l’océan pour la production d’énergie renouvelable ;

  • soutiennent l’adaptation des communautés et des écosystèmes côtiers aux impacts toujours croissants du changement climatique ; la gestion des pêches et la restauration des écosystèmes mais aussi la construction d’infrastructures protégeant les côtes des submersions font partie de ces options.

Analyser la recherche grâce à l’IA

L’un des rôles clés de la science est de fournir une synthèse impartiale des données scientifiques pour éclairer les décisions. Cependant, l’explosion du nombre de publications scientifiques rend de plus en plus difficile, voire impossible, de réaliser ces évaluations de manière exhaustive.

C’est là qu’interviennent l’intelligence artificielle (IA) et les grands modèles de langage, qui ont déjà un succès notable, depuis les robots conversationnels aux algorithmes de recherche sur Internet.

Dans un travail de recherche en cours d’évaluation, nous avons étendu ces nouvelles applications de l’IA à l’interface science-politique, en utilisant un grand modèle de langage pour analyser la contribution de la France dans le paysage de la recherche sur les options fondées sur l’océan. Grâce à ce modèle, nous avons classé environ 45 000 articles scientifiques et dédiés aux options fondées sur l’océan.

nombres d’articles par thématiques et par pays
Pays classés en fonction de leur production d’articles scientifiques pour différents types d’options fondées sur l’océan. Exemples pour chacune de ces options : les énergies renouvelables (parcs éoliens offshore, les turbines marémotrices) ; éliminer ou stocker le CO₂ (le stockage du carbone capturé dans le fond des océans, les approches de géo-ingénierie pour séquestrer le carbone) ; accroître l’efficacité (la réduction des émissions des navires grâce à des moteurs plus efficaces) ; développer des actions de conservation (protection ou restauration des écosystèmes marins et côtiers) ; réaliser de l’évolution assistée (développer des coraux génétiquement tolérants à la chaleur pour lutter contre l’élévation des températures de la mer) ; développer des infrastructures et technologies (les digues, les barrières antisubmersion, les systèmes d’alerte météorologique) ; agir sur les leviers socioinstitutionnels (modifier les pratiques de pêche dans les communautés côtières touchées). Devi Veytia et collaborateurs, Fourni par l'auteur

Au niveau mondial, nous constatons que la recherche est inégalement répartie puisque 80 % des articles portent sur les options d’atténuation. Les auteurs de travaux de recherche affiliés à la France jouent ici un rôle important, car ils sont parmi les principaux contributeurs des travaux dédiés aux options d’adaptation.

Cette priorité de la recherche sur l’adaptation est également présente dans les travaux des chercheurs affiliés à des institutions de petits États insulaires en développement, qui présentent un risque élevé de dangers côtiers exacerbés par le changement climatique, avec les évènements climatiques extrêmes et l’élévation du niveau de la mer.

Proportion de pays donnant la priorité à la recherche sur les options d’atténuation par rapport aux options d’adaptation, selon que les États soient côtiers ou enclavés sans accès à la mer ou qu’il s’agisse de petits États insulaires en développement. Par exemple, 81,2 % des petits États insulaires en développement publient plus de recherches sur les options d’adaptation que sur les options d’atténuation. Devi Veytia et collaborateurs, Fourni par l'auteur

La recherche sur les réseaux sociaux et dans les médias

L’impact de la recherche française s’étend bien au-delà de ses frontières, suscitant l’intérêt via les réseaux sociaux et les médias traditionnels à travers l’Europe, l’Amérique du Nord et l’Australie.

À mesure que l’accès à l’information et aux plateformes de diffusion accroît la portée et l’influence de l’opinion publique dans l’élaboration des politiques, il devient crucial non seulement de communiquer, mais aussi d’impliquer d’autres acteurs afin de traduire la science en dispositions réglementaires et, à terme, en actions concrètes.

planisphere illustrant la présence de la recherche sur les réseaux sociaux
Origine géographique et quantité des posts mentionnant une recherche publiée par un auteur affilié à une institution française (y compris les posts sur les sites d’actualités, les blogs, X, LinkedIn, BlueSky, Facebook, Reddit, YouTube, etc.). Devi Veytia et collaborateurs, à partir des données Altmetric (2025), Fourni par l'auteur

Quels obstacles pour passer de l’idée à l’action ?

Cette évolution, de l’idée à l’action, est une progression classique dans le cycle de vie d’une intervention. D’abord, un problème ou un impact potentiel est identifié, ce qui motive la recherche scientifique à en étudier les causes et à développer des solutions pour y répondre. Une fois cette étape franchie, l’intervention peut être intégrée dans la législation, incitant ainsi les parties prenantes à agir. Mais ce processus est-il applicable aux options fondées sur l’océan, ou y a-t-il des obstacles supplémentaires à considérer ?

Nous avons étudié cette situation en France pour deux options technologiques prêtes à être déployées et d’ores et déjà mises en œuvre : les énergies marines renouvelables, proposées pour atténuer le changement climatique, et les infrastructures construites et technologies d’adaptation sociétales face à la montée du niveau des mers.

Concernant les énergies marines renouvelables – une intervention jugée efficace à l’atténuation du changement climatique et dont les risques sont bien documentés et modérés –, le déploiement en France semble lent au regard du reste du monde (ligne en pointillé dans la figure ci-dessous).

augmentation des effets du chagement climatiques, des recherches, legislations et actions qui s’ensuivent
Le cycle de vie de l’idée à l’action pour les énergies marines renouvelables en France. De haut en bas, la figure représente un diagramme à barres de l’anomalie de la température ( °C) de surface de la mer (période de base : 1961-1990, source : Ranier et al. 2006), le nombre de publications par an prédites comme pertinentes par notre grand modèle de langage (ligne jaune), l’action mesurée par la capacité électrique installée (MW) en France (ligne bleue continue, (source : statistiques sur les énergies renouvelables de l’Irena) et pour les autres pays (ligne bleue en pointillé), et le nombre de documents législatifs français identifiés (carrés roses) en utilisant une recherche par mot clé du texte intégral du document (sources : Faolex et Ecolex). Devi Veytia et collaborateurs, avec les données précisées dans la légende, Fourni par l'auteur

En revanche, les leviers d’actions en faveur des infrastructures d’adaptation sociétales semblent plus mobilisés face aux pressions croissantes exercées par les risques climatiques côtiers.

Ainsi, nous constatons qu’à mesure que l’élévation du niveau de la mer s’accentue et, par conséquent, entraîne un besoin croissant de protections côtières, la recherche, la législation et l’action (représentée par le nombre de communes françaises exposées aux risques côtiers bénéficiant d’un plan de prévention des risques naturels (PPRN)) augmentent également, en particulier après 2010.

En résumé, concernant les énergies marines renouvelables, la France accuse un certain retard dans le passage de l’idée à l’action par rapport au reste du monde. Cela pourrait s’expliquer par une priorité accordée à d’autres mesures d’atténuation (par exemple, l’énergie nucléaire). Cependant, nous ne devrions pas nous limiter à une ou à quelques options dans l’objectif d’accroître notre potentiel d’atténuation global. La France a la possibilité d’investir davantage dans les recherches et actions d’atténuation.

La France affiche un très bon bilan en matière de recherche et de mise en œuvre d’options d’adaptation au changement climatique. Par ailleurs, sur ce type d’options, nous avons constaté un besoin global de recherche dans les pays en développement exposés aux risques côtiers — ce qui pourrait ouvrir de nouvelles opportunités, pour les institutions de recherche françaises, en termes de soutien à la recherche et de renforcement de leurs capacités dans ces domaines.

Alors que nous approchons de l’Unoc 3 – un moment critique pour la prise de décision – une chose est claire : il n’y a pas une seule solution mais des choix sont nécessaires ; il est donc essentiel de trouver les moyens d’évaluer et de synthétiser rapidement les preuves scientifiques pour éclairer nos actions d’aujourd’hui, ainsi que proposer de nouvelles pistes de recherche en amont des actions innovantes de demain.

The Conversation

Devi Veytia a reçu des financements du Programme Prioritaire de Recherche (PPR) « Océan et Climat », porté par le CNRS et l’Ifremer.

Frédérique Viard a reçu des financements de l'Agence Nationale de la Recherche (ANR) et de l'Europe (programme Horizon Europe).

Jean-Pierre Gattuso a reçu des financements de Comission européenne, Fondation Prince Albert II de Monaco.

Laurent Bopp est Membre du Conseil Scientifique de la Plateforme Ocean-Climat. Il a reçu des financements de recherche dans le cadre de projet de mécennat de la société Chanel et de de Schmidt Sciences.

Marie Bonnin a reçu des financements de l'Agence Nationale de la Recherche (ANR) et de l'Europe (programme Horizon Europe).

Yunne Shin a reçu des financements de l'Europe (programme Horizon Europe)

Adrien Comte ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

02.06.2025 à 15:54

Près d‘un étudiant sur cinq se réoriente à bac +1 : ajustement, rupture ou échec ?

Dorian Vancoppenolle, Doctorant en Sciences de l'Éducation et de la Formation, Université Lumière Lyon 2

Près d’un jeune sur cinq se réoriente après une première année dans le supérieur. Un record qui interroge sur les dynamiques de réussite et d’orientation.
Texte intégral (1805 mots)

Alors que les lycéens reçoivent leurs résultats sur Parcoursup, les étudiants qui envisagent de changer de voie se connectent de nouveau à la plateforme. Près d’un sur cinq choisit désormais de se réorienter après une première année dans l’enseignement supérieur. Un record qui soulève des questions cruciales sur les dynamiques de réussite, d’inégalités et d’orientation.


Depuis les années 1960, la massification scolaire a permis un accès élargi au baccalauréat, puis aux études supérieures, sans toutefois mettre fin aux inégalités : celles-ci se recomposent à travers la hiérarchisation des parcours, la segmentation des filières ou encore des effets d’orientation différenciée selon l’origine sociale et le genre.

L’accès aux études supérieures est plus large, mais inégal selon les filières, ce qui limite l’effet redistributif de la massification. Le système éducatif français tend ainsi à reproduire, voire à produire, des inégalités sociales, culturelles et scolaires tout au long des parcours, malgré l’idéal méritocratique affiché par les pouvoirs publics.


À lire aussi : Le mérite est-il encore un idéal démocratique ?


Aujourd’hui, l’un des effets les plus visibles de ces tensions réside dans les trajectoires étudiantes après le bac, en particulier lors de la première année, marquée par un taux de réorientation important.

Conséquence indirecte de la massification scolaire, la réorientation n’est pas nécessairement un aveu d’échec. Elle devient une étape de redéfinition des trajectoires, révélant à la fois les aspirations des jeunes et les limites d’un système qui, tout en se démocratisant, continue de reproduire des inégalités sociales.

Dans un contexte marqué par les réformes du bac, de l’accès aux études de santé et de la refonte du diplôme universitaire de technologie (DUT) en bachelor universitaire de technologie (BUT), ces constats interrogent : pourquoi tant de jeunes entament-ils une réorientation après une seule année, et quelles en sont les conséquences ?

Notre analyse porte sur les données Parcoursup entre 2018 et 2023, en se concentrant sur les étudiants qui se sont réinscrits après une première année dans le supérieur. Seuls les parcours passés par la plateforme sont pris en compte, ce qui exclut les formations hors Parcoursup, comme certaines écoles privées ou classes préparatoires internes, en raison de l’absence de données disponibles.

Des ajustements progressifs de parcours

Contrairement à l’idée reçue selon laquelle une réorientation serait synonyme de rupture totale, les données montrent que la plupart des étudiants restent dans un univers disciplinaire proche de leur formation d’origine. Celles et ceux qui commencent une licence de sciences humaines et sociales, de droit ou de sciences expérimentales poursuivent souvent dans ces mêmes domaines ou dans des filières voisines. La logique dominante n’est donc pas celle du grand saut, mais plutôt celle de l’ajustement progressif.

Certaines formations font néanmoins figure de points de départ majeurs. C’est le cas de la filière santé, qu’elle s’appelle « première année commune aux études de santé (Paces) » ou « parcours accès santé spécifique (Pass) » : chaque année, une partie importante des étudiants s’en détourne après la première année, en se réorientant vers des licences scientifiques, des diplômes du secteur sanitaire et social ou, plus rarement, vers les filières juridiques ou littéraires. Malgré sa réforme, le Pass reste ainsi un espace de réajustement des parcours très fréquent.

À l’inverse, d’autres filières apparaissent comme des points d’arrivée privilégiés. Les brevets de technicien supérieur (BTS), en particulier, accueillent chaque année un grand nombre d’étudiants venus d’horizons très divers : université, santé, sciences humaines, etc.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Enfin, certains domaines, comme les licences Arts, Lettres, Langues ou Droit, Économie, Gestion, connaissent des flux relativement stables : les réorientations y restent internes, comme si les étudiants cherchaient moins à changer de cap qu’à modifier leur angle d’approche (contenus, options, établissements, etc.).

En somme, nous pouvons affirmer que les trajectoires étudiantes se complexifient. Derrière ces mouvements, il ne faut pas voir un simple signe d’instabilité : les réorientations dessinent de nouvelles manières de construire un projet, par essais, par détours et par réajustements.

La réorientation mobilise des ressources inégalement distribuées

Les titulaires d’un bac général sont surreprésentés parmi les étudiants en réorientation après une première année dans l’enseignement supérieur : ils représentaient 73 % des candidats acceptant une nouvelle proposition en 2023, contre 68 % en 2019. À l’inverse, la part des bacheliers technologiques et professionnels parmi les étudiants en réorientation a reculé entre 2019 et 2023, passant respectivement de 22 % à 19 % et de 10 % à 8 %. À des fins de contextualisation, les titulaires d’un bac général représentaient 54 % des diplômés du bac en 2022, contre 20 % pour les technologiques et 26 % pour les professionnels, ce qui indique une plus forte réorientation des généralistes.

Cette dynamique peut refléter une plus grande flexibilité des parcours ou, à l’inverse, des obstacles spécifiques freinant la mobilité académique des autres bacs.

Durant la même période, une logique semblable se retrouve du côté des catégories sociales : les enfants de cadres et professions intellectuelles supérieures passent de 30 % à 32 % du public en réorientation, tandis que les enfants d’ouvriers reculent de 14 % à 11 %. Ces chiffres sont à mettre en regard de leur poids dans la population (21,7 % pour les cadres, 18,6 % pour les ouvriers) et parmi les bacheliers : un quart des titulaires du bac sont issus d’un milieu de cadres. Leur surreprésentation en réorientation s’inscrit donc dans une continuité sociale.

La réussite scolaire précédente a aussi une influence : les réorientés sans mention au bac représentaient 47 % du public en 2018, contre 33 % en 2023. Dans le même temps, la part des mentions « assez bien » augmente, devenant même majoritaire en 2022 (36 %). Cette évolution suit celle du système d’évaluation, qui est marqué par l’essor du contrôle continu.

Enfin, le sexe administratif révèle des disparités genrées : en 2023, 59 % des réorientés sont des filles contre 41 % de garçons, en hausse par rapport à 57 % et 43 % en 2018. Ces écarts sont cohérents avec les taux d’obtention du bac (93 % des filles contre 88 % des garçons en 2022), mais aussi avec des stratégies différenciées de choix d’orientation selon le genre.

Comment l’expliquer ? La réorientation mobilise des ressources inégalement distribuées : compréhension des mécanismes d’affectation, capacité à formuler des vœux stratégiques, anticipation des calendriers, accès à un accompagnement souvent familial ou encore confiance en sa légitimité à changer de voie. Autant d’éléments qui prolongent la critique d’un système scolaire méritocratique en apparence, mais inégalitaire dans les faits.

Une première année d’exploration de l’enseignement supérieur ?

L’évolution des usages de Parcoursup montre une chose : les étudiants utilisent de plus en plus la première année pour « tester », voire réajuster, leur orientation. Ce n’est pas un mal en soi : expérimenter, essayer, se tromper fait partie de la vie étudiante. Mais, cela suppose que les institutions suivent, avec des capacités d’accueil adaptées, un accompagnement renforcé, et surtout une équité entre les primo-entrants et les réorientés.

Or, sur ces points, les politiques publiques accusent un retard : les réorientations ne sont ni anticipées ni outillées, et les étudiants les plus fragiles restent ceux qui en payent le prix.

Les lycéens et les étudiants souhaitant se réorienter en première année d’études supérieures passent par la même plateforme. Ce phénomène complexifie la gestion des places, car les candidats peuvent postuler tout en restant inscrits dans leur formation actuelle. Pensée comme un outil d’accès à l’enseignement supérieur, Parcoursup joue désormais aussi un rôle central et parfois flou dans les réorientations.

La réorientation ne peut pas être considérée comme un échec, c’est souvent la preuve d’un ajustement lucide. Encore faut-il que les outils suivent, et que les logiques d’exclusion ne se perpétuent pas. Plutôt que de juger les étudiants qui changent de voie, il est temps de reconnaître qu’au vu de l’évolution du système éducatif, la première année d’études est devenue un moment d’exploration souvent nécessaire.

Il s’agit maintenant collectivement de faire en sorte qu’elle ne devienne pas une fabrique de tri social. Cela suppose d’adapter les bourses, logements, et dispositifs d’aide aux étudiants déjà inscrits dans le supérieur. C’est une manière de réduire les inégalités de « mobilité scolaire ».

The Conversation

Dorian Vancoppenolle ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

02.06.2025 à 14:52

Finale de la Ligue des champions UEFA 2025 : une bataille pour la gloire sur fond d’argent et de mode

Simon Chadwick, Professor of AfroEurasian Sport, EM Lyon Business School

Paul Widdop, Associate Professor of Sport Business, Manchester Metropolitan University

Ronnie Das, Associate Professor in Data Science, Sports Analytics and AI, The University of Western Australia

PSG et Inter, deux équipes stars de football. Paris et Milan, deux villes emblématiques de la mode. Fonds qatari Qatar Sports Investments et fonds états-unien Oaktree, deux propriétaires richissimes.
Texte intégral (1439 mots)

La finale masculine de la Ligue des champions 2025 de l’UEFA s’est terminée par un triomphe du Paris Saint-Germain sur l’Inter de Milan (5-0). PSG et Inter, deux équipes stars de football. Paris et Milan, deux villes emblématiques de la mode. Fonds qatari Qatar Sports Investments et fonds états-unien Oaktree, deux propriétaires richissimes.


Quelle qu’ait été l’équipe gagnante, l’UEFA loue le succès de son nouveau format, impliquant plus d’équipes, plus de matchs et plus de fans. Bien sûr, tout le monde n’est pas d’accord avec ce nouveau format. Mais en résultats commerciaux, il ne fait aucun doute que la Ligue des champions continue de générer d’énormes sommes d’argent pour toutes les personnes impliquées.

Grâce aux droits de diffusion lucratifs, aux accords de sponsoring et à la vente de billets, les sommes distribuées aux clubs à l’issue de la compétition de cette saison sont exorbitantes : plus de 2,4 milliards d’euros de prix en jeu, contre 2 milliards d’euros l’an dernier.

En atteignant la finale, le Paris Saint-Germain (PSG) a déjà gagné 138 millions d’euros, et l’Inter Milan 137,39 millions d’euros.

Le PSG a reçu une récompense supplémentaire de 6,46 millions d’euros, tandis que la victoire devrait également générer environ 35,58 millions d’euros de revenus futurs en participant à des tournois comme la Supercoupe d’Europe.

La qualification pour la finale a également stimulé la valeur de la marque des clubs et l’engagement des fans. Dans les dernières étapes du tournoi, l’Inter Milan a connu une énorme croissance de son nombre de followers sur les réseaux sociaux.

Mais malgré tous les chiffres importants figurant sur les relevés de revenus et les comptes de médias sociaux, la finale de cette année a une dimension culturelle qui est difficile à mesurer uniquement en chiffres.

Football et mode

Paris et Milan sont toutes deux des capitales mondiales de la mode, abritant des créateurs célèbres et des marques convoitées dans le monde entier. Le PSG et l’Inter Milan ont pour mission d’imiter ces marques, avec un football attrayant qui apporte prestige et héritage.

Certains parallèles peuvent être établis entre le style des équipes et les deux villes rivales. Le PSG, par exemple, en se concentrant sur la construction d’une équipe remplie de jeunes talents locaux, a réussi à refléter la sophistication et la flamboyance de Paris.


À lire aussi : Derrière la rivalité des clubs de football, celle (de l’ego) de leurs présidents


Les partenariats de l’équipe avec Jordan et Dior positionnent le club comme un réceptacle pour l’image mondiale de la ville : audacieuse, luxueuse, cosmopolite.

L’Inter de Milan, quant à elle, bien qu’elle manque de joueurs de renom, incarne une approche italienne classique, disciplinée et défensive du football – historiquement appelée catenaccio, et pouvant se traduire par « verrou ». Un accord parfait avec le style vif et distinctif des maisons de couture basées à Milan.

Cette identité n’est pas enracinée dans la flamboyance, mais dans le raffinement et la rigueur – à l’image de la confection précise de Prada et Armani. Si le PSG est l’emblème du luxe mondial, l’Inter est le modèle de la culture du design italien, moins performatif, mais plus exigeant.

Identité urbaine

Ensemble, le PSG et l’Inter sont les ambassadeurs de l’identité urbaine pour ces villes. Paris et Milan cherchent à exercer une influence bien au-delà de leurs frontières, une stratégie de soft power non seulement à travers l’architecture ou le tourisme, mais aussi à travers la performance esthétique du sport.

De cette façon, le football devient le théâtre d’une compétition symbolique entre les villes, où l’identité civique est canalisée à travers des images symboliques et matérielles telles que des kits, des campagnes et des fans internationaux. Dans cette finale, il y a un choc d’ambition urbaine, un jeu de soft power entre deux des métropoles les plus soucieuses de leur image en Europe.

Sur le plan géopolitique, les enjeux sont nombreux. La deuxième participation du PSG à une finale de la Ligue des champions est d’une importance capitale pour les propriétaires qataris du club. Le président Nasser al-Khelaïfi a passé des années à investir dans des joueurs vedettes étrangers pour aider à construire l’image de l’État du Golfe. Ces dernières saisons, le club a changé de stratégie vers la signature de jeunes talents locaux.

Cela a permis au PSG de se positionner comme un club parisien tout en renforçant les relations qatariennes avec le gouvernement français. C’est particulièrement important à l’heure actuelle car, à partir de la saison prochaine, le PSG aura un rival local. L’année dernière, LVMH a acquis le Paris FC, qui semble prêt à se battre avec son rival local pour le titre de club le plus en vue de la capitale.

Pour sa part, l’Inter a récemment changé de propriétaire, en passant des mains de la famille Zhang à celles du fonds d’investissement Oaktree. Acquis par une entreprise chinoise en 2016, le club a connu des difficultés – malgré une autre finale de Ligue des champions en 2023 – alors que la tentative de révolution du football chinois a échoué.

En mai 2024, le club a été racheté par un fonds d’investissement américain. Ces dernières années, il s’agit d’une tendance dans le football européen selon laquelle le capital-investissement américain a triomphé des investissements soutenus par les États.

Tout cela met en place une autre bataille de football classique de notre époque. Alors que 450 millions de personnes regardent une finale de la Ligue des champions, le ballon rond est devenu un choc d’idéologies autant qu’il s’agit de stars, de villes et de mode.

The Conversation

Simon Chadwick teaches for UEFA's Academy and is a Programme Lead for the European Club Association.

Paul Widdop et Ronnie Das ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.

PDF

02.06.2025 à 12:46

Quand la com’ s’emballe : le feu de paille du « starter pack »

Sophie Renault, Professeur des Universités en Sciences de Gestion et du Management, Université d’Orléans

La mode du starter pack s’est emparée de certaines marques à l’affût de toutes les tendances. Une mode aussi fulgurante qu’éphémère ? Quelles leçons pour la communication d’entreprise ?
Texte intégral (1695 mots)

Adoptés par de nombreuses marques, les visuels de figurines sous starter pack ont rapidement envahi les réseaux sociaux. Derrière cette stratégie virale en apparence efficace se cache une communication mimétique, simplificatrice qui s’est rapidement trouvée en situation d’essoufflement. Une tendance qui en dit long sur les dérives de la communication à l’ère de l’instantanéité.


En avril 2025, il était difficile d’échapper à la vague des « starter packs ». Les réseaux sociaux LinkedIn, Instagram ou bien encore Facebook ont été submergés par des visuels, tous construits selon le même schéma : une figurine numérique, enfermée dans un blister plastique, entourée d’accessoires miniatures et nommée selon un profil type : « Consultante dynamique », « Manager HPI », « RH en télétravail »… Le tout génère immédiatement un effet de connivence : l’on s’identifie, on like, on partage.

Le plus souvent généré par intelligence artificielle, le starter pack reprend l’idée d’associer une série d’objets représentatifs à un profil type, en l’inscrivant dans l’esthétique du jouet. De madame et monsieur Tout-le-Monde aux personnalités publiques comme Élodie Gossuin ou Alexia Laroche-Joubert, en passant par différentes organisations, tous ont contribué à populariser le format starter pack. France Travail, l’Afpa, Basic Fit, Lidl, Paul, Vichy, Michelin ou bien encore Extrême Ice Cream… nombreuses sont les organisations ayant décliné leur univers sous forme de figurines stylisées.

Le format séduit, car il est immédiatement lisible, amusant, propice à l’interaction. Il permet aussi aux acteurs institutionnels ou marchands d’adopter un ton plus léger, plus complice.

Mais cette efficacité visuelle repose sur une logique de standardisation, voire de blanding. In fine, ce qui fait la force du starter pack, c’est-à-dire sa clarté formelle et sa facilité de mise en œuvre, est aussi ce qui a rapidement causé sa perte.

Un feu de paille numérique

En quelques semaines à peine, la mécanique se retourne contre elle-même. Les publications se ressemblent, les accessoires deviennent interchangeables, les profils sont redondants. L’œil se lasse, l’attention baisse, l’effet de surprise disparaît.

La tendance se banalise au point de susciter l’ironie et la lassitude des internautes. Ce rapide essoufflement est typique des feux de paille numériques, où la viralité repose sur l’imitation, jusqu’à l’overdose.

Mais ici, l’enjeu est plus profond : il interroge la stratégie des marques elles-mêmes. Car en reprenant ce format sans en questionner les limites, elles contribuent à une communication mimétique, standardisée, où l’unicité du message est sacrifiée au profit de la visibilité à très court voire ultra court terme.


À lire aussi : Marketing sur les réseaux sociaux : à chaque produit son influenceur…


Au-delà de la redondance visuelle, le format pose problème dans ce qu’il représente : il réduit une personne, un métier ou un style de vie à une série d’attributs figés. La mise en perspective des métiers en tension par France Travail est de ce point de vue symptomatique. Enfermés dans leur « starter pack », un agriculteur avec fourche, tracteur et pot à lait ou bien encore l’aide de cuisine avec une poêle et un faitout. La caricature n’est pas seulement visuelle. L’humour masque mal la simplification excessive. Et cette simplification est d’autant plus problématique que nombre des organisations qui ont surfé sur cette tendance se veulent inclusives.

Esthétique plastique, IA générative… et résistance créative

Le choix esthétique du blister plastique n’est pas anodin. Il évoque l’univers de l’objet standardisé, du produit prêt à consommer, de la figurine figée. Cette symbolique plastique, ludique en apparence, entre en dissonance avec les discours actuels sur la responsabilité des marques, la durabilité ou bien encore l’authenticité.


Abonnez-vous dès aujourd’hui !

Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).


Autre élément sujet à polémiques : la plupart de ces visuels sont générés par intelligence artificielle (IA). La promesse de gain de temps et d’efficacité graphique masque une réalité moins reluisante : production massive de contenus à faible valeur ajoutée, mais dont l’empreinte carbone est croissante. La multiplication d’images par IA interroge profondément à l’heure où la sobriété numérique devient un objectif affiché par les organisations. Combien de « prompts » avant d’obtenir le starter pack espéré ?

La riposte « humaine » au prêt-à-com’

Face à cette standardisation accélérée, une contre-tendance artisanale a vu le jour. En écho à l’initiative du dessinateur français Patouret, plusieurs illustrateurs ont lancé le hashtag #StarterPackNoAI pour proposer des versions dessinées à la main de ces figurines, revendiquant une démarche 100 % humaine et incarnée.

Une manière de remettre de la singularité dans un format devenu générique et de rappeler que la créativité n’a pas à être automatisée pour être pertinente.

France Info, 2025.

Beaucoup d’organisations ont ainsi, au travers de ce choix de communication, ouvert la voie aux critiques. Citons les commentaires suscités par la mise en perspective des métiers en tension par France Travail :

« Pas ouf d’utiliser cette trend polluante, terriblement gourmande en ressources naturelles et un véritable pied-de-nez aux artistes alors que des graphistes inscrits [à France Travail] seraient ravis de rejoindre les équipes de Com’ en DR [direction régionale], DT [direction territoriale], DG [direction générale]… […] Surfer sur les tendances de ce genre, pour moi, c’est remettre en question le sérieux de l’institution. Encore une fois, il y a des graphistes qui cherchent du taf, et ça n’a jamais dérangé différentes strates de France Travail de faire appel à des prestataires… »

ou bien encore un laconique :

« Pas de RSE à FT [France Travail], juste “greenwashing et trendsurfing”. »

Des images qui claquent, un message qui flanche

Le succès éclair du starter pack en dit long sur les tensions qui traversent aujourd’hui la communication des marques.

Tiraillées entre la nécessité de produire vite, de suivre les tendances, d’être vues, et la volonté de construire du sens, elles cèdent trop souvent à l’appel de formats prêts à l’emploi, esthétiques mais creux.

Le starter pack aura été un joli emballage pour peu de messages. Un outil de communication qui amuse un instant, mais ne construit ni confiance ni engagement durable. Ce n’est pas un nouveau langage, c’est un symptôme : celui d’une communication fascinée par l’effet, mais en perte de sens.

The Conversation

Sophie Renault ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

02.06.2025 à 12:46

L’entreprise libérée donne-t-elle du courage ?

Clara Letierce, Enseignante-Chercheure en Management Stratégique, Burgundy School of Business

Anne-Sophie Dubey, Maîtresse de conférences en Théorie des organisations (Cnam), PhD Sciences de gestion/Éthique des affaires (Polytechnique Paris), MSc Philosophie et Politiques publiques (LSE), Conservatoire national des arts et métiers (CNAM)

Caroline Mattelin-Pierrard, Maître de conférences en sciences de gestion et du management, Université Savoie Mont Blanc

Matthieu Battistelli, Maitre de conférences en sciences de gestion, IAE Savoie Mont Blanc

Dans l’entreprise libérée, le rôle de décideur se partage au sein des équipes. Alors, sans chef pour trancher, qui ose prendre des décisions difficiles et courageuses ?
Texte intégral (2065 mots)
Il ne s’agit pas seulement d’oser, mais de savoir quand et comment le faire pour préserver le collectif, tout en limitant les tensions. lassedesignen/Shutterstock

Dans l’entreprise libérée, le rôle de décideur se partage au sein des équipes. Alors, sans chef pour trancher, qui ose prendre des décisions difficiles ? L’entreprise libérée donne-t-elle du courage ? Oui, à condition qu’elle équilibre autonomie individuelle et préservation du collectif, et fasse du courage une pratique partagée au quotidien.


En mars dernier, Jean-François Zobrist, à la tête de la fonderie d’Hallencourt de 1983 à 2009, est mort. Ce dirigeant d’entreprise singulier a mis en place son concept de « l’entreprise libérée ». Ses mantras : la confiance plus que le contrôle, l’homme est bon alors faisons-lui confiance.

Traditionnellement, le manager incarne un nœud de pouvoir et porte, souvent seul, les responsabilités des décisions. Dans l’entreprise libérée, ce rôle de décideur se partage au sein des équipes. Alors, sans chef pour trancher, qui prend la responsabilité de dire à ses collègues quand ils ne sont « plus dans le coup », que l’entreprise perd en efficacité, qu’un recrutement ne fonctionne pas. En résumé, qui ose dire et prendre des décisions difficiles ?

Les entreprises libérées semblent exiger davantage de courage. Comment créer un environnement favorable à ces actions courageuses ? Ou, dis autrement, comment permettent-elles de construire des organisations encourageantes ? Longtemps perçu comme une vertu individuelle au sens d’Aristote, le courage au travail mérite d’être repensé collectivement. En nous inspirant de la philosophie néo-aristotélicienne et de travaux récents en sciences de gestion, nous avons étudié trois entreprises – FlexJob, Innovaflow et Fly The Nest – assimilées entreprise libérée pour comprendre ce qui permet aux salariés d’oser être, dire et agir, tout en préservant le ciment du collectif.

Le courage ne se décrète pas, il s’apprend

Les salariés participent activement aux choix moraux et à leur incarnation dans le déploiement stratégique de l’entreprise. Ils vont parfois jusqu’à refuser des projets incompatibles avec leurs valeurs communes.

« L’éthique, c’est se dire : “On se fait suffisamment confiance dans la collaboration, on vient se nourrir l’un l’autre.” On ne se met pas en mode : “Je viens prendre ce que j’ai à prendre et je me casse.” Donc il y a ce côté-là entre nous. Et ça se décline aussi sur l’éthique professionnelle avec les clients. » (Innovaflow)

Ces discussions sont complexes, car elles font appel aux valeurs et expériences personnelles. Elles exposent les vulnérabilités de chacun. Il ne s’agit pas seulement d’oser, mais de savoir quand et comment le faire pour préserver le collectif en limitant les tensions. Autrement dit, les décisions courageuses doivent intégrer leur impact émotionnel sur le collectif. Les salariés doivent discerner quand et où partager leurs arguments. Les questions financières et salariales, par exemple, peuvent en fait devenir éthiques au regard des enjeux émotionnels qu’elles provoquent.

« En sachant que la [question de l’argent] va faire vivre des émotions parce qu’on est des humains et que l’argent, c’est un sujet tabou qui cristallise plein de choses… […] il y a une logique de performance, de développement de l’activité, de justice… Le salaire n’est pas forcément toujours juste vis-à-vis d’autres dans la boite par rapport à qui apporte effectivement plus. » (FlexJob)

S’outiller

Pour encourager ces délibérations, ces entreprises mettent en place des dispositifs pour « outiller » le courage :

  • La mise en place de règles de fonctionnement transparentes : processus de fixation des salaires, régulation des horaires de travail ou des plans de charge, suivi des frais de déplacement, etc.

« Je prends l’exemple du plan de charge d’une personne qui a onze jours, une personne qui a deux jours. Si la règle c’est de tous viser sept ou huit jours, on s’appuie sur cette règle et probablement qu’il n’y aura même pas besoin de le dire. […] Tu n’as même plus besoin de gérer les tensions. Mais pour ça, il faut créer les conditions. » (Flexjob)

  • Des processus clairs et institutionnalisés, qui viennent rythmer la prise de décision

« On a remis à jour notre process de décision en se disant : “Déjà, c’est quoi, une décision très stratégique, une décision moyennement stratégique ?” Et à chaque fois, il y a un process différent. Et on donne la possibilité de faire à l’écrit ou à l’oral. Certains ont dit :“Moi, j’ai besoin d’avoir du temps avant de décider.” Donc on a dit : “D’abord, tu envoies un message à l’écrit et après, on décide à l’oral.” Donc, de séparer des temps. » (Fly The Nest)

Organisation apprenante

Plutôt que de subir les règles imposées par des normes financières ou sociales, les entreprises libérées développent une approche évolutive de leurs pratiques, ce qui demande du courage. Chez FlexJob, l’un des principes fondateurs est la capacité permanente à questionner et modifier les règles existantes. Chaque processus, chaque outil de gestion peut être revu et amélioré si le collectif estime qu’il ne correspond plus aux besoins de l’entreprise.


Abonnez-vous dès aujourd’hui !

Chaque lundi, des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH, marketing, finance…).


« Nous avons commencé à compter notre temps de travail. Nous, on veut travailler idéalement 32 heures par semaine. Tous les mois, mon cercle va demander aux gens : “Est-ce que vous vous situez à peu près à 32 heures par semaine ?” […] Voilà, c’est des petites choses, c’est du test, mais pour encourager l’individu qui essaie de gérer beaucoup trop de choses, à faire ce qui est bon pour elle et l’organisation. » (Fly The Nest)

Tensions et paradoxes

Si l’entreprise libérée se veut un espace propice au courage, elle soulève aussi tensions et paradoxes :

1. Trop de bienveillance empêche-t-elle le courage ?

La culture de la bienveillance, souvent mise en avant dans ces entreprises, peut paradoxalement freiner l’expression d’un courage authentique. Les employés peuvent hésiter à exprimer un désaccord par peur de heurter le collectif.

« Moi, j’ai encore du mal à faire des feedbacks, j’ai encore du mal à le faire, parce que je suis de nature très empathique, parce que je déteste le conflit. » (Fly The Nest)

2. L’autonomie est-elle oppressive ?

Le collectif peut instaurer des normes implicites de comportement qui restreignent la liberté individuelle. Si chaque individu est responsable de ses actes, la pression sociale peut ainsi devenir un substitut à la hiérarchie traditionnelle ou à la règle. Ce phénomène est documenté dans certaines entreprises libérées, où l’adhésion aux valeurs communes devient une injonction difficile à questionner.

3. Le courage du désaccord est-il réellement encouragé ?

L’un des piliers des entreprises libérées est la prise de décision collective. Le désaccord est souvent sous-exploité dans ces entreprises. Le mécanisme d’objection, bien que prévu, n’est pas facilement utilisé, par peur de dégrader la relation à l’autre et de se voir exclu du collectif (c’est ce que l’on nomme le « dilemme relationnel »).

« Je propose d’essayer non pas de définir des règles plus claires pour qu’il y ait moins de conflits, mais au contraire de définir des zones communes plus grandes pour qu’il y ait plus de conflits, et régler systématiquement ces conflits pour qu’on s’habitue à se dire les choses et qu’on crée la confiance, en “s’affrontant” sur des choses un peu plus triviales, pour être capables de dire quand ça ne va pas. » (Fly The Nest)

La distanciation critique

Au-delà de son outillage, le courage au travail se nourrit de mécanismes de distanciation critique. Incarnée par des rituels et des moments de recul, elle introduit une culture du courage permettant aux salariés de partager librement leurs doutes et d’être soutenus dans leurs prises de décision. Cette régulation collective prévient les risques de dérives individualistes et/ou sectaires, identifiés comme des dangers dans les entreprises libérées.

Le courage n’est pas qu’un état d’esprit : il repose sur des dispositifs organisationnels aidant les individus à gérer leurs craintes des répercussions négatives de leurs actes. Plutôt que d’évacuer à tout prix les émotions, il s’agit de les interroger pour y réagir dans la juste mesure, dans la lignée de la pensée d’Aristote. Il n’y a pas de courage sans peur, ce qui implique comme corollaire que le courage ne doit pas devenir une fin en soi.

Le courage, c’est parfois ne pas céder à une franchise prématurée, c’est savoir attendre ou se taire, pour protéger la qualité de la relation au travail et choisir le bon moment. Finalement, l’entreprise libérée est-elle véritablement encourageante ? Oui, à condition qu’elle équilibre autonomie individuelle et préservation du collectif et faire du courage une pratique partagée au quotidien. Loin d’être un simple laisser-faire, ces entreprises mettent en place des dispositifs pour structurer et cultiver l’exercice du courage afin que chacun soit encouragé à oser être, dire et agir en toute responsabilité.

The Conversation

Anne-Sophie Dubey est co-fondatrice du Disruptive Co-Consulting Group (DCG) LLC. Anne-Sophie Dubey a mené une thèse CIFRE (bourse de l'ANRT et financement par La Fabrique de l'industrie).

Caroline Mattelin-Pierrard a reçu des financements de la Fondation de l'Université Savoie Mont Blanc.

Matthieu Battistelli a reçu des financements de la Fondation de l'Université Savoie Mont Blanc.

Clara Letierce ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

02.06.2025 à 12:45

En télétravail, les tâches domestiques sont-elles mieux réparties ?

Caroline Diard, Professeur associé - Département Droit des Affaires et Ressources Humaines, TBS Education

Hybridation et hyperconnectivité : une stratégie d’évitement pour échapper aux corvées ménagères ? Débranche, et revenons à nous !
Texte intégral (1595 mots)
À la question « Quand vous travaillez à domicile, profitez-vous de l’occasion pour vous occuper de vos enfants le cas échéant ? », 16 % des hommes répondent « souvent ou très souvent » contre 8 % des femmes. Leonardoda/Shutterstock

Hybridation et hyperconnectivité : une stratégie d’évitement pour échapper aux tâches domestiques ? Débranche et revenons à nous ! Une étude menée en 2022 conclut que les hommes prennent davantage part aux tâches domestiques et familiales en situation de télétravail à domicile. Le télétravail, le jackpot de l’équilibre vie professionnelle-personnelle ?


Cinq années après la pandémie de Covid-19 et le télétravail massif, les scientifiques en organisation ont mis en lumière les effets secondaires du travail hybride : agencement organisationnel, brouillage des frontières vie privée/vie professionnelle et surcharge de travail. Le télétravail touche aujourd’hui un quart des salariés en France, deux tiers des cadres. Il est particulièrement répandu chez les personnes en CDI, les plus diplômées, chez les plus jeunes et dans le secteur privé.

Cette révolution copernicienne du travail produit des effets dans la sphère intime du couple. Le rapport du Haut Conseil à l’égalité entre les femmes et les hommes, « Pour une mise en œuvre du télétravail soucieuse de l’égalité entre les femmes et les hommes », mentionne de nombreuses inégalités subies par les femmes, notamment en matière de répartition des tâches domestiques et de charge mentale. Le déséquilibre entre hommes et femmes serait amplifié avec le télétravail. En cause les difficultés de garde d’enfants et l’espace de travail inadapté.

Nouvelle donnée : ce mode de travail hybride permet d’échapper à certaines tâches domestiques. Pour ce faire, nous avons mené une étude quantitative entre le 3 février et le 3 mars 2022 auprès de 211 télétravailleurs à domicile, au lendemain de la levée de l’obligation de télétravailler. Elle conclut que, parmi notre échantillon, les hommes prennent davantage part aux tâches domestiques et familiales en situation de télétravail à domicile. Une meilleure conciliation des temps de vie et une moindre participation aux tâches domestiques pourraient ainsi s’avérer favorables aux femmes.

Alors le télétravail à domicile peut-il réduire les inégalités professionnelles de genre en créant un ré-équilibrage des tâches en faveur des femmes ?

Division sexuelle du travail domestique inégalitaire

Pour la sociologue Marianne Le Gagneur, le télétravail ne redistribue pas les cartes d’une division sexuelle du travail domestique inégalitaire. Les télétravailleuses tablent sur cette journée pour laver leur linge ou faire la vaisselle par exemple, elles n’ont plus de véritables pauses. L’enquête 2023 de l’UGIC-CGT suggère également que le télétravail se solde pour les femmes par des journées plus intenses. Ce contexte de difficultés techniques rend leur activité moins fluide et plus hachée que celle des hommes – problèmes de connexion, de matériel, d’applications numériques.

Nos résultats vont partiellement à l’encontre de ces études et enquêtes. Ils enrichissent ceux de Safi qui conclut à une répartition plus équitable des tâches domestiques en situation de télétravail. À la question « Quand vous travaillez à domicile, profitez-vous de l’occasion pour vous occuper de vos enfants le cas échéant ? 16 % des hommes répondent « souvent ou très souvent » contre 8 % pour les femmes.

À la question « Quand vous travaillez à domicile, en profitez-vous pour vous occuper des tâches domestiques ? » 29 % des hommes sont concernés contre 28 % pour les femmes.

Les hommes prennent part aux tâches domestiques et familiales. Ces résultats ambivalents et surprenants pointent le télétravail comme un enjeu au cœur du rééquilibrage des temps et une répartition différente des contraintes domestiques entre les hommes et les femmes.

Augmentation du temps de travail

Pour 82 % des répondants à l’étude de l’UGIC-CGT, le télétravail est plébiscité pour garantir un meilleur équilibre vie professionnelle/vie personnelle. Cette promesse d’une meilleure articulation des temps de vie s’accompagne d’une augmentation du temps de travail – 35,9 % des répondants – et de difficultés à déconnecter. Seulement 36 % des répondants bénéficient d’un dispositif de droit à la déconnexion, alors même que ce droit se trouve dans le Code du travail. Cela suggère que le télétravail, qu’il soit exclusif ou en alternance, est associé à des niveaux de tensions d’équilibre pro/perso inférieurs à ceux du travail exclusivement en présentiel.


Abonnez-vous dès aujourd’hui !

Chaque lundi, des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH, marketing, finance…).


Les derniers chiffres de l’Observatoire de l’infobésité sont éloquents : 20 % des e-mails sont envoyés hors des horaires de travail (9 heures-18 heures) ; 25 % des managers se reconnectent entre 50 et 150 soirs par an ; 22 % des collaborateurs ont entre 3 et 5 semaines de congés numériques (sans e-mails à envoyer) par an. Alors que les emails sont identifiés comme source de stress générant des comportements d’évitement.

L’hyperconnectivité comme stratégie d’évitement

La notion d’évitement correspond à des efforts volontaires d’un individu pour faire face à une situation qu’il évalue comme stressante. Elle implique que cette situation est perçue comme difficile à surmonter et menaçante pour son bien-être. Un individu met en place différents processus entre eux. Il peut ressentir cet événement comme menaçant. L’enjeu est d’échapper à une situation inconfortable.

La dépendance à l’hyperconnectivité peut s’expliquer par des injonctions implicites ou une forme d’autocontrôle et d’autodiscipline. Cela suggère une servitude volontaire où les employés répondent aux sollicitations professionnelles à tout moment. Cette hyperconnectivité pourrait être un prétexte pour échapper aux tâches domestiques considérées comme peu valorisantes. Le collaborateur, volontairement ou non, se connecte ou répond à des sollicitations en dehors des horaires classiques de travail. Peut-être pour échapper à des contraintes personnelles et familiales ? Et s’investir dans un champ unique limitant la charge mentale.

Stress supplémentaire

L’imbrication croissante des espaces de travail et de vie personnelle due à l’hyperconnectivité engendre des conflits de rôle. Elle ajoute un stress supplémentaire aux individus et compromet leur bien-être. Autrefois, les frontières entre les temps et lieux de travail et de vie privée étaient claires : on se connectait au bureau à 9 heures et on se déconnectait à 18 heures, laissant ainsi le travail derrière soi. Aujourd’hui, ces frontières se sont effacées, rendant la déconnexion plus difficile à gérer.

Cette hybridation des espaces de vie, où le travail et les activités domestiques ou familiales s’entremêlent, apporte certes de la flexibilité. Elle permet par exemple d’emmener ses enfants à la crèche avant de se connecter au travail. Mais ce « mélange des genres » peut aussi être source de stress. Il génère un sentiment d’incapacité à tout gérer en même temps, provoquant des conflits de rôle, où les exigences professionnelles empiètent sur la vie personnelle et inversement.

The Conversation

Caroline Diard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

01.06.2025 à 20:24

De quels maux souffre le Parti socialiste ?

Pierre-Nicolas Baudot, Docteur en science politique, Université Paris-Panthéon-Assas

Le 5 juin, les militants socialistes désigneront Olivier Faure ou Nicolas Mayer-Rossignol comme premier secrétaire d’un PS profondément affaibli.
Texte intégral (2233 mots)

Le 5 juin, les militants du Parti socialiste désigneront leur premier secrétaire – les finalistes étant Olivier Faure et Nicolas Mayer-Rossignol. Longtemps hégémonique à gauche, parti de gouvernement, le PS s’est effondré en 2017 puis a connu sa plus lourde défaite électorale avec la candidature d’Anne Hidalgo (1,7 % des voix) lors de la présidentielle de 2022. Quelles sont les causes structurelles de ce lent déclin ? Le PS peut-il se remettre en ordre de bataille pour les municipales de 2026 et la présidentielle de 2027 ?


À l’occasion de son 81e congrès à Nancy, le Parti socialiste (PS) s’est mis en ordre de bataille pour désigner sa direction et arrêter ses principales orientations. À un an d’un scrutin municipal qui lui est traditionnellement favorable et à deux ans d’une élection présidentielle encore illisible, cet exercice expose au grand jour les maux profonds du parti. Il donne à voir le tableau paradoxal d’une organisation marginalisée électoralement sur la scène nationale, mais engluée dans des logiques anciennes de professionnalisation et de présidentialisation.

La lecture des trois textes d’orientation du congrès de Nancy dessine quelques lignes idéologiques communes : la défense du rôle de la puissance publique dans la gestion de l’économie, une meilleure répartition des richesses, la nécessité de la transition écologique ou encore la confiance au projet européen. Cependant, au-delà de ces emblèmes, la réflexion apparaît particulièrement peu poussée sur plusieurs enjeux cardinaux, comme le rapport au capitalisme et à la mondialisation, la stratégie géopolitique ou, plus largement encore, la singularité d’un projet socialiste dans le monde actuel. Pour autant, tous les textes en appellent à la reprise d’un travail sur les idées et au rétablissement des liens avec la société civile.

Des éléments qui reviennent comme des airs populaires à chaque congrès du parti, depuis maintenant plusieurs décennies. Et de fait, le congrès de Nancy peine à paraître pour autre chose qu’un combat de personnes. Même l’alliance avec La France insoumise (LFI) n’est plus véritablement en jeu, puisque les différents textes proposent une alliance de la gauche non insoumise. Ce rapport du PS à la production d’idées permet de dépasser l’immédiate actualité du congrès pour saisir quelques tendances de plus long terme éclairant l’état actuel du parti.

L’érosion du travail collectif

Évoquant leur identité intellectuelle, les socialistes brandissent volontiers la référence à la social-démocratie, pour se démarquer tant du macronisme que d’une gauche de rupture renvoyée à son irresponsabilité et à sa naïveté. Cependant, la conversion du PS en parti de gouvernement a largement conduit – à l’instar des partis sociaux-démocrates étrangers – à faire de cette référence le signifiant d’une pratique du pouvoir plutôt que d’un contenu idéologique précis. Cela traduit, plus largement, l’érosion continue des capacités du parti à produire des idées et à justifier intellectuellement sa propre existence. Ce que Rafaël Cos a diagnostiqué comme un « évidement idéologique du Parti socialiste » s’exprime, par exemple, dans la faible portée idéologique de la formation des militants, la distance avec les intellectuels, la disparition des revues de courants ou le faible intérêt pour la production programmatique.

Plus encore, c’est la capacité du parti à travailler collectivement qui est en question. Les secrétariats nationaux, qui constituent les lieux ordinaires de l’expertise partisane, sont la plupart du temps très peu investis. S’ils se sont formellement multipliés au fil des années, c’est surtout pour accroître le nombre de places à la direction du parti. De même, si diverses conventions thématiques ont régulièrement été organisées, leurs conclusions sont traditionnellement vite laissées de côté. À l’inverse, les conflits sont légion et ont pris, à l’occasion des alliances avec LFI, des tours particulièrement violents. Et cela, alors même que l’éloignement idéologique entre courants est sans commune mesure avec ce que le parti a pu connaître par le passé.

Un entre-soi de professionnels

Ce constat tient d’abord à des logiques sociales. À mesure qu’il s’est converti en un parti de gouvernement à partir des années 1980 et qu’il a accumulé des positions électorales, le parti s’est considérablement professionnalisé. Non seulement la part des élus dans ses instances de direction s’est accrue, mais de plus le travail quotidien du parti a de plus en plus été pris en charge par des collaborateurs d’élus, formés au métier politique.

Dans le même temps, la part des militants extérieurs à cet univers s’est réduite. En particulier, les militants simultanément engagés dans les secteurs associatifs ou syndicaux se sont considérablement raréfiés. Les relations avec ces espaces s’en sont mécaniquement trouvées modifiées : outre qu’elles se sont distendues, elles se sont professionnalisées dès lors que les relations avec le parti transitent essentiellement par les élus.

Cette dynamique s’articule bien sûr à l’évolution idéologique du parti, et notamment aux conséquences de sa mue sociale-libérale sur son image auprès des profils les plus populaires, mais également auprès des fonctionnaires (notamment des enseignants) pourtant historiquement proches du PS.

Cette professionnalisation a aussi eu pour conséquence, comme l’écrivent Rémi Lefebvre et Frédéric Sawicki, de « bouleverser l’économie interne et morale » du parti, au point que « les intérêts électoraux sont devenus prépondérants à tous les niveaux ». Cela s’est accompagné d’une place croissante laissée aux mesures professionnalisées de l’opinion, que constituent les médias et les sondages.

La neutralisation du débat collectif

La professionnalisation du parti s’est également répliquée sur le fonctionnement collectif du parti. D’abord, ses succès électoraux depuis les années 1970 et jusqu’en 2017 ont permis au PS de constituer ce qui s’est apparenté à une véritable rente électorale. L’enjeu pour les principaux courants devenait alors de se maintenir à la direction du parti, pour participer à la gestion des ressources électorales et à la distribution des investitures.

S’est alors progressivement instauré ce que le politiste Thierry Barboni a qualifié de « configuration partisane multipolaire ». Cette expression décrit la présence, au sein de la majorité du parti, de plusieurs sous-courants s’entendant pour gérer le parti. Les désaccords idéologiques se trouvent alors minorés, derrière des jeux d’allégeance peu lisibles et un important flou stratégique considéré comme une condition de l’unité politique. Surtout, ces désaccords sont dissociés des enjeux de désignation de la direction. C’est ce dont témoigne le congrès du Mans, en 2005, qui aboutit à une synthèse générale entre des courants qui s’étaient pourtant fortement affrontés peu avant au sujet du Traité constitutionnel européen.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


La défaite du PS en 2017 puis, surtout, les alliances à gauche de la Nouvelle Union populaire écologique et sociale (Nupes) et du Nouveau Front populaire (NFP) ont de nouveau mis face à face plusieurs camps distincts. Les espaces de la délibération collective du parti ne s’en sont pas, non plus, trouvés revigorés pour autant. La compétition pour la direction encourage une forme de maximisation des différences, quand bien même les divers textes d’orientation convergent vers de nombreux points, mais les débats collectifs demeurent peu nombreux. Surtout, ils ont peu à voir avec la définition d’un contenu idéologique.

C’est ce dont témoigne encore la candidature de Boris Vallaud, ancien soutien d’Olivier Faure, à la direction du parti. Si le dépôt d’une motion par le président du groupe socialiste à l’Assemblée nationale contre le premier secrétaire est un événement, il répond en réalité davantage aux enjeux d’incarnation qu’à une alternative politique profonde.

Ainsi le parti doit-il gérer l’expression interne du pluralisme et s’évertuer à contenir les divisions que laisse paraître la démocratie partisane, sans pour autant en tirer de réels bénéfices collectifs.

Le règne des écuries

Enfin, le parti a connu une forte présidentialisation, c’est-à-dire que son organisation s’est largement faite autour des logiques imposées par l’élection présidentielle. Dès les lendemains de la seconde élection de François Mitterrand, en 1988, les différentes écuries présidentielles se sont développées autour des principaux « présidentiables du parti ». Cette logique a été maximisée dans les années 2000, puis institutionnalisée avec l’adoption des primaires. Chaque écurie est alors incitée à constituer ses propres ressources expertes, sans les mettre à la disposition de l’ensemble du parti au risque d’en voir les bénéfices appropriés par d’autres. L’accumulation d’expertise au fil du temps et la stabilisation d’une ligne commune dépendent donc largement de l’état des rapports de force.

Ainsi, si d’une part la « configuration partisane multipolaire » tend à suspendre le débat collectif, les différentes écuries entretiennent leurs propres espaces de travail hors du parti. Aujourd’hui encore, c’est moins l’accès des socialistes à diverses expertises qui est en jeu que la capacité du parti à travailler collectivement. Cela vaut d’autant plus que les faibles perspectives électorales du parti sur le plan national renforcent les divisions avec l’échelon local. En effet, nombre d’élus n’entendent pas renier les stratégies adoptées localement, au nom d’une stratégie nationale dont les retombées électorales paraissent faibles.

Ces évolutions ont accompagné la domination du PS sur l’ensemble de la gauche plusieurs décennies durant. Si elles ont un temps préservé la machine électorale des divisions, elles ont également conduit à dévitaliser fortement le parti. Ses capacités de médiation entre l’opinion publique et les espaces de pouvoir se sont largement affaiblies. À mesure que s’érodaient ses réseaux dans la société, ses facultés à tirer profit de l’activité du mouvement social s’amenuisaient, de même que ses possibilités de voir ses propositions et ses mots d’ordre infuser dans divers espaces sociaux. C’est également la place des militants qui a été modifiée, en raison de leur faible implication dans l’élaboration programmatique et dans la gestion de la vie du parti. Il en résulte que, non seulement ceux-ci sont aujourd’hui très peu nombreux (41 000 au congrès de Marseille en 2023), mais que de plus ils ont une faible emprise sur les destinées du parti.

En définitive, le PS paraît difficilement pouvoir faire l’impasse d’une refonte organisationnelle profonde. Il s’est construit au fil des décennies autour d’importantes ressources électorales et d’un statut de parti de gouvernement. Son effondrement national a cependant révélé un modèle adapté à la gestion de positions de pouvoir, plutôt qu’à la conquête électorale. Il en résulte le constat paradoxal d’une organisation aux perspectives de victoire présidentielle faible, mais encore paralysée des effets de la professionnalisation et de la présidentialisation.

The Conversation

Pierre-Nicolas Baudot ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

01.06.2025 à 17:06

Keir Starmer ou la difficile conciliation « entre l’Europe et le grand large »

Marie-Claire Considère-Charon, Université Marie et Louis Pasteur (UMLP)

Keir Starmer cherche à la fois à ménager la relation spéciale du Royaume-Uni avec Washington et à raffermir les liens avec l’UE, affaiblis par le Brexit.
Texte intégral (2231 mots)

En ce mois de mai 2025, le premier ministre britannique a réussi à sceller un accord avec Washington qui permet à son pays d’échapper dans une certaine mesure à la hausse des droits de douane promulguée par Donald Trump, et un autre avec l’UE, qui solde certains effets du Brexit.


C’est dans un contexte de nouvelles menaces sur son économie, déjà affaiblie par les répercussions commerciales du Brexit, que le Royaume-Uni s’est rapproché de ses deux principaux partenaires, les États-Unis et l’Union européenne, en vue de conclure des accords. En invoquant l’exemple de son illustre prédécesseur, Winston Churchill, le premier ministre britannique Keir Starmer s’est d’emblée montré résolu à ne pas « choisir entre l’Europe et le grand large ».

L’objectif du leader du parti travailliste, en poste depuis le 5 juillet 2024, est de concilier deux objectifs essentiels mais peu compatibles, semble-t-il : raffermir la relation transatlantique d’une part, et relancer les relations avec l’UE, d’autre part.

La réaffirmation de « la relation spéciale » entre les États-Unis et le Royaume-Uni

Dans le cadre du désordre géopolitique provoqué par les décisions intempestives de la Maison Blanche de taxer lourdement les produits importés aux États-Unis, le premier ministre s’est d’abord tourné vers son interlocuteur américain pour tenter de le convaincre d’appliquer au Royaume-Uni un traitement préférentiel.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Dès le 26 février 2025, à l’occasion de sa visite à la Maison Blanche, il avait tenté d’amadouer le président Trump en lui remettant l’invitation du Roi Charles à une seconde visite d’État, qui a été acceptée avec enthousiasme.

Le 3 avril 2025, au lendemain de l’annonce par la Maison Blanche d’une augmentation à 25 % des droits de douane sur les importations d’automobiles britanniques, Starmer a choisi de ne pas riposter mais d’agir à l’égard de son partenaire américain avec calme et sang-froid, selon ses propres termes, en soulignant que toutes ses décisions seraient uniquement guidées par l’intérêt national et les intérêts de l’économie britannique.

Sa démarche, au nom de la « relation spéciale » qui unit les deux pays, a également été étayée par des arguments commerciaux : il a rappelé que son pays n’enregistrait pas d’excédent commercial avec les États-Unis et qu’il était naturel que le président revoie à la baisse les droits de douane à l’encontre des produits britanniques. Il était en effet crucial pour Londres d’obtenir de moindres taux d’imposition, voire des exonérations, de façon à sauver des milliers d’emplois menacés, dans les secteurs de l’industrie automobile et de la sidérurgie.

Le volontarisme de Starmer, qui a pu compter sur une équipe soudée et des conseillers compétents et avisés, s’est toutefois heurté à des partenaires coriaces et à un Donald Trump versatile et peu conciliant, ce qui augurait mal d’une issue positive. Mais le moment s’est révélé propice au rapprochement, lorsque les États-Unis ont commencé à subir l’effet boomerang de leurs mesures punitives, à l’heure où les porte-conteneurs sont arrivés à moitié vides dans les ports américains.

Starmer est en effet parvenu, le 8 mai dernier, à signer avec Trump un accord par lequel Trump revenait sur son engagement à ne pas accorder d’exonérations ou de rabais sectoriels. Les droits de douane sont passés de 25 % à 10 % pour 100 000 voitures britanniques exportées chaque année. Les États-Unis ont également consenti à créer de nouveaux quotas pour l’acier et l’aluminium britanniques sans droits de douane, et à être plus cléments envers le Royaume-Uni lorsqu’ils imposeront à l’avenir des droits de douane pour des raisons de sécurité nationale sur les produits pharmaceutiques et d’autres produits.

En contrepartie, le Royaume-Uni a sensiblement élargi l’accès à son marché des produits de l’agroalimentaire américain comme le bœuf, ainsi que le bioéthanol mais n’a toutefois pas cédé à la pression de Washington, qui souhaitait le voir réviser à la baisse les normes britanniques en matière de sécurité alimentaire. Il s’agissait d’une condition préalable à toute forme d’assouplissement des échanges de denrées alimentaires et de végétaux entre le Royaume-Uni et l’Union européenne.

L’accord du 8 mai 2025 a une portée limitée car il ne couvre que 30 % des exportations britanniques, et l’industrie pharmaceutique n’a pas été prise en compte. Il devrait être suivi d’un accord commercial complet, mais aucun calendrier n’a été programmé. Et Trump peut revenir à tout moment sur les concessions qu’il a accordées au Royaume-Uni. Une autre critique majeure à l’encontre de cet accord est qu’il enfreint la clause de la nation la plus favorisée, qui figure en général dans les accords de commerce international, et permet à chaque pays de se voir appliquer une égalité de traitement par ses partenaires commerciaux.

Cet accord, qui est intervenu une semaine après la signature de l’Accord de libre-échange avec l’Inde, représente pour le premier ministre britannique une victoire politique, d’autant mieux accueillie qu’elle survient au moment où sa cote de popularité n’est plus qu’à 23 %, tant les critiques se sont multipliées quant à son déficit de leadership et à des mesures souvent jugées inéquitables. Keir Starmer s’est également attelé à une autre tâche primordiale : celle de la réinitialisation des relations avec l’Union européenne, qui s’était amorcée sous le mandat de son prédécesseur Rishi Sunak avec la signature du cadre de Windsor, qui allégeait le dispositif des échanges en mer d’Irlande.

La relance des relations avec l’UE

Dans ce domaine comme dans celui de la relation transatlantique, il s’est agi d’un travail de longue haleine, jalonné par une longue série de rencontres et de réunions entre les autorités britanniques et la présidente de la Commission européenne, ainsi qu’entre leurs équipes, sous la direction du Britannique Nick Thomas-Symonds, ministre en charge du Cabinet office, de la Constitution et des Relations avec l’Union européenne, et du vice-président de la Commission européenne Maros Sefcovic.

Le sentiment, partagé entre les deux parties, de l’impérieuse nécessité de relancer des relations abîmées par « les années Brexit », obéissait à des raisons à la fois commerciales et géopolitiques. Il a permis l’émergence d’une nouvelle dynamique, où la défiance n’était plus de mise. Sans qu’il soit question de revenir sur l’engagement britannique du non-retour au marché unique ni à l’union douanière, l’ambition des Britanniques, comme celle des Européens, était de renforcer la coopération et la coordination en vue de nouvelles dispositions et d’actions conjointes au niveau des échanges et de la politique de sécurité et de défense.

Dans un contexte économique très difficile, il était urgent pour les Britanniques d’apporter des solutions au problème persistant des échanges entre le Royaume-Uni et son principal partenaire commercial, l’UE, qui avaient chuté de 15 % depuis 2019, désormais dépassées en volume par celles à destination des pays hors Union européenne.

L’accord signé le 19 mai 2025 avec l’UE à Lancaster House officialise une nouvelle phase des relations entre les deux parties et constitue une première étape vers une coopération renforcée. Il apporte des réponses concrètes sur certains dossiers critiques, comme celui des échanges transfrontaliers de marchandises, ou sensibles, comme celui de la pêche, et ouvre des perspectives prometteuses sur d’autres dossiers comme celui d’un partenariat de sécurité et de défense ainsi que celui de la mobilité des jeunes Européens et Britanniques.

Les nouvelles dispositions commerciales auront pour effet de réduire sensiblement l’impact de la frontière en mer d’Irlande sur les échanges de marchandises, en particulier entre la Grande-Bretagne et l’Irlande du Nord, qui continuent à pâtir du dispositif douanier, malgré la signature du Cadre de Windsor. En introduisant la mise en place d’une zone sanitaire et phytosanitaire entre le Royaume-Uni et l’UE, il met fin aux certificats sanitaires d’exportation et ouvre la voie vers un « alignement dynamique » des normes réglementaires des deux parties.

Les Européens demandaient que soient reconduits les droits de pêche qui, en vertu de l’Accord de commerce et de coopération entre le Royaume-Uni et l’UE de 2021, permettaient aux pêcheurs de l’UE d’accéder aux eaux territoriales britanniques jusqu’en 2026. Le Royaume-Uni a accepté la reconduction des droits de pêche des Européens pour 12 années de plus, jusqu’en 2038. Ces concessions ont été obtenues en échange de dispositions visant à faciliter l’entrée des denrées alimentaires sur le marché européen. Elles ont également ouvert la voie vers la mise en œuvre d’un pacte de défense et de sécurité.

Les turbulences géopolitiques déclenchées par l’administration Trump, ainsi que la poursuite de la guerre en Ukraine, ont donné un nouvel élan à la coopération en matière de défense et de sécurité entre le Royaume-Uni et l’UE. Le partenariat de sécurité et de défense signifie l’engagement mutuel à s’entendre sur les sujets majeurs comme celui du soutien à l’Ukraine et celui de l’avenir de l’OTAN, et les moyens de réduire la dépendance militaire vis-à-vis des États-Unis. Il ouvre la voie vers l’accès du Royaume-Uni au fonds européen de financement des États membres de l’UE, SAFE (Security Action for Europe) à hauteur de 150 milliards d’euros, qui sert à financer des équipements et des opérations militaires conjointes des pays de l’UE.

La mise en œuvre d’un programme de mobilité des jeunes afin de faciliter les échanges culturels et les projets pilotes était une question difficile dans la mesure où les jeunes Européens sont beaucoup plus nombreux à fréquenter les universités britanniques que l’inverse. L’accord intitulé « Youth Experience » n’est en réalité qu’un engagement à progresser dans la direction d’une plus grande ouverture aux jeunes Européens et du rétablissement du programme Erasmus.

Le choix de ne pas choisir

Le Brexit a considérablement compliqué les échanges du Royaume-Uni avec l’Union européenne, son premier partenaire commercial. Il l’a tout autant rendu plus vulnérable à l’insécurité à l’échelle mondiale. Keir Starmer a compris la nécessité de sortir son pays de l’isolement où l’a cantonné le Brexit, en cultivant ou en restaurant les relations avec ses deux partenaires privilégiés, les États-Unis et l’Union européenne. Il y a toutefois lieu de se demander si, compte tenu du dérèglement de l’ordre mondial provoqué par le président des États-Unis, ainsi que de son hostilité affichée à l’égard de l’Europe, le premier ministre britannique pourra encore longtemps refuser de choisir son camp entre l’Europe et l’Amérique.

The Conversation

Marie-Claire Considère-Charon est membre du comité éditorial de l'Observatoire du Brexit et membre du groupe de recherche CREW (Center for Research on the English-speaking Wordl) Sorbonne nouvelle.

PDF

01.06.2025 à 14:15

Et si l’eau potable ne coulait plus de source… quel modèle économique mettre en place ?

Mehdi Guelmamen, Doctorant en sciences économiques, Université de Lorraine

Alexandre Mayol, Maître de conférences HDR en sciences économiques, Université de Lorraine

Justine Le Floch, Doctorante en sciences de gestion, Université Paris 1 Panthéon-Sorbonne

Stéphane Saussier, Professeur des universités, IAE Paris – Sorbonne Business School

Le modèle économique de l’eau potable a été pensé à un moment où la ressource semblait infinie. Les canicules récentes obligent à le refonder d’urgence.
Texte intégral (1878 mots)

Après les sécheresses de 2022 et de 2023, la disponibilité de l’eau potable en France n’a plus rien d’une évidence. Le modèle économique de distribution de l’eau imaginé à un moment où la ressource semblait infinie mérite d’être repensé. La tarification, d’une part, et l’exploitation, d’autre part, sont au cœur des réflexions à mener.


La France, longtemps épargnée par le stress hydrique grâce à un climat tempéré, découvre désormais la rareté de l’eau potable, comme en témoignent les sécheresses de 2022 et 2023. Ces épisodes extrêmes ont frappé les esprits : 343 communes ont dû être ravitaillées en urgence par camions-citernes, et 90 % des départements ont subi des restrictions d’usage de l’eau. En 2023, le gouvernement a lancé un « Plan Eau » pour anticiper les pénuries et encourager un usage plus responsable de la ressource.

Le défi à relever est immense : assurer un accès durable à l’eau potable exigera des investissements massifs et une profonde adaptation des pratiques. Quel modèle économique permettra de relever ce défi ? Deux pistes principales se dégagent : utiliser le prix de l’eau pour inciter à la sobriété, et repenser la gestion et le financement du service d’eau potable.

Le juste prix à fixer

En France, le service de l’eau potable fonctionne comme un monopole naturel : les coûts fixes élevés (entretien des réseaux de distribution, stations de pompage et usines de traitement) rendent inefficace toute mise en concurrence. La gestion du service est confiée aux collectivités locales, qui peuvent choisir entre au moins deux modes d’organisation : une régie publique ou une délégation à un opérateur privé.

Longtemps, l’effort s’est concentré sur l’extension des réseaux, notamment en zone rurale. La tarification a visé l’équilibre financier, conformément au principe du « l’eau paie l’eau », sans objectif environnemental explicite. Le prix du mètre cube reste, aujourd’hui encore, bas par rapport à la moyenne européenne, même s’il varie fortement selon les territoires. Il combine une part fixe, une part variable ainsi que diverses taxes et redevances.

Intégrer une dimension environnementale

Plusieurs dispositifs ont néanmoins encouragé l’intégration d’une dimension environnementale dans le prix de l’eau pour inciter à la sobriété, mais ont fait l’objet de critiques fortes. La loi sur l’eau et les milieux aquatiques de 2006 a, par exemple, encouragé le recours au tarif « progressif ». Ce tarif consiste à moduler la part variable du prix en fonction du volume consommé selon des tranches prédéfinies. Le principe est simple : plus le foyer consomme, plus il paiera cher.

Ce dispositif, séduisant sur le principe, a pourtant suscité une faible adhésion au niveau local (à peine une dizaine de services sur 8 000 en France avant 2023). Au niveau national, le président de la République, Emmanuel Macron avait évoqué sa généralisation en réponse à la sécheresse, mais le rapport du CESE de novembre 2023 a enterré cette proposition. À l’étranger des communes, comme Bruxelles, ont abandonné la tarification progressive après avoir constaté ses trop nombreux défauts.


À lire aussi : La nappe de Beauce, un immense réservoir d’eau confronté à la sécheresse et à la pollution


Pourquoi ce rejet ? Plusieurs obstacles limitent l’efficacité attendue de cette mesure. Il faut rappeler que la tarification progressive suppose une information complète du consommateur sur sa consommation. Or, la facturation de l’eau en France reste peu intelligible, en particulier dans l’habitat collectif où les appartements ne font l’objet que d’une refacturation une fois par an par leur syndic. Pire, de très nombreux logements anciens n’ont pas de comptage individuel et leur consommation n’est qu’estimée. Dans des villes comme Montpellier, seuls 33 % des logements sont individualisés et peuvent se voir appliquer la tarification progressive.

Tarification progressive, défauts immédiats

C’est la raison pour laquelle cette forme de tarif ne peut fonctionner qu’avec l’installation coûteuse de compteurs dans les logements. La tarification progressive a d’autres défauts, comme le fait que les tranches ne s’adaptent pas à la taille du foyer, pénalisant alors les familles nombreuses. Par ailleurs, ils ne s’appliquent pas toujours à l’ensemble des usagers, puisqu’ils ne concerneront pas, par exemple, les professionnels. Enfin, leur fonctionnement suppose une capacité des ménages à réduire leur consommation, ce qui n’est pas aussi simple.

Faut-il pour autant renoncer à faire évoluer les comportements par les tarifs ? Pas nécessairement. D’autres approches, comme la tarification saisonnière, pourraient envoyer un signal prix plus lisible en période de stress hydrique. L’objectif : rendre le consommateur acteur de la sobriété, sans complexifier à l’excès le système.

La sobriété hydrique au cœur d’un nouveau modèle économique et de gouvernance

Responsabiliser les consommateurs ne suffira pas : encore faut-il que l’eau parvienne jusqu’à eux. Or, la ressource souffre également de la vétusté des infrastructures de distribution. Les pertes en eau à cause des fuites représentent 1 milliard de mètres cubes chaque année, soit l’équivalent de la consommation de 20 millions d’habitants. Les besoins en rénovation sont alors considérables et représentent, selon une étude de l’Institut national des études territoriales (Inet), 8 milliards d’euros pour les années à venir. Comment assurer le financement de ce « mur d’investissement » ? Plusieurs paramètres méritent d’être questionnés.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Premièrement, le principe selon lequel « l’eau paie l’eau » implique que le financement repose essentiellement sur la hausse du prix pour l’usager. Il y aura lieu toutefois d’arbitrer localement autour du partage de cette hausse de prix entre les professionnels et les ménages, mais également entre l’abonnement et la part volumétrique. Par exemple, augmenter la part fixe de l’abonnement de base afin que les résidences secondaires ou les usagers occasionnels – qui utilisent peu d’eau mais bénéficient tout de même de l’infrastructure – participent davantage aux coûts d’entretien du réseau. Si la hausse du prix s’avère insuffisante, le rôle des agences de l’eau pour aider financièrement les services en difficulté devra être repensé mieux fixer des objectifs contraignants de performance.

Un rôle pour les intercommunalités

Ensuite, la coopération intercommunale peut apparaître comme un levier pour financer en commun les investissements. Alors qu’aujourd’hui plusieurs milliers de communes – souvent très petites – gèrent seules l’eau potable et peinent à assumer l’autofinancement des rénovations, se regrouper permettrait de mutualiser les travaux. La loi Notre de 2015 a précisément cherché à inciter les petits services de moins de 15 000 habitants à se regrouper, mais suscite beaucoup d’hostilité au niveau local. Même si la modalité de coopération peut être améliorée, la collaboration des communes dans la gestion des réseaux apparaît indispensable.

Enfin, le modèle économique actuel doit être repensé puisque les recettes des opérateurs reposent essentiellement sur les volumes facturés. Il apparaît contradictoire de promouvoir la sobriété hydrique si elle le conduit à faire baisser les recettes. Pour résoudre cette difficulté, des clauses de performance environnementale utilisées dans le secteur des déchets pourraient aussi s’appliquer dans les contrats d’eau, qui compenseraient la baisse des volumes par des primes. Ce mécanisme serait un levier efficace qui pourrait être appliqué à tous les opérateurs, publics comme privés.

Le Monde, 2024.

Indispensable régulation à l’échelle nationale

Au-delà des contrats locaux, de nombreux experts plaident pour une refonte de la gouvernance du secteur, en s’inspirant de modèles étrangers. L’idée d’un régulateur économique national fait son chemin. Le pilotage global du secteur pourrait gagner en cohérence avec la création d’un régulateur économique national de l’eau potable. Cette autorité indépendante pourrait garantir une transparence accrue, limiter les asymétries d’information, et promouvoir des pratiques économes et durables. Les agences de l’eau pourraient également évoluer vers un rôle de régulation régionale, en intégrant mieux les enjeux du grand cycle de l’eau.

Le modèle économique français de l’eau potable arrive à un tournant. Face au changement climatique et aux aléas qui menacent notre approvisionnement en eau, faire évoluer ce modèle n’est plus une option mais une nécessité. Tarification plus intelligente, investissements massifs et coordonnés dans les réseaux, nouvelles règles du jeu pour les opérateurs et régulation renforcée : ces adaptations, loin d’être purement techniques, touchent à un bien vital dont la gestion nous concerne tous. L’eau potable a longtemps coulé de source en France ; demain, elle devra couler d’une gouvernance renouvelée, capable de concilier accessibilité pour les usagers, équilibre financier du service et préservation durable de la ressource.

The Conversation

Alexandre Mayol a reçu des financements de l'Agence de l'Eau Rhin-Meuse pour un projet de recherche académique.

SAUSSIER Stéphane a reçu des financements dans le passé de Veolia, Suez et de l'Office Français de la Biodiversité dans le cadre de projets de recherche.

Justine Le Floch et Mehdi Guelmamen ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.

PDF

01.06.2025 à 12:26

CrossFit et Hyrox, deux modèles économiques qui redéfinissent le marché du fitness

Wissam Samia, Enseignant-chercheur, PhD en économie, Université de Picardie Jules Verne (UPJV)

Si le CrossFit s’appuie sur un réseau décentralisé de 700 salles, l’Hydrox s’organise autour de 83 évènements. Avec un même objectif : faire du sport un marché économique rentable.
Texte intégral (1784 mots)
En vue de préparer leur _summer body_ ou tout simplement par passion, de plus en plus de Français sont adeptes du Crossfit. RomanChazo/Shutterstock

Deux nouveau-nés ont émergé dans le paysage du fitness : le CrossFit, mêlant renforcement musculaire et exercice cardio-vasculaire, l’Hyrox y ajoutant la course à pied. Avec leur propre logique. Le premier sport s’appuie sur un réseau décentralisé de 700 salles en France. Le second sur plus de 83 évènements centralisés. Pour un même objectif : faire du sport un marché économique rentable.


Muscle-Up (traction + passage au dessus de la barre), clean & jerk (épaulé-jeté), Snatch (arraché), sled push (pousser un traîneau chargé sur une distance), burpee broad jumps (pompe et saut en longueur), wall balls (squat avec une médecine ball à lancer contre un mur)… si ces mots ne vous parlent pas, c’est que vous n’êtes pas encore adepte du CrossFit ou de l’Hyrox, ces sports qui séduisent plus de 200 000 adeptes dans l’Hexagone.

Ces deux modèles sont figures de proue du renouveau du fitness. Ces entraînements de haute intensité, en petits groupes, suivent un protocole défini par les entreprises du même nom. Le CrossFit mélange renforcement musculaire, haltérophilie, force athlétique, exercices cardio-vasculaires et mouvements gymniques. L’Hyrox y ajoute la course à pied, la force et l’endurance. Concrètement, huit fois un kilomètre de course à pied et un exercice de fitness.

Côté stratégie économique, le CrossFit s’appuie sur une logique décentralisée et un ancrage communautaire ; l’Hyrox repose sur une logique centralisée d’organisation d’évènements et un effet d’échelle. Si tous deux incarnent des paradigmes économiques distincts, ils convergent vers une même dynamique : valoriser le sport comme un marché. En explorant leurs structures de financement, leur impact territorial et leurs stratégies de diffusion, nous proposons une lecture critique de la façon dont le fitness devient un laboratoire de tendances pour l’économie de l’expérience.

Décentralisation communautaire vs centralisation hégémonique

Le modèle CrossFit repose sur une structure bottom-up. Chacune des 14 000 salles affiliées ou « box » – dont plus de 700 en France – constitue une entité juridique autonome, qui reverse une licence annuelle à CrossFit LLC tout en conservant une grande latitude opérationnelle. Ce modèle d’affiliation, proche du licensing, favorise une croissance extensive sans immobilisation de capital par la maison-mère. Le financement repose essentiellement sur les abonnements des adhérents et des revenus annexes – coaching, merchandising local. Ce modèle de dissémination rapide avec faible contrôle central est adossé à un capital social fort.

A contrario, Hyrox se positionne comme un acteur centralisé du sport-spectacle. La société allemande Upsolut Sports organise directement les compétitions et agrège la quasi-totalité des revenus – billetterie, droits d’inscription, sponsoring, ventes de produits dérivés. En 2020, l’entreprise a levé environ 5 millions d’euros lors d’une première phase de financement. En 2022, elle a vu Infront Sports & Media, filiale du conglomérat chinois Wanda Group, entrer majoritairement au capital. Ce modèle s’inscrit pleinement dans une logique de scale-up, caractérisée par une croissance rapide reposant sur des capitaux-risqueurs, une forte intégration verticale et l’ambition d’atteindre une masse critique à l’échelle mondiale. Hyrox contrôle l’ensemble de la chaîne de valeur – production, branding, diffusion – ce qui lui permet de capter directement les flux financiers et d’optimiser ses marges. Cette stratégie vise moins la rentabilité immédiate que la valorisation à long terme, en vue d’un positionnement hégémonique sur le marché du fitness compétitif globalisé.

Coûts d’entrée et barrières à l’implantation

Les exigences capitalistiques des deux modèles créent des barrières à l’entrée de natures différentes. Pour ouvrir une box CrossFit, l’entrepreneur doit s’acquitter d’une licence d’environ 4 000 euros par an, recruter du personnel certifié, et investir massivement dans du matériel et de l’immobilier – jusqu’à 100 000 euros d’investissement initial. Ce modèle repose sur un capital fixe élevé, mais offre un potentiel de revenus récurrents. Le prix d’abonnement mensuel, compris entre 80 et 150 euros, reflète ce positionnement premium.

Trois personnes pratiquent le crossfit dans une salle de sport
En France, avec près de 700 salles affiliées en 2023, ce modèle génère plusieurs dizaines de millions d’euros de chiffre d’affaires annuel. BearFotos/Shutterstock

Hyrox, en revanche, n’impose pas la création d’infrastructures dédiées. Les salles de sport existantes peuvent devenir partenaires pour proposer des entraînements Hyrox, contre une redevance modeste – environ 1 500 euros annuels. L’accès au marché repose sur un capital humain adapté et une mobilisation temporaire de ressources existantes. Pour l’usager final, le coût est concentré sur l’accès à l’événement, environ 130 euros par compétition. Cette accessibilité réduit les barrières à l’adoption pour les pratiquants et permet une diffusion plus rapide dans les territoires urbains et périurbains.

Abonnements récurrents vs activités ponctuelles à forte marge

L’économie CrossFit repose sur une récurrence de flux financiers : abonnements mensuels, formations de coachs, compétitions communautaires et vente de produits dérivés. Ce modèle de revenu présente une certaine prévisibilité et résilience, notamment en cas de chocs exogènes. En France, avec près de 700 salles affiliées en 2023, ce modèle génère plusieurs dizaines de millions d’euros de chiffre d’affaires annuel. La nature décentralisée permet à chaque box d’adapter son offre au contexte local. Les compétitions locales, souvent organisées par les box elles-mêmes, renforcent l’ancrage territorial de l’activité et créent des retombées économiques indirectes – restauration, hôtellerie, transport.


À lire aussi : Tous en salle ? Comprendre l’obsession contemporaine pour les corps musclés


Hyrox, à l’inverse, fonde son modèle sur des activités ponctuelles mais à forte valeur ajoutée. Chaque événement est une unité de profit autonome, financée par les frais d’inscription, la billetterie et le sponsoring. En 2025, avec plus de 600 000 participants prévus dans 83 événements, Hyrox anticipe plus de 100 millions de dollars de revenus globaux. Le modèle mise sur une croissance rapide de sa base de clients et la monétisation de la marque via le merchandising et les droits médiatiques. La stratégie repose également sur l’effet de réseau : plus les événements se multiplient, plus la notoriété et la communauté s’étendent, renforçant la rentabilité marginale de chaque course organisée.

Hybridation des modèles

La pandémie de Covid-19 a constitué un test de robustesse pour ces deux modèles. CrossFit a connu une contraction temporaire, mais sa structure décentralisée et la forte cohésion communautaire ont permis une relance rapide dès 2022. Hyrox, bien qu’impacté par l’arrêt des événements, a utilisé cette période pour consolider ses financements et accélérer son internationalisation.

Depuis, une forme de convergence opère : de nombreuses salles CrossFit adoptent le label Hyrox, tandis qu’Hyrox recrute massivement dans la base de pratiquants CrossFit. Cette hybridation dessine un écosystème où les modèles ne s’excluent plus mais se complètent stratégiquement. Dans cette perspective, le fitness ne relève plus du seul loisir : il devient un vecteur stratégique d’accumulation et d’innovation dans les industries culturelles contemporaines. La prochaine décennie permettra sans doute d’observer si ces modèles s’institutionnalisent davantage ou s’ils cèdent la place à d’autres formats hybrides, adaptés aux mutations technologiques et sociales du sport connecté.

The Conversation

Wissam Samia ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

01.06.2025 à 09:27

La banalité du mal : ce que dit la recherche en psychologie sociale

Johan Lepage, Chercheur associé en psychologie sociale, Université Grenoble Alpes (UGA)

La violence dans les hiérarchies sociales est exercée par des individus qui se distinguent des autres par leur orientation autoritaire.
Texte intégral (1918 mots)
Stanley Milgram et son « générateur de décharges électriques ». The Chronicle of Higher Education

La recherche en psychologie sociale réfute la thèse de la banalité du mal. La violence dans les hiérarchies sociales est exercée par des individus qui se distinguent par un élément : leur orientation autoritaire – et ainsi par un comportement particulièrement coercitif, inégalitaire et intolérant.


Le chercheur en psychologie sociale Stanley Milgram publie en 1964 la première recherche expérimentale sur la soumission à l’autorité. Son protocole consiste à demander à des personnes volontaires d’infliger des décharges électriques à un autre participant (en réalité un compère de Milgram) dans le cadre d’une recherche prétendument sur les effets de la punition sur l’apprentissage. Un échantillon de psychiatres prédit une désobéissance quasi unanime, à l’exception de quelques cas pathologiques qui pourraient aller jusqu’à infliger un choc de 450 volts.

Les résultats provoquent un coup de tonnerre : 62,5 % des participants obéissent, allant jusqu’à administrer plusieurs chocs de 450 volts à une victime ayant sombré dans le silence après avoir poussé d’intenses cris de douleur. Ce résultat est répliqué dans plus d’une dizaine de pays auprès de plus de 3 000 personnes.

Ces données illustrent la forte propension à l’obéissance au sein de la population générale. Elles montrent également des différences individuelles importantes puisqu’environ un tiers des participants désobéit. Les caractéristiques socio-démographiques des individus et le contexte culturel semblent n’avoir aucune influence sur le comportement dans le protocole de Milgram. Comment expliquer alors les différences individuelles observées ?

Nous avons conduit une nouvelle série d’expériences dans les années 2010. Nos résultats montrent un taux d’obéissance similaire ainsi qu’une influence notable de l’autoritarisme de droite : plus les participants ont un score élevé à l’échelle d’autoritarisme de droite, plus le nombre de chocs électriques administrés est important.

Recherche sur l’autoritarisme

La psychologie sociale traite la question de l’autoritarisme depuis plusieurs décennies. Cette branche de la psychologie expérimentale a notamment fait émerger dès les années 1930 une notion importante : celle d’attitude.

Une attitude désigne un ensemble d’émotions, de croyances, et d’intentions d’action à l’égard d’un objet particulier : un groupe, une catégorie sociale, un système politique, etc. Le racisme, le sexisme sont des exemples d’attitudes composées d’émotions négatives (peur, dégoût), de croyances stéréotypées (« les Noirs sont dangereux », « les femmes sont irrationnelles »), et d’intentions d’action hostile (discrimination, agression).

Les attitudes sont mesurées à l’aide d’instruments psychométriques appelés échelles d’attitude. De nombreux travaux montrent que plus les personnes ont des attitudes politiques conservatrices, plus elles ont également des attitudes intergroupes négatives (e.g., racisme, sexisme, homophobie), et plus elles adoptent des comportements hostiles (discrimination, agression motivée par l’intolérance notamment). À l’inverse, plus les personnes ont des attitudes politiques progressistes, plus elles ont également des attitudes intergroupes positives, et plus elles adoptent des comportements prosociaux (soutien aux personnes défavorisées notamment).

Les attitudes politiques et les attitudes intergroupes sont donc corrélées. Une manière d’analyser une corrélation entre deux variables est de postuler l’existence d’une source de variation commune, c’est-à-dire d’une variable plus générale dont les changements s’accompagnent systématiquement d’un changement sur les autres variables. Dit autrement, si deux variables sont corrélées, c’est parce qu’elles dépendent d’une troisième variable. La recherche en psychologie sociale suggère que cette troisième variable puisse être les attitudes autoritaires. Cette notion regroupe des attitudes exprimant des orientations hiérarchiques complémentaires :

  • l’orientation à la dominance sociale, une attitude orientée vers l’établissement de relations hiérarchiques, inégalitaires entre les groupes humains ;

  • l’autoritarisme de droite, une attitude orientée vers l’appui conservateur aux individus dominants.

La recherche en psychologie expérimentale, en génétique comportementale et en neurosciences montre invariablement que ce sont les attitudes autoritaires, plus que toute autre variable (personnalité, éducation, culture notamment), qui déterminent les attitudes intergroupes, les attitudes politiques, et ainsi le comportement plus ou moins coercitif, inégalitaire, et intolérant des personnes.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Autoritarisme dans la police

Étudions le cas d’un groupe : la police. Plusieurs études montrent que les policiers nouvellement recrutés ont des scores significativement plus élevés à l’échelle d’autoritarisme de droite que la population générale.

Ce résultat important suggère que les personnes autoritaires sont plus susceptibles de choisir une carrière dans la police (autosélection) et/ou que la police a tendance à privilégier les personnes autoritaires pour le recrutement (sélection). Les personnes autoritaires et l’institution policière semblent réciproquement attirées, ce qui entraîne un biais de sélection orienté vers l’autoritarisme de droite qui, on l’a vu, est responsable d’attitudes politiques conservatrices et d’attitudes intergroupes négatives.

À des fins de recherche, des universitaires ont développé un jeu vidéo simulant la situation d’un policier confronté à une cible ambiguë et devant décider de tirer ou non. Des personnes noires ou blanches apparaissent sur un écran de manière inattendue, dans divers contextes (parc, rue, etc.) Elles tiennent soit un pistolet, soit un objet inoffensif comme un portefeuille. Dans une étude menée aux États-Unis, les chercheurs ont comparé la vitesse à laquelle les policiers décident de tirer, ou de ne pas tirer, dans quatre conditions :

(i) cible noire armée,

(ii) cible blanche armée,

(iii) cible noire non armée,

(iv) cible blanche non armée.

Les résultats montrent que les policiers décidaient plus rapidement de tirer sur une cible noire armée, et de ne pas tirer sur une cible blanche non armée. Ils décidaient plus lentement de ne pas tirer sur une cible noire non armée, et de tirer sur une cible blanche armée. Ces résultats montrent un biais raciste dans la prise de décision des policiers. Ils réfutent l’hypothèse d’une violence policière exercée par seulement « quelques mauvaises pommes ».

On observe dans toutes les régions du monde une sur-représentation des groupes subordonnés parmi les victimes de la police (e.g., minorités ethniques, personnes pauvres). Les chercheurs en psychologie sociale Jim Sidanius et Felicia Pratto proposent la notion de terreur systémique (systematic terror) pour désigner l’usage disproportionné de la violence contre les groupes subordonnés dans une stratégie de maintien de la hiérarchie sociale.

Soutien des personnes subordonnées au statu quo

On peut s’interroger sur la présence dans la police de membres de groupes subordonnés (e.g., minorités ethniques, femmes).

Une explication est l’importance des coalitions dans les hiérarchies sociales tant chez les humains que chez les primates non humains, comme les chimpanzés, une espèce étroitement apparentée à la nôtre. On reconnaît typiquement une coalition quand des individus menacent ou attaquent de manière coordonnée d’autres individus. Le primatologue Bernard Chapais a identifié plusieurs types de coalition, notamment :

  • les coalitions conservatrices (des individus dominants s’appuient mutuellement contre des individus subordonnés qui pourraient les renverser) ;

  • l’appui conservateur aux individus dominants (des individus subordonnés apportent un appui aux individus dominants contre d’autres individus subordonnés) ;

  • les coalitions xénophobes (des membres d’un groupe attaquent des membres d’un autre groupe pour la défense ou l’expansion du territoire).

La police regroupe des individus subordonnés motivés par l’appui conservateur aux individus dominants (tel que mesuré par l’échelle d’autoritarisme de droite) et la xénophobie (telle que mesurée par les échelles de racisme).

Dans son ensemble, la recherche en psychologie sociale réfute la thèse de la banalité du mal. La violence dans les hiérarchies sociales est exercée par des individus qui se distinguent par leur orientation autoritaire, et ainsi par un comportement particulièrement coercitif, inégalitaire, et intolérant.

Le mauvais état de la démocratie dans le monde suggère une prévalence importante des traits autoritaires. Lutter contre l’actuelle récession démocratique implique, selon nous, la compréhension de ces traits.

The Conversation

Johan Lepage ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

30.05.2025 à 11:25

Pourquoi certaines plantes ont différents types de feuilles : les secrets de l’hétérophyllie

Céline Leroy, Directrice de recherche en écologie tropicale, Institut de recherche pour le développement (IRD)

Loin d’être une bizarrerie botanique, l’hétérophyllie est une véritable stratégie d’adaptation, permettant à certaines plantes de mieux faire face à la diversité des contraintes de leur environnement.
Texte intégral (3046 mots)
Toutes ces feuilles ont été prélevées sur la même plante : un houx commun. Frank Vincentz, CC BY

Avez-vous déjà observé une plante avec des feuilles de formes différentes ? Ce phénomène, à la fois surprenant et fascinant, porte un nom : l’hétérophyllie. Loin d’être une bizarrerie botanique, il s’agit d’une véritable stratégie d’adaptation, permettant à certains végétaux de mieux faire face à la diversité des contraintes de leur environnement.


Vous avez sans doute déjà croisé du houx en forêt, dans un jardin ou même en décoration de Noël. Ses feuilles piquantes sont bien connues. Mais avez-vous déjà remarqué que toutes ne sont pas armées de piquants ? Sur une même plante, on trouve des feuilles épineuses en bas, et d’autres lisses plus haut. Ce n’est pas une erreur de la nature, mais un phénomène botanique fascinant : l’hétérophyllie, un mot qui vient du grec heteros signifiant différent, et de phullon, qui désigne la feuille.

Cette particularité s’observe chez de nombreuses espèces, aussi bien terrestres qu’aquatiques, où un même individu peut produire des feuilles très différentes par leur taille, leur forme, leur structure, voire leur couleur. Loin d’être simplement esthétique, cette diversité joue un rôle crucial dans la survie, la croissance et la reproduction des plantes.

Mais d’où vient cette capacité à changer de feuilles ? L’hétérophyllie peut en fait être déclenchée par des variations de l’environnement (lumière, humidité, faune herbivore…). Cette faculté d’adaptation est alors le résultat de ce qu’on appelle la plasticité phénotypique. L’hétérophyllie peut aussi résulter d’une programmation génétique propre à certaines espèces, qui produisent naturellement plusieurs types de feuilles. Quelle qu’en soit l’origine, la forme d’une feuille est le résultat d’une série d’ajustements complexes en lien avec les conditions environnementales du milieu.

Se défendre là où ça compte : quand les plantes adaptent leurs feuilles aux herbivores

Si l’on reprend le cas du houx commun (Ilex aquifolium), celui-ci offre un exemple frappant d’hétérophyllie défensive en réaction à son environnement. Sur un même arbuste, les feuilles basses, à portée d’herbivores, ont des piquants ; celles plus haut sur la tige, hors d’atteinte des animaux, sont lisses et inoffensives. Cette variation permet à la plante d’optimiser ses défenses là où le danger est réel, tout en économisant de l’énergie sur les zones moins exposées, car produire des épines est coûteux.

Des recherches ont montré que cette répartition n’est pas figée. Dans les zones très pâturées, les houx produisent plus de feuilles piquantes, y compris en hauteur, ce qui indique une capacité de réaction à la pression exercée par les herbivores. Cette plasticité phénotypique est donc induite par l’herbivorie. Mais le houx n’est pas un cas isolé. D’autres plantes déploient des stratégies similaires, parfois discrètes, traduisant une stratégie adaptative : modifier la texture, la forme ou la structure des feuilles pour réduire l’appétence ou la digestibilité, et ainsi limiter les pertes de tissus.

Lumière et ombre : quand l’éclairement façonne les feuilles

La lumière joue un rôle tout aussi déterminant dans la morphologie des feuilles. Chez de nombreuses espèces, les feuilles exposées à une lumière intense n’ont pas la même forme que celles situées à l’ombre.

Les feuilles dites « de lumière », que l’on trouve sur les parties supérieures de la plante ou sur les branches bien exposées, sont souvent plus petites, plus épaisses et parfois plus profondément découpées. Cette forme favorise la dissipation de la chaleur, réduit les pertes d’eau et augmente l’efficacité de la photosynthèse en milieu lumineux. À l’inverse, les feuilles d’ombre, plus grandes et plus minces, sont conçues pour maximiser la surface de captation de lumière dans des conditions de faible éclairement. Elles contiennent souvent davantage de chlorophylle, ce qui leur donne une couleur plus foncée.

Ce contraste est particulièrement visible chez les chênes, dont les feuilles supérieures sont épaisses et lobées, tandis que celles situées plus bas sont larges, souples et moins découpées. De très nombreuses plantes forestières présentent également ces différences. Sur une même plante, la lumière peut ainsi façonner les feuilles en fonction de leur position, illustrant une hétérophyllie adaptative liée à l’exposition lumineuse.

Vivre entre deux mondes : les plantes aquatiques à feuilles à double forme

Chez les plantes aquatiques ou amphibies, l’hétérophyllie atteint des formes encore plus spectaculaires. Certaines espèces vivent en partie dans l’eau, en partie à l’air libre et doivent composer avec des contraintes physiques très différentes.

C’est le cas de la renoncule aquatique (Ranunculus aquatilis), qui produit des feuilles très différentes selon leur emplacement. Les feuilles immergées sont fines, allongées et très découpées, presque filamenteuses.

Renoncules aquatiques (_Ranunculus aquatilis_)
Renoncules aquatiques (Ranunculus aquatilis) H. Tinguy INPN, CC BY

Cette morphologie réduit la résistance au courant, facilite la circulation de l’eau autour des tissus et améliore les échanges gazeux dans un milieu pauvre en oxygène. En revanche, les feuilles flottantes ou émergées sont larges, arrondies et optimisées pour capter la lumière et absorber le dioxyde de carbone de l’air. Ce phénomène est réversible : si le niveau d’eau change, la plante ajuste la forme de ses nouvelles feuilles.

La sagittaire aquatique (Sagittaria spp.) présente elle aussi une hétérophyllie remarquable, avec des feuilles émergées en forme de flèche, épaisses et rigides et des feuilles souvent linéaires et fines sous l’eau. Ces changements illustrent une stratégie morphologique adaptative, qui permet à une même plante d’exploiter efficacement des milieux radicalement différents.


Visuel d'illustration de la newsletter Ici la Terre représentant la planète Terre sur un fond bleu.

Abonnez-vous dès aujourd'hui.

Pour suivre au plus près les questions environnementales, retrouvez chaque jeudi notre newsletter thématique « Ici la Terre ».


Changer avec l’âge : quand la diversité des feuilles est inscrite dans le développement des plantes

Mais l’hétérophyllie ne résulte pas toujours de l’environnement. Chez de nombreuses espèces, elle accompagne simplement le développement naturel de la plante. À mesure que la plante grandit, elle passe par différents stades de développement, au cours desquels elle produit des feuilles de formes distinctes.

Ce processus, appelé « hétéroblastie », marque bien souvent le passage entre les phases juvénile et adulte. Un exemple classique est celui du lierre commun (Hedera helix). Les tiges rampantes ou grimpantes portent des feuilles lobées caractéristiques du stade juvénile, tandis que les tiges qui portent les fleurs, situées en hauteur, portent des feuilles entières et ovales. Ce changement est irréversible et marque l’entrée de la plante dans sa phase reproductive.

Le lierre (_Hedera helix_) présente deux types de feuilles : les premières, celles qu'on connait le mieux, sont lobées, celles que l'on trouve sur les rameaux floraux sont plus claires, entières et ovales.
Le lierre (Hedera helix) présente deux types de feuilles : les premières, celles qu’on connaît le mieux, sont lobées et celles que l’on trouve sur les rameaux floraux sont plus claires, entières et ovales. S. Filoche-O. Roquinarc'h/INPN, CC BY

À lire aussi : Le lierre « tueur d’arbre » : entre préjugés, ignorance et réalité


Un autre exemple frappant est celui de certains acacias australiens. Les jeunes individus développent des feuilles composées, typiques des légumineuses. À mesure qu’ils grandissent, ces feuilles sont progressivement remplacées par des phyllodes, des pétioles (c’est-à-dire la partie qui unit chez la plupart des plantes la base de la feuille et la tige) élargis qui assurent la photosynthèse tout en limitant l’évaporation (voir planche dessins, ci-dessous). Ces structures en forme de faucille sont particulièrement bien adaptées aux climats chauds et secs, car elles peuvent maintenir une activité photosynthétique efficace tout en minimisant les pertes hydriques.

Céline Leroy, Fourni par l'auteur

Les processus derrière l’hétérophyllie

Les mécanismes qui permettent à une plante de modifier la forme de ses feuilles sont complexes et encore mal compris. On connaît mieux les formes que prennent les feuilles que les mécanismes qui les déclenchent ou les fonctions qu’elles remplissent.

Chez certaines espèces, des hormones végétales telles que l’éthylène, l’acide abscissique (ABA), les auxines ou encore les gibbérellines (GA) jouent un rôle central dans le déclenchement des différentes formes de feuilles. Chez le houx, la différence entre feuilles piquantes et lisses serait liée à des modifications réversibles de la structure de l’ADN, sans altération des gènes eux-mêmes, déclenchées par la pression exercée par les herbivores.

Les plantes hétéroblastiques, quant à elles, sont principalement contrôlées par des mécanismes génétiques et moléculaires. La succession des types de feuilles au cours du développement peut néanmoins être accélérée ou retardée en fonction des conditions de croissance, traduisant une interaction fine entre développement et environnement.

La régulation de l’hétérophyllie repose ainsi sur une combinaison d’interactions hormonales, génétiques, épigénétiques et environnementales. Ce phénomène constitue également un exemple remarquable de convergence évolutive, car l’hétérophyllie est apparu indépendamment dans des lignées végétales très différentes. Cela suggère qu’il s’agit d’une solution robuste face à la diversité des conditions présentes dans l’environnement.

Les recherches futures, notamment grâce aux outils de génomique comparative, d’épigénomique et de transcriptomique, permettront sans doute de mieux comprendre l’évolution et les avantages adaptatifs de cette étonnante plasticité des formes de feuilles.

The Conversation

Céline Leroy a reçu des financements de ANR et de l'Investissement d'Avenir Labex CEBA, Centre d'Etude de la Biodiversité Amazonienne (ref. ANR-10-LABX-25-01).

PDF

29.05.2025 à 20:00

Une nouvelle étude montre que la lèpre existait en Amérique bien avant l’arrivée des Européens

Nicolas Rascovan, Chercheur à l'Institut Pasteur, Université Paris Cité

Charlotte Avanzi, Assistant Professor, Colorado State University

Maria Lopopolo, Chercheur à l'Institut Pasteur, Université Paris Cité

Une nouvelle étude démontre que la lèpre infecte les humains en Amérique depuis au moins 1 000 ans, soit plusieurs siècles avant la colonisation européenne.
Texte intégral (1976 mots)

Longtemps considérée comme une maladie infectieuse introduite en Amérique par les colonisateurs européens, la lèpre pourrait en fait avoir une histoire bien plus ancienne et plus complexe sur le continent. Une nouvelle étude internationale, publiée aujourd’hui dans la revue Science, révèle que Mycobacterium lepromatosis, une bactérie récemment identifiée qui cause la lèpre, infecte les humains en Amérique depuis au moins 1 000 ans, soit plusieurs siècles avant le contact européen.


La lèpre est une maladie chronique ancienne qui se manifeste par des lésions de la peau, des nerfs périphériques, de la muqueuse des voies respiratoires supérieures ainsi que des yeux. Elle est présente dans plus de 120 pays et 200 000 cas sont notifiés chaque année selon l’OMS. Les personnes touchées par la lèpre sont atteintes de difformités physiques et sont également confrontées à la stigmatisation et à la discrimination. Cependant, la lèpre est curable et le traitement à un stade précoce permet d’éviter les séquelles.

Cette maladie a longtemps été associée à une seule bactérie : Mycobacterium leprae, responsable de la forme dite « classique » de la maladie, décrite dans les manuels et prédominante à l’échelle mondiale. En 2008, une seconde espèce, Mycobacterium lepromatosis, a été identifiée au Mexique. Elle provoque des symptômes cliniquement très similaires, si bien qu’elle passe souvent inaperçue – seuls des tests génétiques ciblés permettent de la distinguer de M. leprae. Bien que le développement d’outils génétiques ait permis une intensification des recherches sur cette bactérie, les cas humains confirmés restaient principalement localisés en Amérique, notamment au Mexique et dans la région des Caraïbes. En 2016, la découverte inattendue de M. lepromatosis chez des écureuils roux dans les îles Britanniques – un réservoir animal dans une zone non endémique – a soulevé la question de l’origine géographique de cette bactérie.

Malgré des recherches intensives dans les données d'ADN anciens européens, M. lepromatosis n’a jamais été détectée sur le continent. C’est dans ce contexte que l’hypothèse d’une origine américaine a pris de l’ampleur. Notre projet est né d’une découverte fortuite de cette espèce dans les données publiées d’un individu d’Amérique du Nord daté à 1 300 ans avant le présent. Ce signal inattendu nous a conduits à étendre nos recherches, en retraçant sa présence passée par des analyses d’ADN ancien, et en documentant sa diversité actuelle à travers des cas modernes, pour mieux comprendre l’histoire et la circulation de ce pathogène largement négligé.

Cette étude est essentielle pour éclairer les mécanismes de transmission des bactéries responsables de la lèpre, en particulier en tenant compte de la diversité des réservoirs possibles. En reconstituant l’histoire évolutive et la distribution géographique de M. lepromatosis, nous espérons mieux comprendre comment cette bactérie se transmet encore aujourd’hui.

Nous avons analysé près de 800 échantillons, y compris des restes anciens d’ancêtres autochtones (couvrant plusieurs millénaires, jusqu’à 6 000 ans en arrière) et des cas cliniques modernes. Nos résultats confirment que M. lepromatosis était déjà largement répandue, du nord au sud du continent américain, bien avant la colonisation, et apportent une nouvelle perspective sur les souches qui circulent aujourd’hui.

Cette découverte modifie en profondeur notre compréhension de l’histoire de la lèpre en Amérique. Elle montre que la maladie était déjà présente parmi les populations autochtones depuis des siècles avant le contact européen, et qu’elle a évolué localement sur le continent.

Un aspect essentiel de ce projet a été la collaboration avec des communautés autochtones du Canada et d’Argentine. Celles-ci ont été activement impliquées dans les décisions concernant l’étude des restes humains anciens, la restitution des matériaux, ainsi que l’interprétation des résultats. Une représentante autochtone figure parmi les autrices de l’article. Cette démarche vise à respecter les principes d’éthique de la recherche et à renforcer le dialogue entre sciences et savoirs communautaires.

Une enquête à l’échelle du continent

Nous avons mené le dépistage le plus vaste jamais réalisé pour ce pathogène, en analysant à la fois des restes humains anciens et des échantillons cliniques provenant de cinq pays : Mexique, États-Unis, Brésil, Paraguay et Guyane française. La plupart des cas positifs ont été identifiés au Mexique et aux États-Unis, ce qui reflète probablement à la fois une présence réelle du pathogène dans ces régions, mais aussi un échantillonnage plus intensif dans ces pays.

Pour retrouver des traces de pathogènes dans des restes humains anciens, nous avons utilisé une approche paléogénomique, une discipline qui permet d’extraire et d’analyser l’ADN conservé dans les os ou dans les dents pendant des siècles, voire des millénaires. Ce que nous récupérons est un mélange très complexe : de l’ADN du sol, des bactéries environnementales, de la personne décédée, et parfois – si l’individu était malade au moment de sa mort – de l’ADN de l’agent pathogène qui l’a infecté. Grâce aux technologies de séquençage à haut débit, nous lisons tous ces fragments d’ADN (souvent très courts, entre 30 et 100 bases), puis nous les comparons à de grandes bases de données contenant les génomes de tous les agents pathogènes connus.

Dans ce cas précis, nous avons identifié dans les échantillons anciens de petits fragments d’ADN couvrant environ 80 % du génome de Mycobacterium lepromatosis, ce qui nous a permis de confirmer sa présence chez un individu précolombien. Ensuite, nous avons concentré nos efforts sur cet échantillon pour récupérer davantage de fragments du pathogène, jusqu’à pouvoir reconstituer son génome complet. Cela nous a permis non seulement de confirmer l’infection, mais aussi d’analyser l’évolution génétique de la bactérie à travers le temps.

Fait remarquable, la bactérie a été retrouvée dans les ossements de trois individus anciens – une femme originaire du Canada actuel, datée par radiocarbone à environ 1 300 ans avant le présent (AP), et une femme et un homme d’Argentine actuelle, datés à environ 900 ans AP. Bien que séparés par plus de 10 000 km, leurs infections datent d’une période relativement proche (il y a près de 1 000 ans), et leurs souches sont génétiquement et évolutivement similaires. Cela suggère que la bactérie s’était largement répandue sur le continent en seulement quelques siècles. On ignore encore si cette dispersion rapide est due à des réseaux humains (commerce, contacts) ou à des animaux à forte mobilité.

Notre étude permet également de mieux comprendre un mystère ancien : la présence de Mycobacterium lepromatosis chez les écureuils roux dans les îles Britanniques. En 2016, une étude menée par la Dre Charlotte Avanzi, aujourd’hui co-première autrice de notre travail, avait révélé pour la première fois que ces animaux étaient porteurs de la bactérie, mais sans pouvoir expliquer son origine ni comment elle avait atteint les îles Britanniques.

Grâce à nos nouvelles analyses phylogénétiques, nous montrons que ces souches animales appartiennent à un lignage dérivé d’un ancêtre commun qui aurait émergé il y a environ 3 200 ans – bien avant les premiers contacts transatlantiques –, mais que leur diversification locale n’a commencé qu’au XIXe siècle. Cela suggère fortement une introduction récente depuis les Amériques, suivie d’une expansion dans la population d’écureuils. C’est la première preuve que M. lepromatosis, historiquement endémique aux Amériques, a commencé à se diffuser sur d’autres continents – une dynamique inverse à celle de M. leprae, arrivé en Amérique depuis l'Europe et l'Afrique avec la colonisation.

Ces résultats soulèvent des implications importantes en santé publique et appellent à surveiller la propagation intercontinentale de ce pathogène.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Une histoire évolutive ancienne toujours en cours

Parmi les découvertes les plus frappantes de notre étude figure l’identification d’un lignage très ancien de Mycobacterium lepromatosis, appelé NHDP-LPM-9, que nous avons retrouvé chez deux personnes aux États-Unis. Ce lignage se distingue de toutes les autres souches connues par un nombre significativement plus élevé de mutations, et notre analyse suggère qu’il aurait divergé des autres lignages, il y a plus de 9 000 ans. À titre de comparaison, la grande majorité des souches modernes que nous avons analysées – 24 sur 26 – appartiennent à un groupe beaucoup plus homogène, que nous avons appelé « clade dominant actuel » (Present-Day Dominant Clade, ou PDDC), qui représente environ deux tiers de la diversité génétique connue aujourd’hui. Ce clade semble s’être étendu après la colonisation européenne, probablement en lien avec les profonds bouleversements sociaux, écologiques et démographiques de l’époque.

La co-circulation actuelle de deux lignages ayant divergé il y a plusieurs millénaires suggère que d’autres lignées anciennes pourraient encore exister, mais être passées inaperçues jusqu’ici. Étant donné sa très faible fréquence apparente dans les cas humains récents, il est probable que M. lepromatosis ait évolué en partie dans un ou plusieurs réservoirs, depuis lesquels il pourrait occasionnellement infecter des humains. Ces résultats soulignent l’importance de mieux surveiller ce pathogène, encore très mal connu, pour en comprendre les mécanismes d’infection et de transmission.

Cette recherche bouleverse non seulement notre compréhension de l’origine de la lèpre, mais contribue à une question plus large : quelles maladies infectieuses existaient en Amérique avant 1492 ? Depuis des siècles, chercheurs et communautés autochtones s’interrogent sur le rôle des maladies dans l’histoire du continent. Cette étude apporte une nouvelle pièce à ce puzzle complexe.

The Conversation

Nicolás Rascovan est membre de l'UMR 2000 du CNRS Nicolás Rascovan a reçu financement Européen de l'ERC et Français de l'ANR

Charlotte Avanzi a reçu des financements de la Fondation Raoul Follereau

Maria Lopopolo a été financée pendant sa thèse de doctorat par l’Agence Nationale de la Recherche (ANR) et la Fondation pour la Recherche Médicale (FRM).

PDF

28.05.2025 à 17:03

Elon Musk, l’homme le plus riche du monde, peut-il être renvoyé de l’entreprise qu’il dirige ?

François-Xavier Dudouet, Directeur de recherche sociologie des grandes entreprises, Université Paris Dauphine – PSL

Elon Musk, l’ex-conseiller DOGE de Trump et toujours patron de Tesla peut-il être poussé vers la sortie par son conseil d’administration, quand bien même il est l’homme le plus riche du monde ?
Texte intégral (2319 mots)

En se rapprochant du président des États-Unis et en étant son conseiller chargé du département de l’efficacité gouvernementale (Department of Government Efficiency, DOGE), Elon Musk semblait avoir tout réussi et cumulé tous les pouvoirs : politique, économique, idéologique… Patatras ! En quelques semaines, son implication politique a eu des répercussions sur ses activités de chef d’entreprise de Tesla. La marque a été chahutée, au point qu’il est devenu possible de se poser une question qui aurait semblé impensable il y a six mois encore : et si l’avenir de Tesla se faisait sans Musk ? Est-ce souhaitable ? Possible ?


Le 1er mai 2025, le Wall Street Journal publiait un article selon lequel le conseil d’administration de Tesla avait entamé des démarches pour remplacer Elon Musk au poste de directeur général. L’annonce était aussitôt démentie par l’intéressé mais aussi par la présidente du conseil d’administration, Robyn Denholm, qui assurait que l’ensemble des administrateurs maintenait sa pleine confiance dans l’actuel directeur général. Cette annonce, qui semble avoir fait long feu, est l’occasion de revenir sur le fonctionnement de la gouvernance des grandes entreprises et de voir si, techniquement un actionnaire important, fût-il l’homme le plus riche du monde, peut être renvoyé l’entreprise qu’il dirige.

Pour rappel, Elon Musk dirige trois sociétés : SpaceX qu’il a fondé en 2002, Tesla, dont il a pris le contrôle entre 2004 et 2008 et X (ex-Twitter) qu’il a racheté en 2022. Sa fortune provient essentiellement des actions Tesla dont la valorisation spectaculaire en 2024 a fait de lui l’homme le plus riche du monde. Toutefois, le cours de l’action Tesla s’est depuis effondré, atteignant un plus bas à 221 $ en avril 2025 contre 479 $ en décembre 2024. Dans le même temps, la société affichait des ventes en recul de 13 % et des bénéfices en chute de 71 %. Très fortement engagé auprès de Donald Trump et de son administration, Elon Musk est régulièrement accusé de nuire à l’image de marque du constructeur et, surtout, d’avoir délaissé la gestion quotidienne de la compagnie. C’est dans ce contexte que prennent place les révélations du Wall Street Journal.

Du déjà-vu

L’histoire du monde des affaires fourmille d’exemples de dirigeants actionnaires qui ont été contraints à la démission. Pour s’en tenir à l’univers de la Tech, on se rappelle que ce fut le cas de Steve Jobs, qui, bien que fondateur et actionnaire d’Apple, avait été poussé vers la sortie par le directeur général de l’époque, John Sculley, soutenu par le conseil d’administration. Larry Page et Sergei Brin, les fondateurs de Google, ont eux aussi très tôt laissé les rênes de la firme à un manager expérimenté, Eric Schmidt choisi par le conseil d’administration pour mener à bien l’introduction en bourse de la société. Les deux fondateurs d’Uber, Travis Kalanick et Garrett Camp, ont été progressivement écartés au point, aujourd’hui, de ne même plus être administrateurs de la société.

Elon Musk n’a pas fait autre chose à la tête de Tesla. Arrivé comme investisseur en 2004, il entre au conseil d’administration et en devient le président. Quelques années plus tard, il force le fondateur et directeur général, Martin Eberhard, à la démission. Après deux directeurs généraux intérimaires, il prend lui-même la direction exécutive de Tesla en 2008, cumulant les fonctions de président et de directeur général jusqu’en 2018, date à laquelle il est contraint, par la Securities and Exchange Commission d’abandonner la présidence du conseil d’administration. Ces différents exemples montrent bien qu’il ne suffit pas d’être actionnaire, ni même de détenir la majorité des droits de vote, pour diriger une société par actions. Il est primordial d’avoir l’appui du conseil d’administration car c’est cette instance qui, au final, fait et défait les directeurs généraux.

Les conseils d’administration : le vrai pouvoir

Les sociétés par actions ne sont pas des propriétés privées de leurs dirigeants mais des entités autonomes ayant une personnalité juridique et une existence propres. Les actions ne sont pas, en effet, des titres de propriété mais des droits sur la société. Les actionnaires, même quand ils possèdent la majorité des droits de vote, ne peuvent faire ce qui leur semble bon. Ils ne peuvent même pas pénétrer dans l’entreprise pour y prendre un boulon. Celui-ci appartient à la société non à eux. Les actionnaires ne sont donc pas les dirigeants par défaut ou par principe des sociétés par actions.


À lire aussi : Combien coûte l’ego d’Elon Musk ? Ou quand l’hubris des dirigeants devient un risque systémique


Cette fonction est dévolue au conseil d’administration, certes élu par les actionnaires, mais qui n’est pas, contrairement à ce qu’affirme la théorie économique dominante, au service de ces derniers. Les administrateurs ne représentent pas les actionnaires mais la société, dont ils sont les mandataires sociaux, c’est-à-dire les personnes qui sont habilitées à penser et à agir au nom de la société. S’ils suivent des politiques qui vont dans le sens des actionnaires, c’est qu’ils y trouvent leur intérêt, non qu’ils y soient légalement tenus. Leur pouvoir sur la société est très étendu : ils décident des grandes orientations stratégiques, établissent les comptes, proposent les dividendes, décident des émissions d’actions nouvelles et surtout nomment le directeur général. Leur autonomie est telle qu’ils sont en mesure de se coopter entre eux et de faire valider leur choix par les assemblées générales. C’est pourquoi il est important de se tourner vers la composition du conseil d’administration de Tesla pour comprendre comment Elon Musk a construit sa position de directeur général.

La valeur de l’entre-soi

L’examen de la composition du conseil d’administration de Tesla montre, à première, vue des administrateurs totalement acquis à la cause d’Elon Musk. On y trouve tout d’abord Kimbal Musk, son frère, membre du conseil depuis 2004. Il a jusqu’à présent été loyal envers son aîné même si, contrairement à lui, il n’a pas renié ses convictions démocrate et écologiste. Ira Ehrenpreis est l’un des tout premiers investisseurs de Tesla. Présent au conseil d’administration depuis 2006, il peut être considéré comme un fidèle soutien. Robyn Denhom, la présidente du conseil d’administration, a été choisie par Elon Musk pour prendre sa place quand il a été contraint d’abandonner la fonction. Australienne d’origine, Robyn Denhom était assez peu connue du monde des affaires américain avant de devenir administratrice puis présidente de la compagnie. James Murdoch, administrateur depuis 2017, est le fils du magnat de la presse Robert Murdoch dont la chaîne Fox News est un soutien indéfectible de Donald Trump. Joe Gebbia, administrateur depuis 2022, est le co-fondateur de Airbnb. Il a rejoint Elon Musk au DOGE en février dernier.


Abonnez-vous dès aujourd’hui !

Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).


Kathleen Wilson-Thompson a fait toute sa carrière dans l’industrie pharmaceutique comme directrice des ressources humaines. Elle est sans doute l’administratrice la plus éloignée d’Elon Musk mais apportant au conseil le quota de féminisation et de diversité qui lui manque par ailleurs. Jeffrey Brian Straubel, enfin, est l’ancien directeur technique de Tesla. Présent dès les origines, il se flatte d’avoir été le cinquième employé de la société. Sa nomination en 2023 a fait grand bruit en raison des liens jugés trop étroits avec Elon Musk. Que ce soit par fraternité, idéologie ou carriérisme, les motifs de soutien à Elon Musk ne manquent pas. Ils sont encore renforcés par une politique de rémunération particulièrement généreuse à l’égard du conseil d’administration dont les membres s’attribuent régulièrement d’importants plans de stock-options. Robyn Denholm est ainsi la présidente la mieux rémunérée de l’ensemble des sociétés cotées américaines.

Les murs s’effritent

Elon Musk n’est pas en reste bénéficiant de plans d’actions très avantageux octroyés par le conseil d’administration. Il existe entre Elon Musk et son conseil un circuit d’enrichissement réciproque qui n’est pas sans rappeler les relations d’interdépendances décrites par le sociologue Norbert Elias à propos de la cour de Louis XIV tant les chances de profits de l’un sont liées à celles des autres. Ainsi que le rapportait récemment Olivier Alexandre, un autre sociologue, de la bouche d’un journaliste spécialiste de la Silicon Valley : « Si tu veux comprendre ce qui se passe ici, il faut suivre l’argent ».

Or, les flux d’argent se sont récemment taris chez Tesla. En premier lieu, des décisions de justice ont remis en question les rémunérations que les mandataires sociaux s’étaient attribuées. En novembre 2024, la cour du Delaware a annulé le plan d’actions attribué à Elon Musk en 2018 qui lui aurait permis d’empocher 58 milliards de dollars, au motif que les actionnaires n’avaient pas été correctement informés.

En janvier 2025, la même cour du Delaware constatait que les administrateurs de Tesla s’étaient indûment enrichis au détriment des actionnaires et approuvait un accord par lequel les premiers s’engageaient à rembourser près d’un milliard de dollars. Dans le même temps, alors que le cours de l’action de Tesla commençait à baisser, de nombreux administrateurs se sont délestés de leurs actions, quitte à accélérer la chute. Était-ce pour faire face à leur récente condamnation ou bien pour ne pas risquer de trop perdre ? Le fait est qu’ils ont vendu dans un contexte peu favorable et envoyé un signal très négatif aux investisseurs.

Une fidélité gagée sur la rémunération ?

Ainsi, la présidente, Robyn Denhom, a vendu pour 200 millions de dollars d’actions depuis le mois de décembre 2024, Kimbal Musk s’est séparé de 75 000 actions Tesla pour la somme de 28 millions de dollars en février 2025, James Murdoch a à son tour a vendu 54 000 actions en mars 2025 pour 13 millions de dollars contribuant à la plus forte baisse journalière du titre. En mai, alors que le cours de l’action était bien remonté, c’est Kathleen Wilson-Thompson qui vend pour 92 millions de dollars d’actions Tesla. La fidélité des administrateurs à l’égard d’Elon Musk a donc ses limites qui sont visiblement la crainte de ne pas s’enrichir assez.

France 24, 2025.

La réponse à la question initiale de savoir si l’homme le plus riche du monde peut être renvoyé de l’entreprise qu’il dirige, fût-il le premier actionnaire, est donc oui. Les statuts juridiques de la société par actions confèrent la capacité de nommer ou de révoquer le directeur général aux administrateurs non aux actionnaires. Ce sont donc les rapports sociaux entre le conseil d’administration et le directeur général qui décident du sort de ce dernier. Dans le cas de Tesla, l’argent y jouait un rôle central, il n’est donc pas étonnant qu’ils soient entrés en crise au moment où la société commençait à connaître des difficultés financières. Le fonctionnement du conseil d’administration de Tesla est certainement peu ordinaire mais il invite à se demander si le fondement du pouvoir économique dans les sociétés par actions ne repose pas tant sur l’argent détenu que sur celui que l’on peut faire gagner.

The Conversation

François-Xavier Dudouet est membre du CNRS. I a reçu des financements de l'Agence nationale de la recherche

PDF
50 / 50
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Lava
La revue des médias
Le Grand Continent
Le Monde Diplo
Le Nouvel Obs
Lundi Matin
Mouais
Multitudes
Politis
Regards
Smolny
Socialter
The Conversation
UPMagazine
Usbek & Rica
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
Contretemps
A Contretemps
Alter-éditions
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
Philo Mag
Terrestres
Vie des Idées
 
  ARTS
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
 
Fiabilité 3/5
Slate
Ulyces
 
Fiabilité 1/5
Contre-Attaque
Issues
Korii
Positivr
Regain
🌓