23.04.2025 à 12:21
Anne Yvonne Guillou, Laboratoire d’ethnologie et de sociologie comparative (LESC, UMR CNRS-Université Paris-Nanterre), Université Paris Nanterre – Université Paris Lumières
C’était il y a cinquante ans. Les Khmers rouges, sous les ordres de Pol Pot, prenaient Phnom Penh, faisant basculer le Cambodge dans l’horreur. Un quart de la population n’a pas survécu à ces quatre années de régime génocidaire. Comment une société se reconstruit-elle après un génocide ? L’anthropologue Anne Yvonne Guillou, qui vient de publier Puissance des lieux, présence des morts. Sur les traces du génocide khmer rouge au Cambodge (Société d’ethnologie, 2025), s’attache à comprendre la singularité de la résilience de la société cambodgienne, bien éloignée de la lecture occidentale de ce génocide.
Le 17 avril 1975, les combattants communistes cambodgiens, ceux que l’on surnomme les Khmers Rouges, entraient victorieux dans Phnom Penh, soutenus par leurs alliés vietnamiens. Au terme d’une révolution maoïste devenue totalitaire, génocidaire et ultranationaliste durant les quatre années (ou presque) qui ont suivi, près de deux millions de personnes ont disparu (soit environ un quart de la population d’alors), emportées par les exécutions, la faim, les maladies non soignées, l’excès de travail et les mauvais traitements.
Tous les quinze jours, nos auteurs plongent dans le passé pour y trouver de quoi décrypter le présent. Et préparer l’avenir. Abonnez-vous gratuitement dès aujourd’hui !
Le 7 janvier 1979, l’armée vietnamienne renversait l’ancien camarade cambodgien et installait au pouvoir un nouveau régime communiste. Celui-ci, après maintes transformations et péripéties, se trouve toujours à la tête du Cambodge.
Pour la grande majorité des Occidentaux, il reste de cette période quelques images déclenchant instantanément la sidération. Celles de jeunes combattants en noir hurlant leur joie, grimpés sur des chars défilant dans les rues de Phnom Penh.
Celles, aussi, du film la Déchirure et des champs de la mort qui donnent à ce long-métrage américain de 1984 son titre d’origine, The Killing Fields.
Celles, encore, alimentant la « bureaucratie de la mort », de prisonniers et prisonnières du centre de détention S-21, regardant l’objectif et rencontrant, sur l’autre rive de l’histoire, notre propre regard effaré (voir le très beau texte à ce sujet de Lindsay French, « Exhibiting terror », dans l’ouvrage dirigé par Mark Philipp Bradley et Patrice Petro, Truth Claims. Representation and Human Rights, New Brunswick, NJ/London, Rutgers University Press, 2002, pp. 131‑155).
Ces instantanés font désormais partie de l’iconographie mondiale et demeurent des points d’entrée de la compréhension du régime khmer rouge par les médias occidentaux et leur public. De fait, ils occultent les quatre années passées sous le joug totalitaire et les expériences quotidiennes des Cambodgiens eux-mêmes, y compris leur lente reconstruction sur le très long terme.
Après la chute de Pol Pot, le grand public occidental a perçu le Cambodge à travers deux filtres médiatiques qui se sont succédé dans le temps, d’abord celui de l’« urgence humanitaire » des années 1980-1990, puis celui du « traumatisme » des années 2000-2010. En effet, les recherches montrent clairement qu’avant la décennie 2000, le thème du traumatisme est absent des rapports rédigés par les équipes médicales visitant le Cambodge.
Le secteur humanitaire, toujours à la recherche de financements occidentaux, a trouvé dans l’atrocité du Kampuchéa démocratique (nom officiel du Cambodge sous Pol Pot, ndlr) et dans ses conséquences désastreuses un terreau favorable à son développement sans précédent. Au-delà de quelques belles réussites, émanant d’ONG professionnelles à l’expertise solide (comme Médecins sans frontières ou Save the Children, par exemple), son impact réel n’a jamais été prouvé. L’action humanitaire, pléthorique, a néanmoins contribué à fixer durablement l’image d’un pays martyr, exsangue, impuissant, porté à bout de bras par l’aide occidentale et dont le statut de victime importait finalement plus que les causes de sa situation.
Or, dans les années 1980, le gouvernement cambodgien déplorait, quant à lui, l’isolement punitif du Cambodge – un isolement dans lequel il voyait l’une des causes de sa pauvreté.
En effet, l’invasion du Cambodge par les troupes vietnamiennes, fin 1978, et l’occupation militaire qui en avait résulté, jusqu’en 1988, avaient interdit au nouveau régime toute reconnaissance occidentale. Le siège du Cambodge à l’ONU avait dès lors été attribué à la résistance, composée de trois factions, dont celle du Kampuchéa démocratique (dite des Khmers Rouges). La situation avait perduré jusqu’aux accords de paix signés en octobre 1991 à Paris.
La perception du Cambodge a encore évolué à partir des années 2000. La population cambodgienne est alors devenue, dans les milieux occidentaux, la figure d’une population sévèrement et massivement atteinte de troubles psychologiques nécessitant des soins dont elle ne disposait pas et qu’il fallait lui fournir.
Les procès ouverts par les Chambres extraordinaires auprès des tribunaux cambodgiens, sous tutelle onusienne à partir de 2007, pour juger les principaux dirigeants du régime khmer rouge encore en vie, ont largement contribué à donner cette lecture de la société postgénocidaire. Mis en place plus de trente ans après les faits commis, leurs fonctions mémorielle, historique et réparatrice ont été particulièrement mises en avant alors que leur fonction pénale était sans doute moins mise en lumière.
Ainsi, les réparations collectives accordées par les Chambres aux parties civiles ont consisté en œuvres mémorielles et en accès à des soins psychologiques. Or, sans nier la réalité des destructions et des deuils, il apparaît, lorsqu’on analyse précisément les rapports et les statistiques disponibles, que le syndrome de stress post-traumatique n’était pas massivement répandu dans la population générale au Cambodge (la situation des diasporas ayant vécu une double rupture, celle du régime khmer rouge puis celle de l’exil, est spécifique).
Ces lectures dominantes ont occulté d’autres réflexions sur les traces du régime khmer rouge, dix, vingt, cinquante ans après. Elles ont surtout rendu inaudibles les Cambodgiens eux-mêmes : leur perception propre de leur passé, le sens qu’ils donnent à cette période et les actions qu’ils ont mises en place dès les premiers jours de la libération et de la chute du régime khmer rouge.
C’est l’objectif de l’enquête ethnographique, réalisée en immersion et sur la longue durée, de 2006 à 2018, sur laquelle est basé mon ouvrage Puissance des lieux, présence des morts. Sur les traces du génocide khmer rouge au Cambodge, (2025).
Délaissant les interviews focalisées sur le régime khmer rouge, cette recherche appréhende ce qui fait le quotidien des gens vivant dans une région de l’ouest du Cambodge qui a particulièrement souffert (Pursat). Il s’agit de comprendre comment cette société s’est reconstruite après le génocide.
Dans les mois et les années qui ont suivi la fin du régime khmer rouge, alors que le Cambodge se trouvait dans un état de grand dénuement, soutenu et contrôlé par le Vietnam, l’État-parti a orchestré les premières actions commémoratives. Chaque district a reçu l’ordre de rassembler les restes humains et de les placer dans des ossuaires tenant lieu de mémoriaux.
Des cérémonies ont eu lieu régulièrement. Les restes des victimes, éparpillés sur l’ensemble du territoire, sont devenus en quelque sorte des propriétés d’État, que le nouveau régime conservait (et conserve toujours aujourd’hui) comme des preuves du génocide, dans un contexte international d’isolement diplomatique du Cambodge. À Phnom Penh, un musée du Génocide a été créé à la même époque dans l’enceinte de la principale prison politique, S-21.
Alors que les restes des victimes étaient transformés en « corps politiques » par l’État en tant que preuves de crimes, les familles ont dû organiser leur deuil sans la présence des corps. Toute l’attention et le soin des survivants se sont alors portés sur la part immatérielle de ces morts.
Il se trouve que le Cambodge se livre depuis des centaines d’années à une grande cérémonie annuelle des défunts d’inspiration indienne. C’est une originalité khmère dans la région sud-est asiatique, par la longueur et l’importance de ce rituel. Pendant quatorze jours et quatorze nuits, au mois luni-solaire de septembre-octobre, les monastères bouddhiques du Cambodge (et de la diaspora) ouvrent grandes leurs portes pour accueillir les défunts de toutes sortes, morts errants comme ancêtres familiaux, venus à la rencontre des vivants (certains morts errants restent aux portes du monastère et ne peuvent y entrer pour des raisons karmiques).
Du point de vue des Cambodgiens, cette cérémonie a permis tout à la fois d’aider les victimes des polpotistes, de les réintégrer dans le grand cycle des renaissances en les extirpant du statut négatif de victimes et, enfin, de structurer une rencontre avec les vivants qui ne soit pas envahissante.
Car les défunts doivent pouvoir se séparer des vivants et suivre leurs parcours propres le reste de l’année. Cette immense rencontre, à laquelle tous et toutes se livrent peu ou prou, permet de penser aux défunts, de parler d’eux, notamment avec les moines qui reçoivent l’offrande, de retourner éventuellement sur les lieux de leur disparition et d’exprimer le chagrin.
D’autres dispositifs de résilience, ancrés dans la perception khmère du monde (faite d’éléments animistes, hindouistes, bouddhistes entre autres), ont permis aux personnes demeurant près des fosses communes ou d’anciens champs de massacres, ou même d’anciens ossuaires, d’organiser la cohabitation.
Les corps des disparus sont perçus comme positivement transformés par l’élément Terre (la déesse Terre est une déesse populaire au Cambodge). Certains de ces morts ont ainsi été transformés en esprits protecteurs avec lesquels les habitants communiquent, par les rêves notamment. D’autres lieux, perçus comme puissants dans la pensée animiste khmère, sont emplis d’une force spirituelle particulière qui persiste par-delà le temps sur de très longues périodes. Agir sur ces lieux rituellement, restituer leur énergie abîmée par les destructions khmères rouges, c’est aussi œuvrer à la réparation du monde et vivre dans un environnement où êtres vivants et lieux agissent de concert pour le bien-être retrouvé des occupants.
Silencieusement, loin des micros et des caméras, en prenant appui sur leurs ressources sociales et culturelles, la grande majorité des Cambodgiens ont trouvé les moyens nécessaires pour reconstruire collectivement leur monde détruit, aux plans national et local, s’occuper de leurs morts doublement disparus, commémorer les événements et leur donner un sens (qui n’est pas celui des Occidentaux), tout en remettant en marche leur existence et en se tournant vers l’avenir. Alors que notre époque voit ressurgir des conflits sanglants de grande ampleur, les pratiques cambodgiennes apportent un nouvel éclairage sur les capacités humaines de résilience.
Anne Yvonne Guillou ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
23.04.2025 à 09:52
Anne-Sarah Moalic Bouglé, Chercheuse associée au laboratoire HISTEME (Histoire, Territoires, Mémoires), Université de Caen Normandie
Le 29 avril 1945, les Françaises se rendent pour la première fois aux urnes. S’il marque une grande date de l’histoire de France et de la République, ce vote féminin de 1945 est mal connu. Retour sur cette étape d’un long combat pour l’égalité.
Le 29 avril 2025 marque le 80e anniversaire du premier vote des femmes en France, lors des premières élections organisées après la Libération. Pourtant, 1945 n’est pas l’année 0 de l’histoire politique des femmes en France.
Ce 29 avril 1945, certaines des Françaises qui se rendent aux bureaux de vote ont déjà glissé un bulletin dans une urne électorale. Cela a été le cas notamment à Villeurbanne, en 1935, à Louviers la même année ou à Dax en 1936, où elles avaient été invitées à voter lors de municipales afin de pourvoir des postes de conseillères créés par des maires contournant l’absence de droit de vote pour les femmes.
Beaucoup (plus de 500 000) ont aussi répondu « oui » au référendum organisé par le quotidien le Journal, en marge des élections législatives de 1914, autour de la question : « Mesdames, Mesdemoiselles, désirez-vous voter un jour ? » Et quelques-unes ont été élues officiellement ou nommées officieusement dans plusieurs communes, durant l’entre-deux-guerres.
Tous les quinze jours, nos auteurs plongent dans le passé pour y trouver de quoi décrypter le présent. Et préparer l’avenir. Abonnez-vous gratuitement dès aujourd’hui !
L’ordonnance du 21 avril 1944 portant organisation des pouvoirs publics en France après la Libération marque la fin d’un débat de près d’un siècle et, avec lui, celle de l’inégalité politique des femmes et des hommes. Ce texte annonce que : « Les femmes sont électrices et éligibles dans les mêmes conditions que les hommes. » Cette courte phrase ne traduit pas un féminisme acharné de la part du général de Gaulle ni de l’Assemblée consultative provisoire qui a voté pour la réforme. Elle marque la longue évolution des mentalités et de la « visibilisation » des femmes dans la société française, conjuguées à un basculement politique.
Ce premier vote féminin de 1945 est une grande date de l’histoire de France et de la République. Il est pourtant mal connu, ce qui tient peut-être à la longueur de son instauration et au fait qu’il n’a pas provoqué de révolution.
L’histoire du vote des Françaises est assez récente. Souvent considérée comme une branche de l’histoire des femmes ou des féminismes, elle est plus rarement envisagée comme faisant pleinement partie de l’histoire politique de la France.
La revendication en faveur de l’égalité politique entre les femmes et les hommes est pourtant intimement liée au concept et aux évolutions du suffrage universel. Elle naît durant la IIe République (1848-1852), au moment où la France révolutionne son système électoral par la mise en place du suffrage universel. Des femmes et des hommes se mobilisent pour intégrer les femmes à la nouvelle loi, par la voie législative (Pierre Leroux ou Victor Considerant) ou par la voie militante : la femme de lettres Eugénie Niboyet ou la socialiste Jeanne Deroin manifestent, publient des journaux. Cette dernière se présente même aux élections législatives de 1849 pour faire entendre « la voix des femmes ».
À lire aussi : Delphine de Girardin, une pionnière du journalisme dans la France sexiste du XIXᵉ siècle
L’élection au suffrage universel direct de Louis-Napoléon Bonaparte à la présidence de la République conduit au coup d’État de 1851, puis à une mise sous cloche de tout débat politique.
La revendication suffragiste renaît, vers 1870, avec des militantes comme Hubertine Auclert et d’autres groupes de suffragistes. Leurs revendications en faveur du vote, fondées sur une conception républicaine et universaliste, rejoignent, à la fin du XIXe siècle, celles d’un groupe de femmes aisées et philanthropes, convaincues que les femmes des classes populaires seraient le meilleur rempart contre les fléaux sociaux (insalubrité, alcoolisme, jeux…) si elles avaient plus de pouvoir.
C’est par cet élan que la première proposition de loi en faveur d’un vote féminin, en 1906, est officiellement envoyée en commission à la Chambre des députés pour y être étudiée.
Il faut néanmoins attendre l’immédiat après-guerre, en mai 1919, pour que la Chambre des députés entérine l’égalité politique (droit de vote et éligibilité) des femmes et des hommes. Alors que cette réforme génère un grand espoir parmi les suffragistes, le Sénat bloque la réforme pendant vingt ans, jusqu’à la Deuxième Guerre mondiale, soutenu par de nombreux élus du Parti radical, faisant fi des progrès majeurs de l’éducation des filles, du travail féminin et de l’opinion publique, de plus en plus unanime sur la question.
Pour ses opposants, les femmes ont un rôle différent de celui des hommes dans la société. Les ouvrir à la politique provoquerait de la discorde dans les foyers et donc un risque social. Elles seraient d’ailleurs incapables, physiquement, de voter – trop impressionnables, trop émotives. Et trop influençables ! Leurs maris, leurs confesseurs, agiraient dans l’ombre. Cette réforme porterait en son sein un grave danger politique pour la République. On dit enfin qu’elles ne sont pas intéressées par le vote.
On retrouve ces arguments lors du débat de l’Assemblée consultative provisoire d’Alger et, malgré cela, la réforme est enfin votée. C’est que la « pierre tombale de la République » a bel et bien été scellée, mais pas par les femmes. Le suffrage universel a été à nouveau étouffé par le régime pétainiste et lorsqu’il renaît de ses cendres, en 1945, c’est comme rajeuni et renforcé par l’apport du vote féminin.
La France rejoint les rangs des autres nations qui avaient accordé le vote à leurs citoyennes parfois depuis le début du siècle, comme la Pologne ou l’Allemagne en 1918. Elle se conforme ainsi à un modèle récurrent : le vote des femmes apparaît en général dans les pays où s’opèrent des changements politiques majeurs, comme la mise en place de nouvelles constitutions à la suite de l’éclatement des empires, après la Première Guerre mondiale.
Le droit de vote des femmes entre en vigueur en France en 1945. Son annonce, sa mise en œuvre et ses conséquences ont été très discrètes, bien loin de la dramatisation de ses détracteurs.
Alors qu’avant-guerre, des centaines de milliers de personnes soutenaient le suffrage féminin, l’annonce de son instauration ne provoque guère de réaction. Comment aurait-il pu être autrement dans une France en guerre, occupée, où les communications du gouvernement provisoire et de l’Assemblée provisoire d’Alger, assurant la continuité républicaine, ne pouvaient atteindre la métropole que clandestinement ?
Les préparatifs des élections de 1945 permettent de mieux analyser les réactions à la réforme. En effet, la vie politique reprend son cours, avec les élections municipales des 27 avril et 13 mai 1945, puis avec l’élection législative du 21 octobre. C’est à ce moment que chacun prend la mesure de la nouveauté.
Les renseignements généraux sondent l’air du temps, tout comme la presse. Les services préfectoraux maintiennent la ligne d’avant-guerre : une réticence face au vote féminin, mettant en avant le fait que les femmes se désintéressaient globalement de la politique, qu’il était peu opportun de faire cette réforme alors que tous les hommes n’étaient pas encore rentrés, ou que les femmes risquaient de voter sous influence.
À lire aussi : Le retour des pères après la Seconde Guerre mondiale : un tournant dans l’histoire des familles en France ?
Dans certains titres très orientés sur le plan idéologique, on sent la volonté d’attirer les femmes à sa cause. C’est très évident dans l’Humanité et dans la Croix, dont les argumentaires sont sensiblement les mêmes : les femmes sont des pivots dans la défense d’une certaine vision du monde et sont courtisées en tant que telles. La presse généraliste est plus factuelle, encourageant les femmes au vote, leur expliquant le déroulement du scrutin, leur parcours dans le bureau de vote, etc. Tout laisse entendre que la réforme était mûre.
C’est d’ailleurs la conclusion qui peut être tirée au moment des élections : il n’y a pas de grand bouleversement. Les grands équilibres politiques ne vacillent pas. Les femmes n’ont pas provoqué de raz-de-marée réactionnaire ou révolutionnaire. En revanche, elles sont allées voter massivement, sans doute aux alentours de 9 millions, sur les plus de 13 millions d’inscrites, même si leur abstention est supérieure à celle des hommes de 7 à 12 %.
Des études montrent que leur vote n’est pas lié à leur pratique religieuse, mais à leur milieu social. Les résultats de ces premiers votes montrent des femmes qui votent davantage pour les partis de droite modérée et du centre, tandis que les hommes votent plus à gauche. Néanmoins, ces écarts sont relativement marginaux. Statistiquement, le couple vote pour le même parti.
Pas de révolution non plus au niveau de la représentation nationale : les femmes élues sont très minoritaires (33 sur 586) et le restent jusqu’aux années 2000, atteignant un abyssal 1,4 % de députées en 1958 et ne dépassant les 10 % qu’à partir de 1997. Cette difficulté à faire émerger des femmes politiques, encore présente aujourd’hui, malgré la loi de 2000 sur la parité, est très certainement un héritage de cette histoire du vote féminin, mêlant évolution lente des mentalités et politique.
Enfin, le vote féminin n’a pas non plus directement provoqué de changement dans la condition féminine. Par exemple, la première réforme d’importance sur ce sujet n’est votée que vingt ans plus tard. Il s’agit de la modification des statuts matrimoniaux, en 1965, mettant fin à la soumission de l’épouse à son mari pour de nombreux actes de sa vie quotidienne (droit de veto sur son travail, autorisation pour l’ouverture d’un compte bancaire…).
L’obtention des droits de vote et d’éligibilité par les Françaises est une étape fondamentale de l’histoire de la République. Elle ne peut être lue uniquement au prisme des progrès de la condition féminine ni de la participation effective des femmes – quand bien même ces données sont des éléments importants.
Avant 1945, la France n’est pas une démocratie pleine et entière, et c’est bien l’accession à la citoyenneté de la moitié de sa population adulte qui lui fait atteindre sa maturité. Ainsi, la connaissance de cette réforme devrait être bien plus étudiée qu’elle ne l’est aujourd’hui : le suffrage électoral des Françaises appartient à l’histoire de France, autant qu’à l’histoire des femmes.
Anne-Sarah Moalic Bouglé est membre de Territoires de Progrès. .
23.04.2025 à 08:55
Laurent Bainier, Directeur de la rédaction The Conversation France
Pour recevoir ce quiz chaque quinzaine dans votre boîte mail, abonnez-vous à notre newsletter quinzomadaire Histoire.
Tous les quinze jours, nos auteurs plongent dans le passé proche ou lointain pour y trouver de quoi décrypter le présent. Et préparer l’avenir.
Avant de jouer, prenez quelques minutes pour lire l‘article Recréer un second âge d'or : les illusions de Trump…
3, 2, 1, à vous de jouer c'est parti !
22.04.2025 à 17:33
Anne C. Witt, Professor of Law, Augmented Law Institute, EDHEC Business School
Google est poursuivi par les justices européenne et états-unienne. Les pratiques du géant numérique sont-elles conformes au droit de la concurrence ? Le débat fait rage alors qu’États-Unis et Union européenne s’opposent sur de multiples dossiers, dont la régulation des activités internet.
Depuis ses débuts de start-up « étudiante », en 1998, Google a connu une ascension fulgurante. En 2025, sa société mère, Alphabet, est devenue un vaste conglomérat technologique multinational et l’une des entreprises les plus rentables au monde. Si l’expansion d’Alphabet s’est faite en grande partie par croissance interne, le groupe a également étendu son empire grâce à des acquisitions judicieuses, notamment celles d’Android, de DoubleClick ou encore de YouTube. Depuis 1998, elle a acquis au moins 267 entreprises.
Alphabet est un acteur clé sur de nombreux marchés numériques, notamment la recherche générale sur Internet, les navigateurs, la publicité en ligne, les systèmes d’exploitation mobiles et l’intermédiation. Google Search, par exemple, est aujourd’hui le moteur de recherche généraliste le plus utilisé au monde. Au niveau mondial, sa part de marché est d’au moins 78 % depuis 10 ans.
Sans surprise, les autorités antitrust, dont la mission est de protéger la concurrence, ont examiné de près le comportement de Google et celui d’autres géants de la technologie. Bien que le fait de détenir un pouvoir de marché ne soit pas illégal s’il résulte d’un produit supérieur, le fait de protéger une telle position par des moyens qui ne sont pas méritoires l’est.
Aux États-Unis, ce printemps 2025 est crucial pour le géant américain : le 17 avril, sur le secteur des technologies publicitaires, Google a été jugé coupable d’avoir maintenu illégalement sa position dominante ; le 21 avril s’est ouvert un autre procès, pour trois semaines, qui vise à déterminer les sanctions appliquées à l’entreprise, reconnue coupable en août dernier d’« abus de position dominante » sur le marché de la recherche en ligne.
Comment l’Union européenne a-t-elle géré jusqu’à présent le cas de la firme californienne ? Comment cela s’articule-t-il avec les décisions outre-Atlantique, et avec les risques associés aux réactions de l’administration Trump ? Entre opportunités et risques d’escalade, l’Europe marche sur un chemin étroit.
Ces dernières années, une inquiétude n’a cessé de grandir : que Google puisse utiliser des moyens anticoncurrentiels pour protéger et étendre ses positions dominantes sur les principaux marchés numériques. En 2017, 2018 et 2019, la Commission européenne a infligé à Google des amendes successives, se chiffrant au total à plus de 8 milliards d’euros, pour abus de position dominante sur des marchés clés, soit plus que toute autre grande entreprise technologique à ce jour.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Une quatrième enquête sur les agissements de Google sur le marché des technologies publicitaires, dans le cadre de laquelle la Commission européenne est susceptible de demander des changements structurels dans les activités publicitaires de Google, est en train de se terminer. Les autorités nationales de la concurrence des États membres de l’UE ont également activement appliqué les règles européennes et nationales en matière d’abus de position dominante. Des actions collectives privées, en matière d’antitrust pour dommages et intérêts, s’ajoutent aux malheurs de Google.
En 2022, l’UE a promulgué la loi sur les marchés numériques (DMA pour « Digital Markets Act ») afin de créer – contre les pouvoirs de marché dominants – un outil supplémentaire pour intervenir sur les marchés des plateformes. La DMA réglemente le comportement des entreprises dites « contrôleuses d’accès », dans le but de rendre les marchés plus contestables pour les concurrents et plus équitables pour les utilisateurs. En septembre 2023, la Commission européenne a désigné Alphabet comme contrôleur d’accès sur pas moins de huit marchés de plateformes pour les services suivants : Google Search, Google Maps, Google Play, Google Shopping, Google Ads, Chrome, YouTube et Google Android.
Quelques jours après que les règles du DMA sont devenues contraignantes pour Alphabet en mars 2024, la Commission européenne a ouvert la première enquête de non-conformité pour déterminer si Google Search continuait de traiter les services d’Alphabet plus favorablement que ceux de ses concurrents, et si Google Play empêchait les développeurs d’applications d’orienter les consommateurs vers d’autres canaux pour de meilleures offres.
À lire aussi : L’Europe peut-elle faire émerger des champions du numérique ?
Le champ d’application territorial de ces règles est limité aux services proposés dans les pays de l’Union européenne. Elles ne réglementent pas le fonctionnement de Google aux États-Unis, qui est soumis à la législation antitrust américaine. Néanmoins, les mesures d’application de la Commission européenne ont provoqué la colère de l’administration Trump.
En février 2025, la Maison Blanche a publié un mémorandum intitulé « Defending American Companies and Innovators From Overseas Extortion and Unfair Fines and Penalties » qui conteste les mesures antitrust et réglementaires européennes à l’encontre des entreprises américaines. Selon l’administration Trump, les règles de l’UE s’apparentent à des restrictions non tarifaires et à un traitement inéquitable des entreprises américaines, et elles interfèrent avec la souveraineté américaine. Le mémorandum souligne que Washington n’hésitera pas à imposer des droits de douane et d’autres mesures nécessaires pour atténuer le préjudice causé aux États-Unis.
Selon l’Union européenne, de telles actions reviendraient à une coercition économique et porteraient atteinte à sa souveraineté législative pour décider dans quelles conditions les services sont offerts sur le sol européen. En 2022, probablement en prévision d’une éventuelle deuxième présidence Trump, elle a promulgué l’instrument dit « anti-coercition », qui permet à la Commission européenne d’imposer un large éventail de « mesures de riposte », notamment des droits de douane et des restrictions sur les importations, sur les exportations, sur les droits de propriété intellectuelle, sur les investissements directs étrangers et sur l’accès aux marchés publics. De telles mesures de rétorsion pourraient être imposées aux services numériques américains.
La situation risque d’accroître encore le risque d’une guerre commerciale entre l’Europe et les États-Unis. Cependant, le différend sur la réglementation technologique ne semble pas porter sur des principes antitrust fondamentaux en soi.
En 2020, la Chambre des représentants des États-Unis a publié un rapport bipartite soulignant la nécessité pour les États-Unis de remédier au manque de concurrence sur les marchés numériques et au pouvoir de monopole de plateformes dominantes telles qu’Amazon, Apple, Facebook et Google. La Commission fédérale du commerce (Federal Trade Commission ou FTC) et le ministère de la justice ont par la suite intenté des poursuites antitrust contre ces quatre entreprises, dont la plupart sont toujours en cours.
De son côté, le ministère de la justice a intenté deux poursuites antitrust distinctes contre Google en 2020 et en 2023. Dans la première affaire, un tribunal de district de Washington DC a reconnu Google coupable en août 2024 de violation de la section 2 de la loi antitrust Sherman, et a établi que Google avait tenté de protéger son pouvoir de monopole sur le marché de la recherche générale par des moyens anticoncurrentiels. Le juge Amit P. Mehta détermine actuellement les mesures correctives appropriées, et le ministère de la justice, qui a récemment réitéré sa demande au juge de démanteler Google, joue un rôle central dans le procès qui vient de démarrer, pour trois semaines, et qui vise à déterminer les sanctions appliquées au géant américain (puisque l’entreprise avait été reconnue coupable en août d’avoir maintenu illégalement sa position dominante) – sanctions pouvant aller jusqu’à l’obligation de vendre son navigateur Chrome, ou jusqu’à de possibles restrictions sur l’IA.
La deuxième affaire américaine contre Google, sur le secteur des technologies publicitaires en ligne, a également connu une accélération ce printemps : un tribunal de district de Virginie vient en effet de rendre un verdict positif sur l’implication de l’entreprise dans des actions anticoncurrentielles. Les accusations formulées sont similaires à celles qui sous-tendent l’enquête en cours de la Commission européenne sur le comportement de Google sur le marché des technologies publicitaires. Le nouveau directeur de la Federal Trade Commission a souligné récemment que les Big Tech sont une priorité majeure de son agence. Il semble y avoir des inquiétudes des deux côtés de l’Atlantique quant au fait que Google restreigne la concurrence. Le nœud du problème, très probablement, est que les régulateurs européens disent aux entreprises américaines ce qu’elles doivent faire, puisqu’elles « opèrent » sur le territoire européen à travers les services numériques proposés à des millions d’utilisateurs européens.
La Commission européenne semble déterminée à continuer d’appliquer ses règles antitrust et le DMA. Le 19 mars 2025, elle a informé Alphabet que son évaluation préliminaire avait montré que le comportement de Google dans le domaine de la recherche et dans le Google Play Store était incompatible avec le DMA. De plus, les premières décisions de non-conformité à l’encontre d’Apple et de Meta, en vertu de la DMA, sont attendues sous peu, même si les amendes pourraient bien rester inférieures au maximum de 10 % du chiffre d’affaires annuel mondial d’une entreprise, autorisé par la loi, compte tenu de sa nouveauté.
L’Europe n’est pas un marché négligeable pour Google et les autres entreprises technologiques américaines. En 2024, Google aurait généré 29 % de son chiffre d’affaires mondial, soit 100 milliards de dollars, en Europe, au Moyen-Orient et en Afrique.
L’Europe n’a pas d’équivalents à Google ou à d’autres grandes entreprises technologiques, et l’UE importe aujourd’hui 80 % de ses technologies numériques. En septembre 2024, le rapport Draghi a lancé un avertissement sévère aux dirigeants de l’Union européenne, soulignant la diminution de la stabilité géopolitique et la nécessité pour l’Europe de se concentrer sur la réduction de l’écart d’innovation avec les États-Unis et la Chine dans les technologies de pointe. Moins de cinq mois plus tard, la Commission européenne a publié le Compas de la compétitivité, une feuille de route visant à restaurer le dynamisme de l’UE et à stimuler la croissance économique.
Les mesures potentielles à ce stade, agitées par la Maison Blanche en possibles représailles à l’application des directives antitrust et réglementaires européennes, pourraient bien donner un élan supplémentaire à ce processus. Le président Trump ne peut pas rendre à la technologie européenne sa grandeur d’antan (« great again »), car cela n’a jamais été le cas. Mais ses politiques pourraient involontairement contribuer à y parvenir.
Anne C. Witt ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
22.04.2025 à 17:31
Abdoul Fattath Yaya Tapsoba, Responsable de projets à la Fondation FARM et doctorant au CERDI, Université Clermont Auvergne (UCA)
Matthieu Brun, Docteur en science politique, chercheur associé à LAM, Sciences Po Bordeaux
542 milliards de dollars de dépenses par an. C’est le montant colossal du soutien budgétaire des États à leur agriculture. Avec le déclenchement de la guerre des tarifs, quelles orientations vont prendre ces aides ? Vers les producteurs ? Vers les consommateurs ? Quelles différences entre des pays aussi divers que les États-Unis, la Chine, le Mozambique ou ceux de l'Union européenne ? Réponses avec les données de la Fondation pour l’agriculture et la ruralité dans le monde (Farm).
Les premières mesures protectionnistes de Donald Trump suscitent de vives inquiétudes, dans un contexte où la gouvernance mondiale peine déjà à assurer une gestion efficace des soutiens publics à l’agriculture. Face au risque d’une escalade généralisée des barrières tarifaires avec la perturbation des marchés agricoles et la hausse des prix alimentaires, les États pourraient renforcer leur soutien budgétaire comme instrument de politique agricole. Comment ? En mobilisant de manière stratégique les subventions et, plus largement, les dépenses publiques allouées à l’agriculture et l’alimentation.
Mais, concrètement, que savons-nous aujourd’hui du soutien budgétaire à l’agriculture et à l’alimentation ? Quelle est précisément sa composition, et comment les États choisissent-ils d’orienter leurs choix en la matière ?
Pour y répondre, nous nous appuyons sur les données de l’Observatoire mondial des soutiens publics à l’agriculture et à l’alimentation, une initiative mise en place par la Fondation Farm. Cet observatoire couvre 93 pays, représentant plus de 90 % de la production agricole mondiale. À partir de cette initiative, nous proposons un éclairage des soutiens budgétaires, définis ici comme l’ensemble des dépenses publiques que les États consacrent à l’agriculture et à l’alimentation.
Il existe au niveau mondial de très grands écarts en matière de soutiens publics à l’agriculture et à l’alimentation. Globalement, plus un pays a des revenus élevés, plus il dépense pour soutenir ses agriculteurs et ses agricultrices – en proportion de la valeur de la production agricole… même si l’agriculture ne fournit plus chez lui qu’une partie mineure de l’emploi et de la croissance économique. La moyenne sur les trois dernières années disponibles indique que 542 milliards de dollars (USD) de dépenses publiques sont consacrés chaque année à l’agriculture et à l’alimentation. Quatre grandes régions concentrent près de 90 % de cette somme : l’Asie de l’Est, l’Amérique du Nord, l’Asie du Sud, l’Europe de l’Ouest et du Centre (Graphique 1).
En Asie de l’Est, la Chine est le pays qui dépense le plus pour soutenir son agriculture, avec près de 106 milliards USD, représentant environ 82 % des dépenses publiques de soutien dans cette région. En Amérique du Nord, les États-Unis dominent avec 119 milliards USD, suivis par le Canada avec 5,5 milliards USD. Pour l’Asie du Sud, l’Inde est le plus grand contributeur avec 114 milliards USD. Dans le bloc Europe de l’Ouest et du Centre, l’Union européenne occupe une place importante avec 92,5 milliards USD, suivie du Royaume-Uni avec 6 milliards USD.
Comme l’indique le graphique 2, le Brésil, le Mexique, l’Éthiopie, la Turquie, la Russie, l’Australie et l’Indonésie sont les pays qui dépensent le plus pour soutenir les secteurs agricole et alimentaire dans leur région respective.
Ces montants soulignent les écarts de capacités budgétaires entre pays riches et pays à plus faible revenu. Malgré l’importance de l’agriculture pour leur sécurité alimentaire, des zones comme l’Afrique subsaharienne ne disposent que de moyens limités pour soutenir ce secteur.
Pour faciliter les comparaisons entre pays, les dépenses sont rapportées à la valeur de la production agricole, c’est-à-dire le montant total auquel l’ensemble de la production est valorisé. À l’échelle mondiale, l’intensité du soutien budgétaire à l’agriculture et à l’alimentation est ainsi estimée en moyenne à environ 14 % de la valeur de la production agricole. Les efforts financiers les plus élevés sont observés en Asie du Sud (25 %), en Amérique du Nord (24 %) et en Europe de l’Ouest et du Centre (20 %). Dans les autres régions, l’intensité du soutien est moins importante, et ce, malgré une importance plus forte de l’agriculture dans les équilibres macroéconomiques et sociaux des pays (Graphique 3).
Les dépenses publiques de soutien se répartissent entre :
les transferts budgétaires orientés vers la production et les producteurs ;
la consommation pour l’accès aux produits alimentaires ;
les services collectifs pour le développement agricole : infrastructures, formations, recherche et vulgarisation, etc.
L’arbitrage entre ces différentes options de politiques publiques traduit des stratégies variées : soutenir la production, la compétitivité et/ou le revenu des producteurs ; rendre les produits agricoles plus abordables pour les consommateurs ou encore investir dans le développement d’infrastructures et de services consacrés au développement de l’agriculture.
Au niveau mondial, 60 % des dépenses publiques de soutien à l’agriculture et à l’alimentation se font sous forme de transferts budgétaires encourageant la production ou destinées aux producteurs. Ces dépenses représentent la majeure partie des soutiens dans les pays à revenu élevé et intermédiaire – Norvège, Union européenne, Royaume-Uni, mais aussi Russie ou Chine. Au contraire, dans les pays à faible revenu – Éthiopie, Mozambique ou Rwanda –, les producteurs sont bien moins soutenus alors qu’ils occupent le plus souvent une place capitale dans l’économie et l’emploi.
En Europe de l’Ouest et du Centre, la priorité est accordée au soutien direct aux producteurs agricoles à travers les aides de la politique agricole commune (PAC).
Les États-Unis consacrent 55 % de leurs dépenses publiques agricoles au soutien à la consommation. L’objectif : garantir des produits alimentaires plus abordables pour les consommateurs, notamment à travers les vastes programmes de subvention alimentaire tels que le SNAP (Supplemental Nutrition Assistance Program).
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Les transferts à la production sont importants aux États-Unis, soit 35 % des dépenses consacrées aux secteurs, tandis que les services collectifs pour le développement agricole sont relativement faibles – 10 %. De l’autre côté de la frontière, au Canada, seulement 2 % des dépenses agricoles sont consacrées à la consommation, le reste est dirigé vers la production – 65 % – et les services collectifs, 33 %.
Dans plusieurs pays asiatiques, les budgets agricoles suivent une tendance assez marquée. La priorité est souvent donnée à la production agricole et aux services collectifs. C’est le cas de la Chine, où environ 70 % des dépenses vont à la production ou aux producteurs. Les 30 % restants sont affectés aux services collectifs comme les infrastructures, la recherche ou encore l’appui technique aux agriculteurs.
Au Vietnam, on retrouve cette logique, mais dans des proportions inversées. Une large part du budget soutient les services collectifs (70 %) et la plus petite portion est vouée à la production (30 %).
Cela dit, certains pays font exception. L’Inde et l’Indonésie, notamment, se démarquent par un choix plus orienté vers la consommation. En Inde, près de la moitié des dépenses agricoles (46 %) visent à soutenir la consommation (par exemple à travers des subventions alimentaires) tandis que 39 % sont orientées vers la production. En Indonésie, l’écart est encore plus net avec 65 % du budget agricole consacré à la consommation, contre 22 % pour la production.
En Afrique subsaharienne, 85 % des dépenses publiques sont dirigées vers les services collectifs pour le développement agricole. Cela montre une approche axée sur l’infrastructure et le développement général du secteur plutôt que sur des subventions directes à la production ou à la consommation.
À lire aussi : Comment les gouvernements africains soutiennent l’agriculture ?
Ces dépenses sont certes nécessaires, mais constituent un soutien indirect à la production composé majoritairement de dépenses de service rural (santé, éducation, pistes, etc.). Les soutiens aux producteurs pèsent pour 8 % des dépenses agricoles et sont en moyenne inférieur à 1 % de la valeur de la production agricole. En Éthiopie, par exemple, les transferts budgétaires aux producteurs sont presque 100 fois plus faibles qu’au sein de l’UE (en pourcentage de la valeur de la production agricole).
Au-delà des sommes engagées, la manière de les allouer entre production, consommation et services collectifs traduit des priorités stratégiques différentes.
Ces choix ne sont pas neutres en termes de durabilité, car ils sont source d’externalités négatives importantes. D’où l’urgence dans les pays riches de réorienter les aides vers des pratiques plus respectueuses de l’environnement.
Dans les pays à faible revenu, il faudrait d’abord augmenter ces soutiens, tout en les orientant vers des pratiques agricoles durables. Cela peut passer, entre autres, par un accroissement des subventions aux intrants agricoles, en intégrant davantage l’utilisation de fertilisants organiques aux côtés des engrais minéraux. Le Sénégal ou l’Afrique du Sud montrent déjà que c’est possible. D’autres pays comme le Rwanda, le Malawi ou l’Éthiopie vont aussi dans cette direction.
Mais, à l’heure où les barrières douanières refont surface, une question se pose : qui peut encore soutenir son agriculture ? La réponse est claire : seuls les pays qui en ont les moyens. Et ce soutien risque bien d’être mobilisé pour des raisons de compétitivité économique ou stratégique, sans forcément tenir compte des enjeux de durabilité. Une telle orientation irait pourtant à rebours des recommandations des Nations unies, qui appellent à réorienter massivement les soutiens agricoles en faveur de la transition vers des systèmes alimentaires durables.
Abdoul Fattath Yaya Tapsoba est Responsable de projet à la Fondation FARM.
Matthieu Brun est directeur scientifique de la Fondation FARM, fondation reconnue d'utilité publique.
22.04.2025 à 17:25
Simon Fellous, Directeur de recherche en écologie et agriculture, Inrae
Tasnime Adamjy, Doctorante en sociologie, Inrae
Par quoi remplacer les pesticides sans bouleverser la production agricole conventionnelle ? La technique de l’insecte stérile, qui permet de limiter la reproduction des insectes ravageurs, est envisagée en France. Mais elle ne saurait se substituer aux insecticides, dans la mesure où elle implique de revoir en profondeur le système de production et d’impliquer tous les acteurs de la filière.
« Pas d’interdiction de pesticide sans solution » : ce principe, mis en avant par certains syndicats agricoles, demande qu’aucun pesticide ne soit interdit en l’absence « d’une solution » alternative « économiquement viable ». L’objectif est de réduire le recours aux pesticides sans bouleverser la production agricole conventionnelle.
Toutefois, cet élément de langage, qui a l’apparence du bon sens, masque l’impossibilité de déployer les solutions alternatives sans reconception des systèmes agricoles.
La technique de l’insecte stérile (TIS), une des « solutions » aujourd’hui à l’étude, en est un cas d’école. Elle figure justement dans une proposition de loi visant à lever les contraintes environnementales pour les agriculteurs qui doit être examinée prochainement à l’Assemblée nationale.
À lire aussi : L’agriculture française à la croisée des chemins
Cette technique repose sur la libération en grand nombre d’insectes mâles, élevés en captivité puis stérilisés par rayons ionisants (par exemple rayons X). Ces mâles s’accouplent avec les femelles sauvages de l’espèce ciblée, qui produisent ainsi des œufs non viables.
Depuis ses premiers pas en Amérique du Nord pour contrôler la Lucilie bouchère (Cochliomyia_hominivorax) dans les années 1950, cette technique été utilisée en agriculture dans de nombreux pays et sur diverses mouches, papillons ou coléoptères.
La TIS fait l’objet de recherche et développement en France métropolitaine, mais également à La Réunion et à l’étranger pour contrôler les moustiques, notamment les Aedes, vecteurs de maladies telles la dengue ou du chikungunya.
Les usages agricoles, en France hexagonale, concerneraient en premier lieu la mouche Drosophila suzukii, responsables de dégâts sur la cerise et les fruits rouges, la mouche méditerranéenne Ceratitis capitata et le carpocapse, à l’origine du proverbial « ver dans la pomme ».
Une des caractéristiques de la TIS est qu’elle est souvent déployée à large échelle. En Espagne, c’est toute la région de Valence qui reçoit chaque semaine plusieurs millions de mouches méditerranéennes stériles lâchées par avion.
Le programme, financé par le gouvernement régional, coûte huit millions d’euros par an et protège une industrie fruitière dont le chiffre d’affaires se situe aux alentours de 10 milliards d’euros annuels. Un tel programme, déployé à large échelle, implique de nombreux acteurs. La protection des cultures ne concerne plus seulement les agriculteurs mais également les habitants des territoires.
En France, le développement de la TIS s’est nourri de la collaboration entre les milieux scientifiques et les parties prenantes (organisations agricoles, ONG environnementales, industriels et représentants de l’État).
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
La question des effets non intentionnels de la TIS a très vite été posée au cours de ces discussions et a permis de lancer des programmes de recherche, toujours en cours aujourd’hui. Ces travaux sont d’autant plus importants que les risques environnementaux de la TIS sont encore mal documentés.
La France est, peu ou prou, le premier pays à interroger formellement les possibles effets néfastes de la TIS sur l’environnement. L’absence actuelle de données, malgré l’ancienneté de la technique, peut s’expliquer par des a priori positifs sur son innocuité en raison de sa grande spécificité. Comme les mâles stériles ne s’accouplent généralement qu’avec les femelles de leur espèce, on attend peu d’effets sur les écosystèmes, contrairement aux insecticides qui sont toxiques pour de nombreuses espèces différentes.
Reste un paradoxe : les insectes relâchés ne sont jamais tous stériles à 100 %. Il arrive qu’une reproduction résiduelle soit possible avec des insectes sauvages. Il est donc préférable d’élever, de stériliser et de relâcher une population locale d’insectes, afin d’éviter d’introduire dans la population d’insectes à contrôler des gènes provenant d’une autre localité.
Enfin, les insectes stériles, relâchés en masse, peuvent transmettre leur microbiote aux insectes sauvages, notamment lors des accouplements. Cette possibilité est peu inquiétante, car les microbiotes des insectes d’élevage n’ont pas de raison d’être dangereux pour les humains ou pour l’environnement. Aucun effet néfaste notable sur l’environnement n’a été rapporté parmi les dizaines de programmes de TIS déployés dans monde.
Toutefois, le suivi postintroduction est important. Cela permet d’assurer la transparence vis-à-vis des différents acteurs et de pouvoir interrompre les lâchers en cas de doute.
Comme pour l’immense majorité des leviers agroécologiques de gestion des insectes et maladies des plantes, la TIS seule ne pourra pas remplacer les pesticides chimiques. En effet, si les insecticides sont si simples à utiliser, c’est bien parce qu’ils tuent les insectes sans discrimination.
De ce fait, les enjeux sociaux et organisationnels autour de la TIS appliquée à la protection des cultures méritent toute notre attention. En effet, les leviers agroécologiques de biocontrôle, comme la TIS ou les insectes auxiliaires, n’ont d’effets que sur une partie du cycle de vie des insectes visés. Leur efficacité dépend donc aussi des conditions locales et des autres leviers éventuels mobilisés par les agriculteurs.
Une attention particulière aux organismes à contrôler (par exemple, au travers de suivis par piégeage dans et autour des parcelles agricoles) et une adaptation des pratiques mobilisées en fonction de ce suivi sont quelques-unes des clés du succès d’une production agricole sans insecticides.
Pour être opérationnelles, ces « solutions » doivent donc être combinées entre elles. Il s’agit d’une réalité assez éloignée du concept de substitution implicite dans la phrase « pas d’interdiction sans solution ». Définir ces combinaisons de leviers amène, dans la pratique, à reconcevoir les stratégies de production et de protection des cultures dans leur totalité.
Cette reconception ne peut se faire sans l’implication active des professionnels. Agriculteurs, paysans et autres professionnels du monde agricole sont les seuls à connaître les réalités et contraintes pratiques du terrain. Les acteurs de la R&D, de leur côté, peuvent accompagner et soutenir ces travaux de reconception, par exemple au travers d’apports méthodologiques.
D’autant plus que les insectes sont mobiles et n’ont que faire des limites cadastrales. De ce fait, la TIS est souvent déployée à des échelles très supérieures à celles des parcelles agricoles. La participation des riverains et d’autres utilisateurs des territoires est alors essentielle.
La collaboration avec les producteurs s’avère souvent bénéfique pour tous. L’exemple du programme de biocontrôle du carpocapse de la pomme mené au Canada en fournit un exemple éloquent.
Dans ce cadre, les riverains qui ont participé au suivi des populations d’insectes responsables des pertes agricoles ont co-financé le programme de TIS. Ils en ont retiré le bénéfice d’une exposition réduite aux pesticides, argument mis en avant dans leur offre touristique. Cet exemple montre que les alternatives aux pesticides ne sont pas seulement une affaire de scientifiques et/ou d’agriculteurs : de nombreux autres acteurs sont concernés et peuvent contribuer à leur élaboration.
À lire aussi : Le biocontrôle pour remplacer les pesticides : de la difficulté de changer les usages
Comme l’ont montré les travaux de la chercheuse Aura Parmentier-Cajaiba, la question des formes organisationnelles est incontournable lorsqu’il s’agit de concevoir des alternatives aux pesticides. C’est en particulier vrai pour la TIS, qui est avant tout une méthode développée par des scientifiques.
Or, la façon dont sont conçus et financés les programmes menés par les organismes de R&D reste encore limitée par une conception linéaire de l’innovation. Ainsi, les connaissances sont transférées à des entreprises ou start-ups sans que des formes organisationnelles alternatives ne soient envisagées – et, encore moins, construites en collaboration avec les parties prenantes.
Ceci constitue une limite directe à l’adaptation des « solutions » aux réalités des territoires et filières concernés. Un modèle français pourrait s’inspirer de l’exemple du programme canadien exposé précédemment. La collaboration avec les riverains et les producteurs de pommes s’y joue sur le terrain et avec des incitations économiques. Une gouvernance partagée, entre agriculteurs et acteurs des territoires, avec l’appui d’industriels de la production d’insectes et de leur diffusion serait ainsi une piste prometteuse.
Cela montre aussi l’importance d’intégrer la concertation à l’approche « pas d’interdiction de pesticide sans solution ». En effet, il est impossible de substituer un seul levier agroécologique à une molécule chimique, car cela impose de revoir les systèmes agricoles et d’impliquer tous leurs acteurs.
Parallèlement, il apparaît irresponsable de développer des « solutions » sans réfléchir à leurs effets non intentionnels. Les risques que comportent les différentes méthodes doivent être étudiés et explicités par les scientifiques. À cet égard, une mise en débat citoyenne pour définir les modalités de déploiement des alternatives aux pesticides et orienter les transformations de l’agriculture semble incontournable.
Simon Fellous a reçu des financements de ANR, OFB, Région Occitane, Europe. Simon Fellous travaille avec les acteurs agricoles dans les territoires ou la TIS pourrait etre déployée. Il a travaillé avec Clelia Oliva, aujourd'hui à la tête de l'entreprise Terratis.
Tasnime Adamjy a reçu des financements de l'INRAE et de la Région Occitanie.
22.04.2025 à 17:24
Emily Hauser, Senior Lecturer in Classics, University of Exeter
Les visiteurs du site de Pompéi, l’ancienne ville romaine ensevelie sous les cendres de l’éruption du Vésuve en 79 après J.-C., ne pensent pas souvent à regarder au-delà de l’enceinte de la cité. Il y a beaucoup à voir dans cette ville monumentale et bien préservée, avec des peintures murales représentant des mythes et des légendes comme celle d’Hélène de Troie, de majestueux amphithéâtres ou des thermes somptueusement stuqués. Mais si vous franchissez les portes de la ville, vous vous retrouverez dans un monde très différent, tout aussi important.
Pour les Romains de l’Antiquité, les routes et chemins menant aux villes étaient essentiels, non seulement pour se rendre sur place, mais aussi comme de véritables « voies de la mémoire ». Des tombes jalonnaient ces voies antiques, certaines comportant simplement des inscriptions à la mémoire d’êtres chers disparus, d’autres, plus grandioses, offrant un espace aux amis et à la famille pour festoyer en souvenir des défunts.
Certaines tombes s’adressent même directement au passant, comme si leur occupant pouvait parler à nouveau et transmettre ce qu’il a appris. Prenons un exemple pompéien, mis en place par l’affranchi Publius Vesonius Phileros, qui s’ouvre sur une politesse ineffable :
« Étranger, attends un peu si cela ne te dérange pas, et apprends ce qu’il ne faut pas faire. »
Entrer à Pompéi et en sortir, c’était se rappeler des modes de vie et des façons de mourir. C’était aussi une invitation à tirer notre chapeau à ceux qui avaient emprunté le même chemin que nous, et à apprendre de leur exemple.
C’est pourquoi la récente découverte d’une tombe monumentale surmontée de sculptures grandeur nature d’une femme et d’un homme, juste à l’extérieur de l’entrée est de la ville, n’est pas seulement une découverte fascinante en soi. Cela invite également à s’arrêter et à se souvenir des personnes qui ont vécu puis sont mortes dans cette ville italienne animée.
Tous les quinze jours, nos auteurs plongent dans le passé pour y trouver de quoi décrypter le présent. Et préparer l’avenir. Abonnez-vous gratuitement dès aujourd’hui !
L’élément principal de la tombe est un grand mur, parsemé de niches où les restes incinérés auraient été placés, et surmonté par l’étonnante sculpture en relief d’une femme et d’un homme. Ils se tiennent côte à côte, mais ne se touchent pas.
Elle est légèrement plus grande que lui, puisqu’elle mesure 1,77 m, et lui 1,75 m. Elle est drapée d’une tunique, d’un manteau et d’un voile modestes (symboles de la féminité romaine) et arbore au cou un pendentif en forme de croissant de lune appelé lunula qui – en raison du lien séculaire avec les cycles lunaires – raconte une histoire sur la fécondité et la naissance des femmes. Lui est vêtu de la toge typiquement romaine, ce qui l’identifie instantanément comme un fier citoyen de Rome.
En archéologie, lorsqu’une femme et un homme sont représentés côte à côte dans des tombes et des sépultures comme celle-ci, on suppose généralement qu’il s’agit d’époux. Toutefois, un indice indéniable laisse supposer qu’il s’agit ici d’autre chose. En effet, la femme tient dans sa main droite une branche de laurier, utilisée par les prêtresses pour souffler la fumée de l’encens et des herbes lors des rituels religieux.
Dans le monde romain, les prêtresses détenaient des pouvoirs inhabituels pour des femmes et il a été suggéré que cette femme était peut-être une prêtresse de la déesse de l’agriculture Cérès (l’équivalent romain de la déesse grecque Déméter).
Cette prêtresse de haut rang est donc représentée à côté d’un homme. L’inclusion des symboles de son statut (prêtresse) à côté du sien (togatus ou « homme portant une toge ») montre qu’elle est là en tant que membre à part entière de la société pompéienne. Elle pourrait être sa mère ; elle pourrait même avoir été plus importante que lui (ce qui expliquerait pourquoi elle est plus grande). En l’absence d’inscription, nous ne pouvons pas en avoir le cœur net. Le fait est qu’une femme n’a pas besoin d’être l’épouse d’un homme pour se tenir à ses côtés.
Ce qui est fascinant, c’est que ce phénomène n’est pas propre à Pompéi. Dans mon nouveau livre Mythica, qui porte sur les femmes non pas de Rome mais de la Grèce de l’âge du bronze, j’ai constaté que les nouvelles découvertes archéologiques ne cessent de bouleverser les idées reçues sur la place des femmes dans la société et la valeur de leur rôle.
Un exemple fascinant est celui d’une sépulture royale à Mycènes, à la fin de l’âge du bronze : une femme et un homme ont été enterrés ensemble dans la nécropole royale, quelque 1700 ans avant que l’éruption du Vésuve décime Pompéi. Comme d’habitude, les archéologues qui l’ont découverte ont immédiatement identifié la femme comme l’épouse de l’homme. Mais c’est alors que l’analyse de l’ADN entre en jeu.
En 2008, les deux squelettes ont fait l’objet d’un test ADN, qui a révélé qu’ils étaient en fait frère et sœur. Elle a été enterrée ici en tant que membre d’une famille royale par naissance, et non par mariage. Elle était là de son propre chef.
De l’or de Mycènes aux ruines cendrées de Pompéi, les vestiges du monde antique nous racontent une histoire différente de celle que nous avons toujours crue. Une femme n’avait pas besoin d’être une épouse pour se distinguer.
Je pense donc qu’il est sage d’écouter le conseil de notre ami Publius. Penchons-nous sur les sépultures du passé et apprenons.
Emily Hauser ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
22.04.2025 à 17:23
Sophie Renault, Professeur des Universités en Sciences de Gestion et du Management, Université d’Orléans
Responsables, inclusives, engagées… Nombreuses sont les marques revendiquant des valeurs fortes. Mais ces promesses restent parfois en surface. C’est ce que met en perspective le terme d’« habillage éthique », la stratégie de communication d’une entreprise ou d’une organisation qui cherche à améliorer son image de marque en se réclamant abusivement de valeurs éthiques.
Recommandée par la Commission d’enrichissement de la langue française, l’expression « habillage éthique » repose sur une tension entre deux registres de sens. D’un côté, le mot « habillage » désigne ce qui recouvre, ce qui rend présentable, ce qui maquille parfois. De l’autre, l’« éthique » renvoie à une réflexion sur les principes qui guident nos actions, qu’ils relèvent de la morale et/ou de la déontologie. Associer les deux, c’est pointer une contradiction : celle d’un discours éthique qui reste en surface, sans ancrage réel dans les pratiques.
Défini par le Journal officiel du 16 juillet 2024, l’« habillage éthique » constitue
« une stratégie de communication d’une entreprise ou d’une organisation qui cherche à améliorer son image de marque en se réclamant abusivement de valeurs éthiques ».
La critique est dans la définition : il s’agit ici d’une mise en scène, d’un vernis vertueux appliqué sans transformation intrinsèque. L’habillage éthique désigne le recours à certaines valeurs comme éléments de langage, voire comme accessoires de communication. On s’affiche « responsable », « engagé », « solidaire », sans que ces qualificatifs n’aient de véritable traduction dans les modes de production ou de gouvernance.
À lire aussi : Débat : Les universités face aux stratégies de « greenwashing » des entreprises
L’habillage éthique est la traduction, dans la langue du Molière, du terme de fairwashing. Il est ainsi dans la parfaite lignée des expressions d’habillage humanitaire (empathy washing) et d’habillage onusien (blue washing) mis en perspective dans le Journal officiel du 13 décembre 2017. Alors que l’habillage humanitaire désigne « la stratégie de communication d’une entreprise ou d’une organisation qui cherche à améliorer son image de marque en se réclamant abusivement de valeurs humanitaires », l’habillage onusien, quant à lui, se réfère à une « stratégie de communication d’une entreprise ou d’une organisation qui cherche à améliorer son image de marque en se réclamant abusivement des valeurs promues par l’Organisation des Nations unies ».
Abonnez-vous dès aujourd’hui !
Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).
L’habillage éthique s’inscrit donc dans une série de stratégies désormais bien identifiées, comme le greenwashing (valorisation écologique fictive, dite verdissement d’image), le pinkwashing (récupération de la cause LGBTQ+ à des fins d’image), ou bien encore le femwashing (utilisation opportuniste de discours féministes). L’habillage éthique en est une sorte de synthèse : il absorbe tous les registres de vertu.
Face à l’exigence des consommateurs, à leur sensibilité aux enjeux sociaux et écologiques, les entreprises sont poussées à se positionner. Mais, entre contraintes de rentabilité, chaînes d’approvisionnement mondialisées et logiques de volume, changer les mots est souvent plus simple que de changer les modèles. Dans ce contexte, l’habillage éthique apparaît pour les marques comme une manière de redorer leur image, mais le vernis s’écaille… Des exemples concrets en témoignent, notamment en termes de greenwashing : lancée en 2010, la collection « Conscious » de H&M a été critiquée pour son manque de traçabilité et son faible impact réel.
Autre cas emblématique : sponsor des Jeux olympiques de Paris 2024, Coca-Cola a annoncé vouloir limiter l’usage du plastique à usage unique avec des fontaines à boissons et des gobelets réutilisables. Or, comme a pu le dénoncer l’association France nature environnement (FNE), la plupart des boissons provenaient de bouteilles en plastique. Le décalage entre promesse et réalité a ainsi déclenché une forte polémique. Quant à Mercedes-Benz, la marque a été accusée de pinkwashing après avoir affiché un logo arc-en-ciel sur ses réseaux sociaux pendant le mois des fiertés… tout en s’abstenant de le faire dans des pays où l’homosexualité est interdite.
Ce qui est en jeu dépasse le seul comportement des marques. C’est le langage de l’éthique lui-même qui se trouve profondément affaibli lorsqu’il est manipulé à des fins de réputation. La prolifération de pratiques dites d’habillage éthique fragilise la confiance : les consommateurs ne savent plus ce qu’il convient de croire.
Dans ce contexte, les initiatives sincères risquent d’être perçues comme suspectes, noyées dans un flot de promesses vagues. In fine, nommer l’« habillage éthique », c’est poser un acte de lucidité. Ce n’est pas rejeter toute communication de valeurs, mais appeler à une cohérence entre les discours et les pratiques. L’éthique ne saurait ainsi être réduite à un outil de marketing. En matière de responsabilité des organisations comme ailleurs, les mots ne suffisent pas, seuls les actes comptent.
La série « L’envers des mots » est réalisée avec le soutien de la Délégation générale à la langue française et aux langues du ministère de la Culture
Sophie Renault ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
22.04.2025 à 17:23
Mathias Delori, Chercheur en relations internationales, Sciences Po
Suffit-il de favoriser les voyages de découverte et les rencontres entre élèves de différents pays pour faire tomber les clichés des uns sur les autres ? Souhaitant permettre une meilleure connaissance entre voisins européens afin d’enrayer le retour des guerres, l’Office franco-allemand pour la jeunesse a mené pendant les années 1960 une politique ultravolontariste d’échanges à grande échelle. Avec des résultats décevants qui l’ont incité à changer de cap. Explications.
L’Office franco-allemand pour la jeunesse (Ofaj) est une institution méconnue en dehors des cercles franco-allemands. Cet organisme met aujourd’hui en œuvre une action publique utile, mais peu originale : il répond à la demande sociale en matière de rencontres de jeunes en apportant une subvention et un savoir-faire pédagogique aux enseignants, aux animateurs d’association de jeunesse ou aux autres encadrants qui souhaitent organiser un voyage dans l’autre pays.
Cette banalité relative contraste avec les dix premières années de son existence. L’Ofaj fut créé à la suite du traité d’amitié, signé par de Gaulle et Adenauer, à l’Élysée, le 22 janvier 1963. Jusqu’en 1973, son budget resta dix fois supérieur à celui consacré par chaque gouvernement aux rencontres de jeunes avec les autres pays.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Cette manne financière permit de subventionner ou de mettre sur pied les rencontres de plus de 200 000 jeunes, chaque année, dans le but de réaliser « la plus grande migration des peuples jamais organisée en temps de paix par des moyens et avec des intentions pacifiques ». Les « intentions pacifiques » auxquelles fait référence ici Joseph Rovan, un des premiers dirigeants de l’Ofaj, étaient la déconstruction des préjugés hérités du passé conflictuel franco-allemand.
Le récit qui donnait sens à cette action publique énonçait que les guerres de 1870, de 1914-1918 et de 1939-1945 avaient été portées par des représentations négatives réciproques et que la socialisation de la nouvelle génération à la cause de la paix permettrait de mettre un terme au cercle vicieux de l’éternel retour des guerres franco-allemandes.
Le récit qui a donné un sens à ce premier Ofaj reposait sur l’hypothèse selon laquelle « les préjugés peuvent être surmontés le plus simplement par une expérience propre et des contacts personnels » (Käte Strobel, ministre fédérale allemande de la jeunesse à la fin des années 1960).
Cette idée nous semble aujourd’hui naïve. Les historiens et historiennes de la colonisation ont montré que colons et colonisés peuvent se côtoyer pendant des décennies tout en développant de forts préjugés négatifs réciproques. Par ailleurs, les spécialistes de relations internationales ont observé que
« les séjours à l’étranger […] suscitent en proportion à peu près équivalente une réaffirmation du nationalisme et une allégeance plus grande envers son propre langage, sa culture et son peuple ».
Une explication de ce phénomène renvoie au mécanisme de la perception sélective. En l’absence d’une connaissance complexe et nuancée de la culture de l’autre, nous puisons dans la pensée sociale une représentation a priori de celle-ci. Cette dernière fonctionne alors comme un filtre cognitif qui nous renforce dans nos préjugés. Les pères fondateurs et les premiers dirigeants de l’Ofaj ignoraient-ils ce mécanisme de psychologie sociale ? Est-il anachronique d’écrire qu’ils ont assigné à cet organisme un objectif utopique ?
La recherche sur les dynamiques de la rencontre interculturelle était encore balbutiante mais pas non plus inexistante. En 1955, Alexander Rüstow, successeur d’Alfred Weber à la chaire de sciences sociales et d’économie de l’Université de Heidelberg, alerta par exemple les pouvoirs publics, à l’occasion d’une conférence organisée par le Daad (Office allemand d’échanges universitaires), sur les « dangers des échanges internationaux ». Ironie de l’histoire, ce pourfendeur de l’idée fondatrice de l’Ofaj est décédé le 30 juin 1963, soit quelques jours avant sa création.
On a de bonnes raisons de penser que ces recherches étaient connues par les acteurs politico-administratifs qui portèrent le projet d’Office franco-allemand pour la jeunesse. On peut citer à cet égard une enquête approfondie, commandée en 1954 par le ministère français des Affaires étrangères, sur l’image des Français en Allemagne. Les auteurs de cette expertise observèrent, sans grande surprise, l’importance des stéréotypes et des préjugés dans la représentation que les Allemands se faisaient de leurs voisins.
Les enquêteurs disposaient par ailleurs de données sur les contacts (ou l’absence de contact) des interviewés avec des Français. Ils croisèrent donc les deux variables et observèrent que les contacts entre populations ne favorisent pas la compréhension réciproque :
« Une des vérifications les plus importantes apportées par ce sondage est la constatation de la faible mesure dans laquelle les opinions exprimées sur la France dépendent de la nature des connaissances de fait acquises sur ce pays. »
(On trouve cette étude dans les archives du ministère des affaires étrangères ; Europe 1949-1955, Allemagne, 385.)
Cette enquête fut largement discutée à l’intérieur des cercles ministériels et administratifs.
Pour comprendre l’optimisme des pères fondateurs et des premiers dirigeants de l’Ofaj, il convient de prendre ses distances par rapport à une conception naïve de la production des politiques publiques selon laquelle ces dernières seraient des solutions rationnelles à des problèmes objectifs. Il arrive que l’enchaînement problème/solution fonctionne dans l’autre sens. C’est le cas quand des entrepreneurs de politique publique sont intéressés par une solution qu’ils greffent sur un problème.
C’est ce qui s’est passé lors de la création de l’Ofaj en 1963. Les acteurs individuels et collectifs qui ont produit cette action publique poursuivaient une multitude d’objectifs orthogonaux par rapport à l’objectif de la réconciliation. Ces intérêts, que j’ai documentés dans La Généalogie, l’événement, l’histoire (1871-2015), impliquaient de faire se rencontrer un maximum de jeunes.
Les pères fondateurs de l’Ofaj sont partis de cette prémisse pour construire la problématisation donnant un sens à l’Ofaj : l’idée de l’éternel retour des guerres franco-allemandes que seule une « migration pacifique de peuple » permettrait d’arrêter. Ils ont puisé dans la pensée sociale une idée, parfois appelée « mythe de l’internationale de la jeunesse » énonçant que « les jeunes veulent se rencontrer pour se connaître, pour se juger avec réalisme et sans préjugés, pour voir quel chemin ils peuvent faire ensemble » de telle sorte que la multiplication des rencontres de courte durée permettrait de parvenir à ce résultat.
On aurait tort d’interpréter les problématisations qui sous-tendent les politiques publiques comme de simples artefacts rhétoriques. Les acteurs des politiques publiques croient en leurs mythes comme les acteurs humanitaires croient au désintéressement, ceux du monde de l’art au caractère individuel de la création et les universitaires à la quête de la vérité.
Le sociologue Pierre Bourdieu appelle « nomos » les idées, propres à un champ social, que les acteurs sociaux doivent reproduire pour être pris au sérieux dans le champ. Cette adhésion socialement située au mythe de l’internationale de la jeunesse transparaît dans les efforts des acteurs pour mesurer les résultats de cette action publique. Le Conseil d’administration de l’Ofaj commanda, dès 1963, des enquêtes quantitatives aux instituts Ifop et Emnid sur les représentations des jeunes Français et des jeunes Allemands. Ces études révélèrent « que la relation entre Français et Allemands ne s’est malheureusement pas améliorée dans les proportions espérées ».
Pour comprendre toutes ces anomalies, l’Ofaj commanda une enquête plus approfondie en 1966 à l’universitaire français Yvon Bourdet. Intitulée Préjugés français et préjugés allemands, cette étude prit la forme d’un questionnaire administré à 1 049 jeunes Français et Allemands de 12 à 18 ans à la fin de leur séjour en centres de vacances franco-allemand.
Bourdet constata que les représentations mutuelles étaient stéréotypées et partiellement formatées par les discours produits au cours de la période nazie et la guerre. Jacques René Rabier, le fondateur des eurobaromètres, contribua à faire connaître cette étude que l’Ofaj avait choisi de ne pas publier :
« Voici des jeunes qui passent gaiement leurs vacances ensemble, qui semblent s’accorder sur beaucoup d’aspects de la vie quotidienne et même sur les grands principes de leur civilisation commune, qui commencent à effacer les ressentiments historiques, et seulement 10 % (pour les Allemands) et au mieux 20 % pour les Français estiment qu’une nouvelle guerre est impossible entre l’Allemagne et la France. »
Les conclusions de Rabier (et Bourdet) furent reprises par la presse régionale qui titra notamment « bilan désastreux pour l’Ofaj », « ombre sur l’Ofaj », « la guerre n’est pas exclue ».
À lire aussi : 60 ans après le traité de l’Élysée, le « couple » franco-allemand a changé de nature
Ces articles incitèrent la direction de l’Office à réagir. La mémoire organisationnelle de l’Ofaj a retenu comme moment charnière un colloque organisé à l’hôtel Lutetia en 1968. On se contenta alors en réalité de constater, sous l’impulsion du politiste Alfred Grosser, qu’il convenait de donner une place à Mai 68 à l’Ofaj. De nouvelles enquêtes, dont la presse se fit une nouvelle fois l’écho, apportèrent des résultats encore plus dégrisants au début des années 1970.
Le constat d’un échec de la politique des échanges de masse fut finalement acté à Strasbourg en 1972 à l’occasion d’un nouveau colloque sur « Les problèmes psychologiques de la rencontre franco-allemande ». Depuis, l’Ofaj a réduit le nombre de manifestations qu’il subventionne tout en offrant aux organisateurs les outils pédagogiques pour accompagner les jeunes dans l’aventure de la rencontre interculturelle.
Mathias Delori ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
22.04.2025 à 17:23
Héritier Mesa, PhD Candidate, Université Libre de Bruxelles (ULB)
Ramazani K. Lucien, Doctorant en sciences politiques et sociales, Université catholique de Louvain (UCLouvain)
En interrogeant les habitants de Goma et de Bukavu, avant et après la prise de ces villes par les rebelles, on découvre leurs craintes initiales, puis leur adaptation à une situation extrêmement tendue et dangereuse. Le stress infligé à ces populations laissera sur elles une marque profonde, quoi qu’il arrive.
Depuis près de deux mois, la crise politique dans l’est de la République démocratique du Congo a franchi « un point d’inflexion majeur dans l’histoire du conflit congolais ». Les villes de Goma, fin janvier 2025, puis Bukavu, deux semaines plus tard, sont tombées aux mains du groupe rebelle du Mouvement du 23 Mars (M23). Aujourd’hui, le M23 occupe progressivement plusieurs territoires de l’est du pays, alors que des négociations sont en cours.
Le M23 est un groupe armé pro-rwandais, né en 2012. Il est formé d’anciens rebelles tutsis du Congrès national pour la défense du peuple (CNDP), qui reprochent à l’État congolais de ne pas avoir appliqué les engagements de l’accord de paix signé avec le CNDP le 23 mars 2009. En prenant le contrôle de villes clés, comme Goma et Bukavu, le M23 cherche à étendre son emprise sur le territoire et à faire pression sur Kinshasa afin de peser dans d’éventuelles négociations politiques.
Si les conflits militaires opposant l’armée loyaliste à divers groupes armés dans l’est du Congo durent depuis plusieurs décennies, la chute de Goma et Bukavu, deux grandes villes stratégiques, marque une nouvelle étape. À bien des égards, cette situation rappelle les événements des première et deuxième guerres du Congo, à la fin du siècle dernier.
Derrière ces conflits complexes où s’entremêlent de nombreux acteurs et intérêts, une victime reste constante : la population congolaise. Les habitants sont touchés de multiples façons, sur différents fronts.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Dans cet article, nous souhaitons attirer l’attention sur une conséquence du conflit peu visible au premier abord, mais très lourde : le stress particulier que subissent les populations congolaises en temps de crise. Au-delà des facteurs structurels, certaines conjonctures particulières viennent accentuer le stress ressenti. Comment les Congolais font-ils face à leur situation alors que la guerre bouleverse leur quotidien ?
Le stress est une réalité bien connue des Congolais. Il fait partie du quotidien, en particulier dans les villes, où les habitants sont soumis à de fortes pressions politiques, économiques et sociales. Dans les rues des villes congolaises, on entend souvent des expressions qui en témoignent : certains parlent de ba tensions (l’hypertension), d’autres disent kitchwa inaniluma (« j’ai mal à la tête », en swahili), ou encore maraiyo nda pance (« je risque de perdre la tête »). Que ce soit à Kinshasa, à Bukavu ou à Goma, chacun se confronte à ces difficultés à sa manière.
L’inflation galopante, le chômage massif et l’absence de services sociaux de base sont autant de facteurs structurels qui exercent une pression constante sur bon nombre de Congolais urbains.
Ce climat de précarité favorise parfois les comportements à risque : violences sexistes et sexuelles, addiction aux paris sportifs ou consommation excessive d’alcool, actes de malfaisance, montée de la méfiance et de la suspicion. Les mécanismes d’adaptation, loin d’en atténuer les effets, génèrent à leur tour de nouvelles formes de vulnérabilité – psychologiques, sociales ou économiques.
Toutefois, la situation actuelle de la population à Goma et à Bukavu dépasse de loin le stress ordinaire qui fait partie du quotidien de nombreux Congolais. Il s’agit ici d’une forme particulière de traumatisme, caractéristique des contextes de guerre ou d’occupation. Il est donc essentiel de montrer comment les pressions non économiques – notamment liées à la sécurité, mais aussi aux dimensions sociales et psychologiques – interagissent avec les contraintes économiques, aggravant ainsi la situation des personnes concernées. C’est dans cette perspective que nous analysons ces différentes formes de pression et leurs dynamiques.
Cet énième retournement vécu par les populations de Goma et de Bukavu en janvier-février 2025 marque une rupture dans leur quotidien : il y a désormais un avant et un après la guerre d’invasion.
À l’insécurité d’avant-guerre est venue s’ajouter la facilité avec laquelle les vies ont été arrachées, pendant et après la guerre d’invasion. Il reste difficile d’établir avec précision un bilan officiel des morts causées par la prise de Goma et de Bukavu, en raison de la complexité du conflit et de la multiplicité des sources. Cependant, certaines sources indiquent que le nombre de personnes tuées depuis la prise des deux villes s’approcherait de 7 000, tandis que le conflit aurait causé au total le déplacement d’environ 7 millions de personnes.
Dans un tel contexte, la plupart des habitants des villes et territoires actuellement occupés ont adopté des stratégies d’évitement : on choisit soit de se cacher, soit de dissimuler ses pensées derrière un silence d’apparat ; et d’éviter tout contact téléphonique avec le monde extérieur pour échapper à la surveillance des rebelles, voire de changer de numéro de téléphone.
L’occupation des villes de Bukavu et de Goma a également entraîné une pénurie de ressources essentielles à la subsistance. Dans un quotidien marqué par la débrouillardise, le manque d’argent liquide (causé par la fermeture des banques et des structures de microfinance) amenuise les capacités d’accès aux produits de première nécessité. La précarité se généralise :
« On ne peut ni se nourrir ni se faire soigner ! »,
confient les habitants. En outre, un climat de méfiance généralisée s’est instauré.
« On vit le soupçon au quotidien. On ne sait pas qui est qui. »
De tels propos reviennent fréquemment pour traduire le doute éprouvé constamment par les habitants, y compris envers leur entourage. Les rapports sociaux en sont affectés, et le tissu social se trouve déstructuré. La confusion qui règne dans les villes, où l’on ne savait pas qui était agent de renseignement des rebelles ou des supplétifs de l’armée loyaliste et qui ne l’était pas, a servi de catalyseur à ce soupçon omniprésent.
Ce qui s’est produit dans les hôpitaux Heal Africa et CBCA Ndosho de Goma, les 28 février et 1er mars 2025, en est un exemple. Les combattants du M23 ont envahi ces établissements et, dans la nuit, ont enlevé plus d’une centaine de blessés, de malades et de gardes-malades, les emmenant vers une destination inconnue, affirmant qu’ils étaient tous des soldats du gouvernement et/ou des combattants wazalendo (c’est-à-dire des supplétifs de l’armée loyaliste).
Les expressions employées par les personnes que nous avons interrogées montrent que leur perception de la temporalité de la prise de leurs villes distingue trois phases : l’avant-occupation, quand ils ont oscillé entre espoir et inquiétude ; l’irruption brutale des rebelles ; et le quotidien éprouvant sous l’occupation.
« On ne peut souhaiter vivre sous la rébellion même si l’État semble inexistant. »
Malgré une insécurité grandissante et une crainte palpable au quotidien, beaucoup de Congolais espéraient jusqu’au dernier moment que les rebelles n’occuperaient pas leurs villes. La progression du M23 a été vécue comme une désillusion. Les critiques contre l’État – son absence et son incapacité à assurer les services publics – ont été portées par les Congolais contraints de fuir leur maison ; d’être « déplacés » dans leur propre pays ; et finalement de se retrouver sous occupation rebelle – le tout sans susciter un changement radical dans le train de vie opulent des institutions nationales et des politiques congolais.
De la même manière, la réaction de la communauté internationale est critiquée par la population comme étant à la fois timide et complaisante à l’égard du Rwanda qui apporte un soutien militaire et logistique aux rebelles.
Le 26 janvier dernier, l’entrée des rebelles à Goma a donc provoqué de vives réactions : les habitants ne s’imaginaient pas vivre, une fois de plus (Goma a été occupée par le même M23 en novembre 2012), sous l’occupation et devoir en affronter les horreurs, qui plus est sans possibilité d’exprimer le moindre désaccord.
« J’étais dans un rêve éveillé. La ville est prise par le M23. […] On n’a pas le choix : il faudra vivre avec eux ! »
Après l’entrée des rebelles, la ville de Goma était jonchée de cadavres indénombrables. Peur et souffrance se mêlaient au chaos ambiant et à une dégradation économique fulgurante. Les pillages ont défiguré les quartiers, et la population, déjà fragilisée, a sombré dans une panique totale. L’insécurité omniprésente a rendu tout déplacement risqué et périlleux.
« On aimerait qu’ils partent. »
Face à la guerre et au surgissement des rebelles du M23 dans leur ville, beaucoup expriment leur lassitude. Leur seul souhait est de voir les rebelles partir. Car leur quotidien est pavé d’humiliations constantes et d’un traitement dégradant : bastonnades, confiscations arbitraires de biens privés comme la saisie de véhicules, disparitions fréquentes, assassinats ciblés. La criminalité et l’insécurité ne font qu’augmenter, avec une multiplication des vols à main armée, et la précarité s’intensifie. Comme les banques sont fermées, l’économie est paralysée, ce qui plonge la population dans une misère sans fin.
Dans ce contexte d’occupation, le temps n’est pas à la tolérance ni à l’écoute d’un avis contraire à la ligne de conduite dictée par les autorités rebelles. À cause de la répression des opinions dissidentes, les habitants se replient sur eux-mêmes, gardent le silence, évitent les débats publics et se désengagent des partis politiques et des organisations de la société civile.
Mais en réalité, le sentiment d’insécurité, de danger et d’humiliation vécu par les Congolais, combiné à un accès limité aux moyens de subsistance dans les zones contrôlées par les rebelles, transforme profondément le rapport populaire à la politique. Et une nouvelle forme de citoyenneté se dessine : celle des « citoyens réservés », qui renvoie à la notion de « citoyens distants », décrite par le sociologue Vincent Tiberj. Les citoyens réservés, et sous pression, ont une compréhension de ce qui se passe actuellement : ils sont informés, capables de décoder, de relativiser ou de critiquer des discours. Ils analysent les projets et actions des leaders du mouvement M23. Ils restent vigilants, critiques et prêts à saisir toute opportunité de se réexprimer. Pour le politologue Jean-François Bayart, la distance n’est pas un signe de passivité, mais une stratégie d’adaptation, une forme discrète d’action politique. La crise actuelle révèle plutôt une citoyenneté qui, sous pression, se transforme, en marge du pouvoir, sans jamais s’éteindre.
Cet article a été co-écrit avec un troisième co-auteur qui se trouve sur place et a souhaité rester anonyme pour des raisons de sécurité.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
22.04.2025 à 10:23
Efstathia Karachaliou, Pharmacienne, Doctorante en pharmacognosie, Université Bourgogne Europe
Pavot, millepertuis, safran et autres plantes médicinales utilisées depuis la Grèce antique sont étudiées par l’ethnopharmacologie, une discipline au croisement de la botanique, de la chimie, de l’anthropologie et de la médecine, pour inspirer les approches thérapeutiques de la médecine contemporaine.
Depuis des millénaires, les plantes jouent un rôle essentiel dans la prévention et le traitement des maladies. Ce lien entre nature et santé, déjà présent dans l’Antiquité, connaît aujourd’hui un renouveau. De nos jours, le marché mondial des plantes médicinales est en plein essor, reflet de l’intérêt croissant des consommateurs pour des produits naturels et un mode de vie plus sain.
Pourtant, cette tendance n’est pas nouvelle. Dans le Corpus Hippocraticum (entre le Ve et le IIe siècles avant notre ère), près de 380 plantes sont déjà mentionnées pour leurs vertus médicinales.
L’ethnopharmacologie est la discipline qui étudie les plantes médicinales utilisées par les différentes cultures à travers le monde. Elle repose sur l’observation des savoirs traditionnels et l’analyse scientifique des plantes bioactives.
En croisant botanique, chimie, anthropologie et médecine, elle permet d’évaluer l’efficacité de remèdes anciens, de mieux comprendre les usages populaires et, parfois, de découvrir de nouveaux médicaments.
Chaque mardi, le plein d’infos santé : nutrition, bien-être, nouveaux traitements… Abonnez-vous gratuitement dès aujourd’hui.
Cette approche favorise un dialogue entre les pratiques ancestrales et les exigences contemporaines de la recherche. Elle permet aussi de valoriser des connaissances issues de cultures souvent marginalisées, tout en apportant des solutions concrètes aux enjeux de santé actuels.
La Grèce constitue un excellent terrain pour l’étude de l’ethnopharmacologie. Son histoire géologique, ses conditions climatiques particulières ainsi que sa position géographique unique dans les Balkans du Sud et la Méditerranée orientale expliquent sa diversité floristique accrue (5 800 espèces et 1 893 sous-espèces).
Sa situation à la jonction de l’Europe, de l’Asie et de l’Afrique a favorisé une hétérogénéité environnementale et a permis le développement d’espèces spécifiques dans un espace restreint et isolé, d’où le taux élevé d’endémisme, c’est-à-dire d’espèces végétales que l’on ne trouve qu’en Grèce (22,2 % de toutes les espèces, avec 1 278 espèces et 452 sous-espèces).
Le safran (Crocus sativus) est une illustration frappante des échanges commerciaux florissants entre les civilisations méditerranéennes anciennes et met en lumière la position stratégique des Grecs dans ces réseaux. Selon une publication récente, le safran a été domestiqué pour la première fois en Crète minoenne vers 1700 avant notre ère où il était non seulement prisé pour ses qualités médicinales, mais aussi comme produit de luxe dans les échanges commerciaux.
Des liens culturels étroits sont également attestés avec l’Égypte antique, preuve de la valeur médicinale et symbolique accordée à cette plante dans le monde méditerranéen ancien.
Parmi les exemples les plus emblématiques de la continuité entre médecine ancienne et moderne, le pavot somnifère (Papaver somniferum) occupe une place centrale. Connu dès 4000 ans avant notre ère, en Mésopotamie, il était surnommé par les Sumériens « plante de la joie », en raison de ses puissants effets euphoriques et analgésiques.
Introduit très tôt dans le bassin méditerranéen, son usage s’est diffusé en Égypte puis en Grèce où il devient un remède prisé. On retrouve sa mention chez Homère, dans l’Odyssée, sous la dénomination de « népenthès », une drogue censée apaiser toute douleur et tristesse.
Dans la Grèce classique, Hippocrate, considéré comme le père de la médecine, le recommandait pour soulager les douleurs internes et les insomnies, et comme sédatif. Dioscoride, médecin et pharmacologue du Ie siècle, décrit précisément ses préparations, allant du simple suc séché (opium) aux onguents combinés.
Le pavot faisait partie intégrante du pharmakon grec (φάρμακον), à la fois remède et poison selon les dosages, illustrant la subtilité du savoir médical antique. Il a aussi été lié à Morphée, dieu du sommeil, ainsi qu’à l’amour éternel et à la loyauté, comme dans la tradition chinoise et dans la poésie persane.
Ce parcours millénaire témoigne non seulement de la continuité entre traditions médicinales et pharmacopée moderne, mais aussi de l’intérêt de revisiter l’histoire des plantes pour éclairer la médecine contemporaine et inspirer de nouvelles approches thérapeutiques.
Le pavot somnifère est une plante potentiellement toxique. Mais elle possède également des propriétés thérapeutiques et pharmacologiques utilisées depuis l’époque minoenne, principalement en raison de son principe actif, l’opium, et de ses dérivés. Les parties de la plante qui sont utilisées sont les capsules, les graines, les feuilles, les fleurs. L’opium correspond au liquide laiteux extrait par incision sur le fruit immature.
Aujourd’hui, ses dérivés, comme la morphine et la codéine restent des piliers dans le traitement de la douleur aiguë ou chronique. Mais leurs prescriptions sont extrêmement encadrées. Ainsi, au niveau européen, des mesures de minimisation des risques des médicaments contenant de la codéine pour soulager la douleur chez les enfants ont été approuvées, suite à des préoccupations de sécurité.
Récemment, en France, l’encadrement des prescriptions de codéine a été renforcé pour réduire les risques de mésusage, de dépendance, d’abus et de surdosage.
Il convient de bien distinguer le pavot utilisé pour l’opium, qui est le Papaver somniferum (pavot somnifère), du pavot commun en Grèce, ajouté dans les pâtisseries, dont la dénomination est Papaver rhoeas. Ce sont les graines de pavot présentes à l’intérieur de la capsule que l’on retrouve sur des petits pains et dans divers gâteaux, comme le strudel au pavot d’Europe centrale (mohnstrudel) ou le cheesecake allemand au pavot.
En Grèce, il est courant de saupoudrer les graines de pavot sur le pain. De l’huile comestible de pavot est aussi produite à partir des graines, possédant de nombreuses propriétés thérapeutiques. En Grèce, l’huile de pavot est également utilisée dans la fabrication de produits cosmétiques et même en peinture, car elle n’altère pas les couleurs.
De nombreuses plantes médicinales décrites dans l’Antiquité sont toujours présentes sur les marchés locaux et utilisées selon des savoirs traditionnels. Il s’agit majoritairement de feuilles séchées ou de parties aériennes, parfois non distinguées, employées en infusions ou en décoctions, ou les deux. Ces plantes sont principalement recommandées pour traiter les troubles gastro-intestinaux, respiratoires et cutanés.
Les espèces les plus fréquemment rencontrées sont des plantes aromatiques à huiles essentielles reconnues pour leurs propriétés antimicrobiennes, comme l’origan (Origanum), le thé de montagne (Sideritis), le millepertuis (Hypericum), le thym (Thymus) et la sauge (Salvia).
(L’Agence du médicament rappelle les précautions qui s’imposent quand on a recours à des huiles essentielles dont les substances actives « peuvent induire un risque d’effets indésirables graves consécutifs à une utilisation non adaptée et non contrôlée », ndlr).
(L’Agence du médicament met aussi en garde contre certains effets liés à la consommation – ou à l’arrêt brutal de la consommation – de millepertuis concomitante avec la prise de certains traitements. Les personnes concernées doivent se rapprocher de leur médecin traitant et de leur pharmacien, ndlr).
Le plus souvent, ces usages traditionnels s’accordent avec les monographies de l’Agence européenne des médicaments (EMA), ce qui illustre la convergence entre savoirs empiriques et validation scientifique.
Les monographies de l’EMA évaluent l’efficacité et la sécurité des plantes médicinales sur la base de preuves scientifiques et d’usages traditionnels. Si une plante y figure, elle est validée pour des usages thérapeutiques spécifiques.
Cependant, toutes les plantes traditionnelles ne sont pas incluses, souvent en raison de preuves insuffisantes ou de risques non confirmés. Lorsque les usages traditionnels ne sont pas conformes aux monographies, la plante ne peut pas être commercialisée comme médicament et des sanctions peuvent être appliquées pour des allégations non validées.
En France, les plantes médicinales peuvent être prescrites par des médecins et délivrées par des pharmaciens, sous différentes formes comme des extraits ou des tisanes. Elles présentent des risques potentiels, notamment des interactions médicamenteuses et des effets secondaires.
Seules les pharmacies peuvent les vendre, même si la formation des pharmaciens sur les médicaments n’inclut pas toujours les plantes médicinales. Les herboristes n’ont pas de statut officiel pour prescrire ou vendre ces plantes, ce qui pose des risques de sécurité, tandis que les phytothérapeutes peuvent conseiller leur usage, mais en collaboration avec des professionnels de santé.
Efstathia KARACHALIOU a reçu des financements de l’Agence Nationale de la Recherche pour son étude des chémotypes d'huiles essentielles endémiques en Sicile, ainsi que de l’Université de Bourgogne en tant que lauréate du concours ministériel de l’école doctorale ES (Environnements - Santé).
22.04.2025 à 10:16
Elodie Gentina, Professeur à IESEG School of Management, Univ. Lille, CNRS, UMR 9221 - LEM - Lille, IÉSEG School of Management
Partager un poste c’est possible pour peu que cela soit organisé en amont. Le job-sharing se développe hors de France. Comment ? Pourquoi ?
En Angleterre, Claire Walker et Hannah Essex ont partagé le poste de directrices exécutives de la chambre de commerce britannique. Cet exemple illustre une pratique émergente de management : le « job sharing ». Cette organisation novatrice du travail repose sur le partage d’un même poste par deux personnes.
Le job sharing est pratiqué par 31 % des entreprises aux États-Unis, 25 % en Angleterre ou en Suisse. En Allemagne, 25 % des entreprises comptant plus de 500 employés le proposaient en 2024 alors qu’elles n’étaient que 9 % en 2003. Importé des États-Unis, ce concept flexible reste cependant encore méconnu en France, où la complexité de la réglementation française serait identifiée comme un frein à son développement. Toutefois, il présente de nombreux avantages qui pourraient séduire les entreprises.
Le modèle du job sharing est particulièrement adapté pour des postes exigeant une expertise approfondie, des responsabilités managériales ou un fort engagement personnel avec des horaires étendus. L’objectif est d’optimiser l’efficacité en alliant les compétences et l’implication de deux professionnels, tout en améliorant leur équilibre de vie. Concrètement, cela peut se traduire par un rythme où chaque professionnel travaille trois jours par semaine, avec une journée de chevauchement dédiée au partage d’informations et au travail en commun pour assurer une collaboration fluide.
À lire aussi : Les stratégies souterraines pour concilier vies « pro et perso » au masculin
Le job sharing s’adapte à différentes étapes de la vie professionnelle. Il peut ainsi concerner :
les jeunes professionnels souhaitant mieux s’intégrer en entreprise grâce à un échange intergénérationnel,
les parents ou aidants qui cherchent à concilier leur activité professionnelle avec leurs responsabilités personnelles
et les seniors désireux de rester actifs et de transmettre leur savoir tout en réduisant leur temps de travail.
les slasheurs souhaitant cumuler plusieurs activités, dans le salariat et en dehors
D’après l’étude Manpower menée auprès de plus de 13 000 recruteurs issus de huit pays en 2023, 41 % des salariés aspirent à un meilleur équilibre entre vie professionnelle et vie personnelle. Ce facteur pourrait motiver un tiers (33 %) à envisager un changement d’entreprise.
À la différence d’un emploi à temps partiel classique, le job sharing nécessite une coordination étroite entre les partenaires. Ils se répartissent non seulement les horaires, mais aussi les missions, afin d’assurer une continuité optimale dans l’exécution de leur fonction. Les binômes en job sharing bénéficient généralement d’une large autonomie dans leur organisation. Toutefois, la réussite de ce modèle repose sur une parfaite compatibilité et une complémentarité des profils. Un binôme efficace se caractérise par une confiance mutuelle dans les compétences de chacun et une vision partagée des objectifs à atteindre.
Abonnez-vous dès aujourd’hui !
Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).
Myriam Loingeville fait partie des rares salariées en France à l’avoir expérimenté au sein d’une grande entreprise : la SNCF. Dès le départ, le job sharing répondait à son besoin d’un meilleur équilibre, comme elle l’exprime :
« J’ai découvert le job sharing à un moment où j’avais l’impression de devoir choisir entre ma carrière et ma famille. J’étais Responsable des Ressources Humaines d’une entité de 700 salariés à l’ingénierie SNCF et membre du comité de Direction. Un poste passionnant mais dont les exigences étaient devenues difficilement compatibles avec mon organisation familiale. Avec le soutien de ma hiérarchie, j’ai pu former un tandem avec une collègue manager, Carole Chipot, et nous avons travaillé en co-leadership pendant 3 ans. Nos carrières n’auraient pas suivi la même trajectoire sans le jobsharing. »
À l’étranger, les hommes sont encore peu nombreux à travailler en jobsharing (7 % des postes en tandem en Allemagne)) mais certains commencent à ouvrir la voie, comme Lukas Krienbuehl Co-responsable de la communication à Innosuisse :
« Pour moi, le partage d’un poste de cadre représente une chance inouïe de conjuguer un défi professionnel palpitant et mes responsabilités de père de deux jeunes enfants. Un travail à temps partiel sans job sharing n’offre, à mon sens, pas les mêmes perspectives de responsabilités et de carrière. »
Dans le monde du travail, l’engagement et la disponibilité sont encore intrinsèquement liés, ce qui agit comme un plafond de verre pour les salariés qui réduisent leur temps de travail. Le jobsharing permet de réintégrer ces talents dans les viviers de managers, en leur permettant de poursuivre leur carrière tout en ayant le temps disponible au bon moment de leur vie. Ainsi, dans l’entreprise Mercedès, pionnière du jobsharing en Allemagne, 400 managers travaillent en tandem, dont 25 % dans un tandem mixte homme-femme.
Le job sharing constitue également une opportunité précieuse de développement de compétences professionnelles. En travaillant en étroite collaboration, les binômes renforcent des compétences clés telles que la gestion de projet, la communication efficace et le travail d’équipe. Une étude allemande a d’ailleurs mis en lumière les principaux avantages du job sharing, notamment un éventail élargi de compétences et de connaissances (cité par 80 % des managers de binôme) ainsi qu’une capacité accrue d’innovation et de créativité (mentionnée par 70 %)](https://www.jobsharing-hub.de/post/tandems-sind-produktiver-als-vollzeitkr%C3%A4fte).
D’un point de vue juridique, il s’agit de deux contrats à temps partiel volontaire pour un poste à temps plein. Les services des ressources humaines doivent se référer aux règles du droit du travail qui régissent le temps partiel à la demande du salarié. Le volontariat est fondamental dans le dispositif.
Les salariés se choisissent librement et mutuellement car ils vont former un tandem et seront co-responsables de l’atteinte des objectifs. Plusieurs combinaisons de temps partiel peuvent être proposées en fonction de la complexité du poste : de 50-50 à 80-80 %. Il est aussi possible de combiner un poste de manager en job sharing à 60 % avec une mission d’expertise jusqu’à 40 % pour maintenir une compétence technique ou opérationnelle, ce qui crée d’attractifs postes de « manager-expert ».
Le job sharing ne nécessite pas d’adaptation lourde des processus RH existants. Le véritable enjeu pour les entreprises réside dans leur capacité à sensibiliser, connecter et coacher les personnes ayant les compétences et le besoin de ce type d’organisation.
Elodie Gentina ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
22.04.2025 à 10:16
Sara Bentebbaa, Professeure en entrepreneuriat et stratégie, Directrice du Centre d'Expertise en Entrepreneuriat et Entreprises Familiales, Kedge Business School
Il ne suffit pas de construire un empire. Encore faut-il le maintenir dans la durée, voire le transmettre en espérant qu’il perdurera au fil des années. Les exemples d’entreprises comme Seb ou Groupe Rocher, qui restent dans le giron familial pendant plusieurs générations, sont relativement rares. Comment ont-ils fait ?
Le 17 avril, Bernard Arnault (76 ans), PDG de LVMH, a soumis au vote des actionnaires une résolution portant sur la « modification des articles 12 et 16 des statuts afin d’harmoniser les limites d’âge du Président du Conseil d’administration et du Directeur général pour les porter à 85 ans ». Mission accomplie, ce texte a été voté. Ce n’est pas une première, Bernard Arnault avait déjà repoussé en 2022 la limite d’âge pour son rôle de directeur général de LVMH de 75 à 80 ans.
Bien que les nominations stratégiques, de ces dernières semaines, laissent entrevoir une préparation agile de la succession chez LVMH, la volonté de Bernard Arnault de repousser son départ au moins jusqu’en 2034 laisse penser que les astres ne sont pas encore parfaitement alignés pour le rassurer sur la pérennité de l’empire après « lui ».
En effet, ces derniers mois, le géant français a annoncé plusieurs changements majeurs dans sa direction. Alexandre Arnault, 32 ans, est devenu directeur délégué de Moët Hennessy en février 2025, après avoir dirigé le marketing et le développement produit chez Tiffany & Co, et Frédéric Arnault, 29 ans, prendra la direction générale de la marque italienne Loro Piana en juin 2025, après avoir été nommé à la tête de la division montres de LVMH en janvier 2024. Côté conseil d’administration, Alexandre et Frédéric sont membres du conseil d’administration du groupe LVMH depuis 2024, aux côtés de leurs deux aînés, Delphine et Antoine.
Abonnez-vous dès aujourd’hui !
Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).
Autre entreprise, autres mœurs : la preuve avec le groupe Rocher, créé en 1959. Son ancien PDG Bris Rocher (petit-fils du fondateur Yves Rocher) a décidé en 2023 à l’âge de 44 ans de se retirer de ses responsabilités de DG et de continuer d’assurer la présidence du groupe. Dans l’une de ses rares interviews, il a expliqué cela par les changements majeurs qu’a connu le groupe qui « nécessitent une prise de recul de sa part » et a annoncé le lancement d’un plan de transformation, avec pour objectif notamment de restaurer la rentabilité du Groupe. Il souligne que « la première mission d’un groupe familial […] c’est de transmettre à la génération d’après, la rentabilité est donc clé ». Si les stratégies semblent différer, l’impulsion reste la même : continuer d’exister.
Les marques Tefal, Moulinex, Calor, Rowenta, Krups, connues du grand public, ont un point commun souvent ignoré : elles appartiennent toutes au groupe français SEB. L’histoire de SEB commence en 1857 avec Antoine Lescure, rétameur ambulant, qui crée son atelier de ferblanterie à Selongey. Son fils Jean lui succèdera en 1865 puis son petit-fils René en 1904. L’appellation SEB (Société d’Emboutissage de Bourgogne) revient à Jean, fils de René, qui dirigera l’entreprise de 1925 à 1952. Ses frères reprendront ensuite le flambeau familial : Frédéric Lescure à la présidence et Henri Lescure au poste de directeur général.
Entre 1953 et 1960, le chiffre d’affaires de SEB est multiplié par 43 grâce à une vision mettant l’innovation au cœur de la stratégie du groupe. Henri Lescure succèdera à Frédéric Lescure en 1973 en tant que président. Trois ans plus tard, son neveu Emmanuel Lescure lui succèdera dans son rôle de PDG jusqu’en 1990, où le leadership du groupe familial sera transmis à Jacques Gairard, gendre de Henri Lescure. En 2000, c’est Thierry de La Tour d’Artaise, gendre d’Emmanuel Lescure, qui est nommé pour diriger le groupe, un mandat qui a duré 22 ans.
L’année 2022 a marqué un tournant dans la gouvernance du groupe. Après 166 ans de règne familial à la tête de l’entreprise, Stanislas de Gramont devient le premier directeur général extérieur à la famille Lescure de l’histoire du groupe. Thierry de La Tour d’Artaise qui reste au poste de président explique cette décision : « Dans un monde qui accélère, il est important d’avoir un double management capable de gérer le long et le court terme, c’est un tandem indispensable. Pendant 22 ans, j’étais chargé du court et du long terme et aujourd’hui il devient difficile d’avoir les yeux partout dans un univers où tout évolue si rapidement avec les tensions internationales, les crises énergétiques, les risques de guerre. »
À lire aussi : Entreprises familiales : comme Bernard Arnault, les dirigeants sont nombreux à retarder leur succession
La longévité exceptionnelle de certaines entreprises familiales intrigue les chercheurs et, parfois, inspirent les dirigeants d’entreprises. En 2005, Miller et Le-Breton Miller explorent les facteurs qui permettent aux entreprises familiales de se différencier et d’assurer leur pérennité sur le long terme. Pour cela, ils étudient 60 grandes entreprises familiales d’un âge médian de 104 ans. Leurs résultats mettent en avant quatre priorités d’affaires communes à ces entreprises qui durent dans le temps : la continuité (continuity), la communauté (community), les connexions (connections) et le commandement (command).
Contrairement aux entreprises où la pression des actionnaires peut favoriser une approche de court terme, les entreprises familiales adoptent une stratégie tournée vers l’avenir favorisant la continuité. Les décisions opportunistes dictées par la rentabilité immédiate sont ainsi évitées. La transmission du savoir-faire, du capital social et des valeurs entre générations assure une continuité de la culture d’entreprise et une stabilité managériale. La singularité de cette transmission dans les entreprises familiales, un sujet sur lequel nous travaillons depuis plusieurs années est une source incontestable d’avantage compétitif. L’apprentissage organisationnel dans les entreprises familiales est singulier car la variable temps le rend difficilement imitable.
Un autre pilier des entreprises familiales réside dans leur capacité à tisser des liens solides avec leur communauté : employés, partenaires et clients. Elles s’inscrivent dans une dynamique de gestion humaine et durable, fondée sur la loyauté et la confiance mutuelle. Cette approche renforce la cohésion interne, favorise l’engagement des collaborateurs et instaure une relation de confiance avec les partenaires économiques. Elles ont tendance à entretenir des relations de long terme avec leurs fournisseurs et partenaires et à privilégier la qualité et la fiabilité des collaborations, plus que la maximisation des marges.
La connexion des entreprises familiales à leur territoire, à leurs clients et à leurs valeurs, constitue un levier puissant de pérennité. L’ancrage territorial fort permet la sécurisation des ressources, le soutien des acteurs locaux et la différenciation par la qualité et l’authenticité.
Enfin, le commandement est un facteur essentiel de la longévité des entreprises familiales. Loin des logiques de gouvernance court-termistes, les groupes familiaux bénéficient souvent d’une stabilité managériale et d’un leadership visionnaire, garantissant une transmission efficace des valeurs et de la culture d’entreprise. Cette gouvernance repose sur un équilibre entre tradition et innovation, permettant aux entreprises familiales de s’adapter aux évolutions du marché tout en conservant leur ADN. Une bonne gouvernance sait se remettre en question et faire appel à des experts externes ou membres extérieurs à la famille pour assurer la pérennité. C’est une gouvernance qui anticipe et prépare la succession.
Chez les PME et ETI familiales, la bonne gestion des successions à leur tête constitue souvent une menace pour leur pérennité. J’ai eu l’occasion de faire partie du comité de pilotage et de suivi de l’étude de BPI France Le Lab (2023), _ les Entreprises familiales à l’épreuve des générations_, qui met en avant des conclusions dans ce sens. Si la pérennité et la conservation de l’indépendance financière demeurent, sans grande surprise, la priorité numéro 1 des PME et ETI familiales, plus d’un tiers des dirigeants de plus de 70 ans n’ont toujours pas formalisé de plan de succession ; la moitié pour ceux âgés de 60 à 69 ans et les trois quarts pour ceux de 50 à 59 ans.
Sara Bentebbaa ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
22.04.2025 à 10:15
Paolo Antonetti, Professeur, EDHEC Business School
En cas de cyberattaque, la communication est stratégique. S’il est possible de se considérer comme une victime, il importe de ne pas le faire n’importe comment.
Dans sa dernière publication annuelle, Hiscox a interrogé plus de 2 000 responsables de la cybersécurité dans huit pays, dont la France : deux tiers des entreprises ont déclaré avoir été victimes d’une cyberattaque en 2024. Une augmentation de 15 % par rapport à l’année précédente. En termes de pertes financières potentielles, le cabinet Statista estime que les cyberattaques coûteront jusqu’à 122 milliards d’euros à la France en 2024, contre 89 en 2023, soit une hausse de 37 %.
Les principales formes que prennent les cyberattaques, les recommandations pour les entreprises pour s’en prémunir et les réponses techniques et juridiques à adopter sont bien documentées.
Cependant, on en sait beaucoup moins sur les réactions appropriées aux cyberattaques en matière de communication et de relations publiques. Pourtant, ces enjeux sont essentiels. Une mauvaise réponse peut aggraver la situation et abîmer la confiance des clients et des investisseurs. Lorsqu’une entreprise est la cible d’une cyberattaque, doit-elle systématiquement accepter la responsabilité ? Ou peut-elle au contraire se présenter comme une victime pour protéger sa réputation ?
Nos récentes recherches remettent en question l’hypothèse selon laquelle il faudrait systématiquement accepter la responsabilité causale après une cyberattaque. Nous avons montré qu’il pouvait être plus efficace de se positionner en victime pour limiter les dommages causés à son image, à condition de le faire intelligemment.
À lire aussi : Les cyberattaques ont changé de nature pendant le Covid-19
Les entreprises ont besoin d’une stratégie pour assumer « efficacement » le statut de victime de cybercriminalité. Par le passé, certaines entreprises, telles que T-Mobile ou Equifax, ont versé des indemnités tout en refusant d’accepter toute responsabilité, se présentant essentiellement comme des victimes.
L’opérateur Free Mobile s’était aussi présenté comme une victime lorsqu’il a communiqué sur la cyberattaque à grande échelle qui a affecté ses opérations l’année dernière, ce qui a pu avoir des effets sur son image. Au Royaume-Uni, TalkTalk avait d’abord adopté cette attitude, mais a ensuite été critiquée pour ses mesures de sécurité inadéquates.
Se déclarer (maladroitement) uniquement responsable ou uniquement victime – ce qui nous intéresse ici – peut se retourner contre l’entreprise attaquée, nuisant à sa crédibilité plutôt que protégeant sa réputation.
Lorsque les entreprises se présentent comme des victimes de la cybercriminalité, elles suscitent la sympathie de la part de leurs parties prenantes. Les gens ont tendance à être davantage compatissants envers les entreprises qui se présentent comme lésées, plutôt qu’envers celles qui nient leur responsabilité ou rejettent la faute sur d’autres. Cet appel émotionnel contribue à « humaniser » l’entreprise, ce qui adoucit les réactions des parties prenantes.
En substance, cette stratégie présente l’organisation comme la cible de forces extérieures indépendantes de sa volonté, plutôt que comme négligente ou incompétente. Cette approche s’appuie sur une norme sociale fondamentale : la tendance instinctive des gens à soutenir ceux qu’ils considèrent comme des victimes.
Mais les revendications de victimisation doivent être conformes aux attentes du public et au contexte spécifique de l’infraction. Il ne s’agit pas d’échapper à ses responsabilités, mais de reconnaître le préjudice d’une manière qui favorise la compréhension et la confiance. Plusieurs considérations sont essentielles pour mettre en œuvre une stratégie de communication efficace si l’on veut se présenter comme victime.
Abonnez-vous dès aujourd’hui !
Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).
Les réactions des parties prenantes dépendent souvent de leur compréhension de la situation. Si l’attaque est perçue comme un acte extérieur et malveillant, il est crucial d’adopter une position cohérente en mettant l’accent sur le fait que l’entreprise elle-même a été victime. À l’inverse, si une négligence interne est prouvée, revendiquer le statut de victime pourrait être contre-productif. Dans l’ensemble, la rapidité de la réponse, le niveau de transparence et la position relative adoptée font tous partie de la « bonne » stratégie.
Adopter cette position ne signifie pas nier toute responsabilité ou minimiser les conséquences de l’attaque. L’entreprise doit montrer qu’elle prend la situation au sérieux en exprimant son empathie et son engagement envers les parties prenantes affectées. Une attention particulière doit être accordée aux personnes touchées au sein de l’organisation : la revendication du statut de victime doit faire partie d’excuses ou d’une communication exprimant de l’inquiétude. Un message efficace se doit d’être à la fois sincère et orienté vers des solutions concrètes.
Nous constatons qu’il est plus facile pour les entreprises de revendiquer leur statut de victime de manière convaincante si elles sont perçues (initialement) comme vertueuses. Cela peut être dû à des antécédents positifs en matière de RSE ou au fait qu’il s’agit d’une institution à but non lucratif (par exemple, une bibliothèque, une université ou un hôpital). Les victimes vertueuses génèrent de la sympathie et de l’empathie, et cela se reflète également après une cyberattaque.
Les résultats de notre étude montrent également que l’acceptation du statut de victime est plus efficace lorsque l’attaque est perçue comme étant menée par des acteurs malveillants hautement compétents. Dans le même temps, il est très important de persuader le public que l’attaque a été préjudiciable pour l’entreprise tout en gardant l’accent principal de la réponse sur le public et non sur l’organisation elle-même.
Il est essentiel de faire la distinction entre les revendications légitimes du statut de victime et la communication perçue comme une tentative de se disculper. Un ton trop plaintif pourrait nuire à la crédibilité de l’entreprise. L’approche doit être factuelle et constructive, en mettant l’accent sur les mesures prises pour surmonter la crise.
Les réactions à une cyberattaque peuvent varier en fonction du contexte et du public concerné. Il est préférable d’évaluer la perception des différentes approches avant de se lancer dans une communication à grande échelle. Cela peut se faire par le biais de tests internes, de groupes de discussion ou d’enquêtes ciblées. En effet, de subtiles différences dans la situation peuvent entraîner des changements importants dans la façon dont le public perçoit l’attaque et dans la meilleure réponse à apporter.
Ce travail met en lumière un changement dans les attentes du public en matière de gestion de crise : à l’ère de la cybercriminalité omniprésente, les responsabilités sont souvent partagées. Une mauvaise gestion de la communication après une cyberattaque peut entraîner une perte de confiance durable et exposer l’entreprise à des risques juridiques accrus. Revendiquer efficacement le statut de victime, avec une approche empathique et transparente, peut contribuer à atténuer l’impact de la crise et à préserver la réputation de l’organisation.
Cet article a été écrit en collaboration avec Ilaria Baghi de l’Università degli Studi di Modena e Reggio Emilia.
Paolo Antonetti ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
22.04.2025 à 10:15
Felipe A. Guzman, Associate Professor in Management, IÉSEG School of Management
Melvyn R.W. Hamstra, Professor in Leadership and Organizational Behavior, IÉSEG School of Management
C’est la version corporate du célèbre « Peut-on rire de tout ». Est-il possible dans un cadre professionnel de recourir à l’humour pour désamorcer des situations tendues. La réponse pourrait vous étonner. Et vous faire rire ?
Imaginez la situation suivante : l’un de vos employés vient vous voir avec une idée. Il ou elle souhaite apporter des modifications à l’une de vos procédures. Votre employé est convaincu que son idée est géniale, mais, en tant que manager, vous en voyez immédiatement les défauts. Peut-être est-elle peu pratique, trop coûteuse… Ou tout simplement n’est-elle pas la priorité du moment.
Vous savez que vous devez la refuser. Mais voici le dilemme : vous ne voulez pas que l’apporteur d’idées se décourage et n’ose plus jamais s’exprimer. Après tout, sa prochaine suggestion pourrait être super ! Alors, au lieu d’un rejet brutal, vous adoucissez le coup avec un peu d’humour :
« C’est une idée audacieuse, peut-être un peu trop audacieuse pour notre budget ! » répondez-vous avec un sourire.
Cela semble être une bonne stratégie. Mais est-ce vraiment le cas ? Votre employé se sentira-t-il à l’aise pour revenir avec une autre idée, ou pensera-t-il que vous vous moquez de lui et décidera-t-il que cela ne vaut pas la peine ? Nous posant la même question, nous avons mené une étude pour le savoir.
Nous avons interrogé plus de 300 employés à trois reprises sur une période de trois semaines. Nous nous sommes concentrés sur les employés qui avaient récemment proposé une idée à leur manager – qui a ensuite été rejetée. Certains de ces responsables ont rejeté ces idées avec une réponse plutôt directe tandis que d’autres ont cherché à utiliser différents degrés d’humour.
À lire aussi : Pour devenir un leader, faut-il être drôle ?
Ce que nous avons découvert remet en question les idées reçues. Bien que plusieurs experts estiment que l’utilisation de l’humour dans un contexte professionnel est risquée car elle pourrait donner aux collaborateurs l’impression que leurs idées ne sont pas prises au sérieux, nos résultats suggèrent le contraire. Plus précisément, les managers qui ont rejeté des idées avec humour ont en fait augmenté la volonté de leurs employés à s’exprimer à nouveau à l’avenir. L’utilisation de l’humour semblait indiquer aux collaborateurs que ce rejet n’était pas « personnel », ce qui leur a permis ensuite de se sentir en sécurité pour continuer à faire part de leurs idées par la suite.
Et voici le résultat le plus surprenant : l’humour était particulièrement bénéfique pour les employés qui étaient les moins proches de leurs managers. Pour ceux-ci, qui ne se sentaient pas particulièrement proches de leurs managers, l’humour aidait à combler ce fossé, les mettant plus à l’aise pour s’exprimer et proposer davantage d’idées à l’avenir.
Pourquoi l’humour fonctionne-t-il ? L’humour est un outil social puissant. Il peut aider à désamorcer les tensions sociales, créer un sentiment de camaraderie et indiquer qu’une situation n’est pas aussi grave qu’on pourrait le penser. Lorsqu’un manager utilise l’humour, il ou elle dit subtilement à son employé que ses efforts sont appréciés et que le fait de rejeter ses idées ne signifie pas qu’il ne les apprécie pas.
Notre étude a montré que les employés interprétaient l’humour de la même manière : que leur responsable n’était pas contrarié ou dédaigneux, ce qui les mettait plus à l’aise pour exprimer leurs idées à l’avenir.
Abonnez-vous dès aujourd’hui !
Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).
Cependant, avant de commencer à plaisanter chaque fois que vous voulez rejeter des idées, nous devons mentionner une mise en garde importante : le type d’humour utilisé a vraiment son importance.
Une blague qui semble sarcastique, condescendante ou dédaigneuse peut facilement se retourner contre vous. Par exemple, si une personne avec laquelle vous travaillez suggère une amélioration d’un processus de l’entreprise et que vous répondez : « Bravo pour votre imagination ! Malheureusement, nos comptables pourraient lui donner un cinq sur vingt », la personne risque de se sentir ridiculisée plutôt qu’encouragée.
Par conséquent, il faut respecter ces trois principes lorsqu’on utilise l’humour :
À faire : rassurer les employés en leur disant que le rejet n’est pas personnel tout en reconnaissant la valeur de leur contribution.
À ne pas faire : rejeter les employés.
À faire : consentir un effort supplémentaire avec ceux avec lesquels vous avez une relation plus formelle et distante, car ils apprécieront votre effort supplémentaire.
À ne pas faire : ne vous sentez pas obligé de plaisanter avec ceux qui sont les plus proches. Ils vous apprécient déjà, il est donc peut-être plus important de leur faire des commentaires plus clairs que de rejeter leur proposition en plaisantant.
À faire : assurez-vous que vos intentions sont bienveillantes. Montrez votre appréciation avec votre humour.
À éviter : utiliser un humour agressif ou négatif, car il risque davantage de se retourner contre vous.
Pour résumer, voici quelques conseils pratiques pour les managers :
Utilisez l’humour pour adoucir, pas pour se protéger. Une blague devrait rendre le rejet plus léger, mais elle ne devrait pas remplacer un feedback clair et constructif.
Adaptez l’humour à la relation. Si vous avez déjà une bonne relation avec le/la collaborateur (trice), il peut être préférable de se concentrer sur une communication claire et honnête. Cependant, si la relation est plus faible, utilisez des formes d’humour plus douces, positives et bienveillantes lorsque vous rejetez ses idées.
Assurez un suivi. Si vous rejetez une idée avec humour, renforcez votre ouverture d’esprit en vérifiant plus tard. « Hé, j’apprécie vraiment que vous ayez soulevé ce point. Continuez à proposer des idées. »
Restez professionnel. L’humour ne doit jamais être personnel ou se faire aux dépens d’un collaborateur.
Faut-il utiliser l’humour ? Oui, mais avec sagesse. Bien utilisé, l’humour peut aider vos employés à accepter plus facilement un refus et les encourager à continuer de proposer des idées. C’est particulièrement vrai pour ceux et celles qui n’ont pas encore de relation solide avec vous.
Ainsi, la prochaine fois qu’un de vos employés vient vous voir avec une idée dont vous savez qu’elle ne fonctionnera pas, envisagez de faire une petite blague au lieu de lui dire carrément « non ». Parce que si l’idée d’aujourd’hui n’est peut-être pas réalisable, celle de demain pourrait bien l’être, et vous voulez qu’il/elle se sente suffisamment en confiance pour la partager ! Avez-vous des anecdotes sur l’humour sur le lieu de travail ? Racontez-nous ce qui vous est arrivé dans les commentaires ci-dessous…
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
22.04.2025 à 10:15
Caroline Marie-Jeanne, Maître de conférences en sciences de gestion - IAE Angers - Chercheur au GRANEM, Université d'Angers
Diana Pop, Maîte de conférence en Finance (Département Economie), Université d'Angers
Régis Dumoulin, Professeur des Universités
Saviez-vous qu’il est possible d’obtenir une rentabilité double grâce à certains titres de dette ? C’est le cas des obligations sociales, ou social bonds , qui financent exclusivement des projets ayant un impact social positif. En effet, à la performance financière s’ajoutent des bénéfices sociaux.
L’expansion des obligations sociales est spectaculaire, avec des émissions atteignant 130 milliards de dollars en 2024, contre seulement 1,8 milliard en 2015. Cette croissance rapide peut sembler surprenante, mais il existe des raisons profondes qui expliquent l’engouement croissant pour ces instruments financiers.
La question qui se pose est la suivante : les obligations sociales rapportent-elles plus que les obligations classiques ? Notre étude menée sur les émissions mondiales de social bonds entre 2015 et 2020 (hors entreprises privées) montre que leur rendement est comparable à celui des obligations classiques.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Cela soulève une question intéressante : si le rendement financier est similaire, pourquoi les investisseurs choisissent-ils d’investir dans des obligations sociales ? La réponse réside dans le fait qu’ils recherchent non seulement une rentabilité financière, mais aussi une valeur ajoutée sociale. En d’autres termes, la rentabilité des obligations sociales est double : à la performance financière s’ajoutent des bénéfices sociaux, comme la satisfaction de contribuer à un projet ayant un impact positif sur la société.
Qu’est-ce qu’une obligation ? Une obligation classique, tout comme une obligation sociale, représente une part d’emprunt émis par une entité. En contrepartie de son prêt, l’investisseur perçoit des intérêts, appelés « coupons ». Le taux d’intérêt ou « taux facial » lié au risque de l’émetteur, la durée de l’obligation ou « maturité » et la date de versement des intérêts sont connus à l’avance. Les obligations font l’objet d’une cotation en bourse.
De nombreux épargnants détiennent, souvent à leur insu, des obligations classiques dans le cadre de placements comme l’assurance-vie ou le Plan d’Épargne Retraite (PER). Or, depuis 2024, ces placements doivent inclure des fonds avec un label « vert » ou « social », comme Greenfin ou Finansol. Cette obligation légale oriente les investisseurs vers des supports financiers durables et responsables, ce qui suscite une demande importante.
Les obligations peuvent être émises par différentes entités : organisation supranationale, État, collectivité locale, entreprise privée ou institution financière. Mais pourquoi les acteurs publics et privés choisissent-ils d’émettre des obligations sociales ? Ces titres de créance visent à financer des projets ayant un impact social positif, en ciblant des populations spécifiques telles que les personnes handicapées, sans emploi, défavorisées ou vulnérables… Les projets soutenus visent à promouvoir notamment la sécurité alimentaire, l’accès au logement, à des infrastructures – eau potable, énergie – ou à des services de base – santé, éducation –, ainsi que la création d’emplois.
En 2018, Danone a été le premier acteur privé à émettre un social bond de 300 millions de dollars. Selon leur communiqué de presse :
« Le produit de l’émission sera alloué à des projets ayant un impact social positif pour les parties prenantes de Danone, notamment : les fournisseurs et les partenaires du monde agricole en soutenant des pratiques agricoles et d’élevage responsables […] ; les communautés locales […], à travers des fonds soutenant des projets dédiés à l’émancipation des populations et des entrepreneurs sociaux ; les personnes ayant des besoins nutritionnels spécifiques […] ; les entrepreneurs au service d’une alimentation saine […] ; les salariés, avec une amélioration de leur couverture santé, la prolongation du congé maternité et parental ainsi qu’un soutien post-natal. »
Autre exemple illustre : l’Unédic, qui finance l’assurance chômage en France grâce aux cotisations sociales. En période de chômage élevé, comme pendant la pandémie de Covid-19, la baisse des recettes oblige l’Unédic à emprunter pour sécuriser ses financements. En 2020, l’Unédic a ainsi lancé une émission de social bonds d’une valeur de 4 milliards d’euros. En 2020 et 2021, l’investissement a atteint 27 milliards d’euros. En 2022, avec la reprise de l’emploi, l’Unédic a émis seulement 1 milliard d’euros, investis dans la création et la reprise d’entreprises pour stimuler la relance économique. Ces emprunts ont permis de répondre aux défis sociaux urgents, ce qui renforce la légitimité de l’Unédic en tant qu’acteur économique engagé.
Les Social Bond Principles, publiés par l’International Capital Market Association (ICMA), préconisent une évaluation externe des projets financés par les obligations sociales. L’objectif : assurer la transparence et la bonne allocation des fonds. Cette exigence engendre des frais supplémentaires pour l’émetteur par rapport aux obligations classiques.
Pour justifier ce surcoût, il est nécessaire de trouver des explications autres que financières à l’émission de social bonds. Au-delà de la rentabilité financière, les acteurs économiques – entreprises, investisseurs et citoyens – doivent répondre à des attentes sociales et éthiques qui orientent leurs comportements. Ces règles, qu’elles soient formelles – lois, droits de propriété – ou informelles – normes, coutumes –, permettent d’organiser les interactions et de renforcer la cohésion sociale.
À lire aussi : Social bonds : changement d’échelle pour une finance durable de marché ?
Les acteurs économiques qui respectent ces règles partagées peuvent bénéficier de récompenses sous forme de ressources supplémentaires. Ainsi, de nombreux émetteurs choisissent désormais les obligations sociales, non seulement pour l’apport financier qu’elles génèrent, mais aussi pour la légitimité qu’elles leur confèrent. Le fait de participer à des projets à impact est perçu comme un engagement positif, ce qui attire de plus en plus de financements, créant un cercle vertueux.
Un rapport de la Banque mondiale en 2020 montre l’évolution du marché des obligations sociales. À l’origine, ces instruments financiers étaient principalement émis par des organisations multilatérales, comme la Banque Européenne d’Investissement. Par la suite, des institutions financières non souveraines ont suivi, imposant de nouvelles règles de finance responsable. Ces règles ont progressivement gagné en légitimité grâce à leur large adoption et à leur développement à l’échelle mondiale. Aujourd’hui, l’impact social est considéré comme une composante essentielle de la performance des investisseurs et des entreprises.
Les obligations sociales, modèle hybride innovant, ont transformé la perception des investissements en introduisant une nouvelle logique où l’impact social devient aussi important que la performance financière. Ainsi, elles représentent bien plus qu’un simple placement financier : elles incarnent une manière nouvelle et durable d’investir dans l’avenir.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
21.04.2025 à 22:46
Frédéric Gugelot, Professeur d'Histoire contemporaine, Université de Reims Champagne-Ardenne (URCA)
Premier pape non européen depuis longtemps, François aura lancé des réformes importantes et laissera une marque indéniable dans l’histoire de l’Église catholique. Pour autant, son engagement aura été bien plus social que sociétal : s’il a beaucoup insisté sur la nécessité pour l’Église d’aider les pauvres et, notamment, les migrants, il n’aura pas impulsé de changement notable de la doctrine sur des questions comme l’IVG, l’euthanasie ou encore l’homosexualité.
L’ambiance de fin de règne au Vatican s’achève avec le décès, lors des fêtes de Pâques, du pape François, à 88 ans. Au-delà des interrogations récurrentes liées au fait que les papes sont nommés à vie et que leurs dernières années sont souvent marquées par la maladie – ce fut le cas pour François comme avant lui pour Jean-Paul II, Benoît XVI ayant préféré abdiquer –, quel bilan peut-on dresser des douze années qu’il a passées à la tête de l’Église catholique ?
L’Argentin Jorge Mario Bergoglio, élu en 2013 à 76 ans, après la renonciation de son prédécesseur, avait déjà appartenu à la courte liste des possibles papes lors de la désignation de Benoît XVI en 2005. Après le Polonais Jean-Paul II et l’Allemand Benoît XVI, qui tous deux appartenaient plutôt au courant intransigeant, François présente un autre visage de l’Église. Certains ne furent pas insensibles à cette nouvelle incarnation comme le démontre le film que lui consacre Wim Wenders en 2018, Le Pape François, un homme de parole. Le successeur de Pierre a acquis une indéniable autorité morale fondée sur un réel charisme.
Dans un pouvoir aussi personnalisé, l’image du pape joue un rôle important. Le choix de son nom est déjà un programme. Peu après son élection, le 16 mars 2013, il explique aux journalistes : « J’ai immédiatement pensé au Poverello. J’ai pensé aux guerres, j’ai pensé à François, l’homme de la paix, celui qui aimait et protégeait la nature, l’homme pauvre. »
La paix, la pauvreté et la nature nourrissent l’imaginaire de réception du nouveau pontife en l’associant à François d’Assise. Le XXe siècle adore le fondateur du franciscanisme. Jean-Paul II a fait de lui le saint de l’écologie en 1979 et promu Assise comme lieu de rencontres interreligieuses.
Enfant d’immigrés italiens en Argentine, né le 17 décembre 1936, Jorge Mario Bergoglio fait des études de chimie avant d’entrer au séminaire puis au noviciat de la Compagnie de Jésus. Ordonné prêtre en 1969, il fait sa profession solennelle en 1973. Il est nommé provincial des jésuites d’Argentine, fonction qu’il occupe jusqu’en 1980.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Lors de la dictature militaire (1976-1983), certains témoignent d’actions de sauvetage de persécutés de sa part, mais d’autres lui reprochent son silence alors que l’Église d’Argentine soutient largement le pouvoir et ne condamne pas ses pratiques de torture et d’assassinat. En 2000, Bergoglio reconnaît le rôle de soutien à la dictature de l’Église d’Argentine.
Évêque auxiliaire en 1992 puis archevêque de Buenos Aires en 1998, cardinal en 2001 et président de la Conférence épiscopale argentine de 2005 à 2011, certains traits du personnage percent déjà dans l’exigence d’une existence modeste, à l’exemple de sa décision de ne pas loger à l’archevêché mais dans un petit appartement, du choix de son véhicule, et de sa forte pratique de la confession, qui crée une réelle proximité avec les fidèles.
Devenu pape, François ne mobilise pas les ors et dorures du pouvoir papal dès sa première apparition au balcon de la place Saint-Pierre. Il choisit de loger dans la résidence Sainte-Marthe plutôt que dans les appartements papaux, illustration d’une humilité qui est un des traits de son magistère, couplée à une proximité avec les fidèles qui participe d’un indéniable charisme.
Ses positionnements l’associent au catholicisme « social », anticommuniste et antilibéral qu’illustre sa condamnation de « l’idole de l’argent », sa promotion de la charité et, en corollaire, de la pauvreté, ainsi que l’importance accordée à la question sociale.
Le fondateur Ignace de Loyola (1491-1556) a défini le jésuite comme un homme de grande culture humaine et théologique dont le but est d’être apôtre. Au XXe siècle, la Compagnie ne se projette plus de l’Europe vers le monde, d’où provient maintenant le plus grand nombre de jésuites. En 1957, la Compagnie compte 34 000 jésuites. Presque le quart est américain. En 2022, le nombre de jésuites était tombé à quelque 15 000, dont un tiers aux Amériques. Cette réelle internationalisation se concrétise dans l’élection de l’Argentin François, premier pape jésuite de l’histoire en 2013.
Libération titre, le 14 mars 2013, « Du Nouveau Monde au balcon ». En effet, bien qu’enfant d’immigrés italiens, l’élu argentin est le premier pape venant des Amériques et aussi le premier jésuite à accéder au poste suprême.
Plusieurs textes adoptés – dont, en 2013, Lumière de la foi (Lumen Fidei), en 2015 Loué soit le Seigneur (Laudato Si) et en 2020 Tous Frères (Fratelli tutti) – illustrent l’activité abondante de mise à jour de l’Église à laquelle se livre François. Certains s’inscrivent dans la lignée d’engagements antérieurs en les approfondissant, par exemple l’attention à la nature ; d’autres sont plus novateurs et reflètent particulièrement la vision de Jorge Bergoglio. Un bel exemple est la conception qu’il promeut du rôle des artistes et des écrivains.
En 1964, Paul VI leur demande de « rendre accessible et compréhensible, voire émouvant, le monde de l’esprit, de l’invisible, de l’ineffable, de Dieu » alors que l’intransigeant Jean-Paul II, dans sa Lettre aux artistes en 1999, exige qu’ils christianisent leurs œuvres. Or François, dans la Lettre du pape sur le rôle de la littérature dans la formation (17 juillet 2024), inverse le rapport. Les arts sont un moyen d’accéder à Dieu, de donner corps à l’incarnation :
« Grâce au discernement évangélique de la culture, il est possible de reconnaître la présence de l’Esprit dans la réalité humaine diversifiée, c’est-à-dire de saisir la semence déjà enfouie de la présence de l’Esprit dans les événements, dans les sensibilités, dans les désirs, dans les tensions profondes des cœurs et des contextes sociaux, culturels et spirituels. »
Selon lui, les œuvres éclairent le croyant :
« La représentation symbolique du bien et du mal, du vrai et du faux […] ne neutralise pas le jugement moral mais l’empêche de devenir aveugle ou de condamner superficiellement. »
François modifie l’approche des débats qui parcourent l’Église – une autre façon de faire, jésuite diraient certains critiques –, sans nécessairement modifier les dogmes. Pour François, rappeler le message des Évangiles ne suffit pas, il faut l’incarner. Ce nouveau pape change l’air du temps, chose bien éphémère, mais qui n’est pas sans effets sur le sacerdoce en Amazonie, notamment sur l’accès aux sacrements des divorcés-remariés.
Pour lui, l’Église doit être une mère qui accueille tous ses enfants dans la « joie de l’amour » (Amoris Laetitia, 2016). Il le rappelle dans une lettre du 8 mai 2022 à un jésuite qui se consacre aux homosexuels. Il y développe une proposition de modification de la gouvernance de l’institution, affirmant que « tous les débats doctrinaux, moraux ou pastoraux ne devraient pas être tranchés par des interventions magistérielles » – ce qui, dans une institution aussi centrifuge que la papauté, est révolutionnaire. La formule qu’il utilise aux Journées mondiales de la Jeunesse de Lisbonne, « Todos, todos, todos », l’incarne. Ce que modifie François est bien la position d’autorité.
À lire aussi : Portugal, Philippines, France : comment les JMJ éclairent les différentes pratiques de la laïcité
L’accueil prime sur la condamnation qu’illustre la politique de synodalité (2024), conçue comme un « marcher ensemble », pour modifier la gouvernance. L’Église ne fournit plus nécessairement des réponses tombées d’en haut. En octobre 2023, le dicastère pour la Doctrine de la Foi affirme que l’accès aux sacrements des divorcés-remariés peut se faire avec discernement (il est jésuite), car tout baptisé doit recevoir l’aide de l’Église, mais la valeur sacramentelle du mariage n’est pas remise en cause.
Si la réforme de la Curie n’est pas achevée, des éléments ont été accomplis. François nomme des femmes à la tête de certains ministères. Il a su tenir compte de l’équilibre des forces au sein du Vatican et de ce petit monde de clercs qui gouverne, plus ou moins, le vaste monde des fidèles mondialisés.
Ces changements heurtent une partie des fidèles. Le pape est confronté dès le départ à une vigoureuse opposition des courants les plus intransigeants et conservateurs : on a parlé de « Françoisphobie ».
Son règne illustre également des continuités : le pape est devenu mobile depuis Paul VI et le fameux voyage à Jérusalem en 1964 et surtout avec Jean-Paul II (104 voyages dans 127 pays alors que Benoît XVI n’en réalise que 25). François, avec le matériel adéquat au fur et à mesure de son vieillissement, a aussi multiplié les déplacements dans le monde entier.
Sur le plan des questions éthico-sexuelles, la continuité l’emporte. François est plus conservateur que vraiment novateur, défavorable au mariage homosexuel et au mariage des prêtres, et sous sa férule le Vatican s’oppose à ce qu’il appelle « l’idéologie du genre ». Défavorables à tout libéralisme sociétal, le pape, le Vatican et une bonne partie des fidèles restent attachés à la famille traditionnelle et rejettent tout ce qu’ils considèrent comme des menaces contre « l’ordre naturel » et la « vie » (IVG, euthanasie…).
Si officiellement l’Église est neutre et si le Vatican réaffirme depuis longtemps son aspiration à des paix justes et durables, le pape a eu parfois des interventions hasardeuses. Ainsi en mars 2024, quand il appelle à arrêter les combats en Ukraine, il ne condamne pas l’invasion russe, et rejette l’idée d’une guerre juste.
Dans le même temps, François poursuit le dialogue interreligieux dans la lignée d’Assise proposée par Jean-Paul II. Il rappelle l’Occident à ses devoirs sur la défense de la paix, le soutien aux pauvres et aux migrants. Il énonce des normes, et les fidèles comme les populations attendent cela des papes, sans toujours les suivre. Les fidèles pensent ainsi largement que leur sexualité ne concerne pas l’Église.
Sa relation à la France est complexe. François est un lecteur et un promoteur de Pascal et de François de Sales, de Bernanos et de Joseph Malègue. Mais ses voyages en France sont en périphérie (Strasbourg, Marseille, La Corse). En 2024, son absence à la réouverture de la cathédrale Notre-Dame de Paris surprend. La vieille Europe nourrit-elle encore, à part financièrement, la vie de l’Église ?
Au final, ce pape apparaît plus conformiste que l’on ne le croit et plus traditionnel qu’on le présente souvent. Il fut néanmoins novateur en prenant et en proposant pour modèle l’imitation du Christ pour réaffirmer un humanisme. Il aspirait à modifier la gouvernance du Vatican ; le processus est inachevé. Mais son autre façon d’être et de faire a donné un air neuf à la papauté après la sévérité de Benoît XVI. Ses réalisations ne sont pas négligeables. Des évolutions sont perceptibles, sauf quand on s’approche de l’autel (sacrements, rites, dogmes…). François n’a pas entraîné l’Église dans la Réforme.
Frédéric Gugelot ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
21.04.2025 à 19:40
Corinne Grenier, Professeur d’innovation, stratégie et gouvernance des réseaux, Kedge Business School
Angélique Chassy, Docteure en Sciences Economiques - EM-Normandie - Business School - Enseignante-Chercheure, EM Normandie
Jérôme Béranger, Chercheur à l’Inserm - Université de Toulouse et expert de l’éthique du numérique, Inserm
À l’image des chatbots, les nouveaux outils numériques en santé modifient la prise en charge des patients. Leurs promoteurs vantent l’aide qu’ils apportent au médecin qui se consacre davantage à la consultation. Pour garantir un usage éthique, l’humain doit demeurer l’agent central dans l’exercice de la médecine digitale.
Progressivement, les outils numériques dédiés à la santé se sont imposés dans notre vie quotidienne. Les lois de 2018 et 2019 ont intégré la télémédecine dans le cadre légal pour favoriser l’innovation et améliorer l’accès aux soins.
La crise sanitaire du Covid-19, durant laquelle les Français se sont familiarisés avec les outils numériques en santé, a marqué une nouvelle étape. Aujourd’hui, le plan « Ma Santé 2022 » réaffirme le rôle clé qu’ils entendent jouer dans la réduction des inégalités d’accès aux soins.
Et si on en croit l’édition 2024 de l’Observatoire du numérique en santé d’Harris Interactive, 78 % des Français jugent positivement le développement des technologies numériques dans le domaine de la santé.
L’enquête Harris Interactive fait toutefois la distinction entre différents profils selon les facilités ou, à l’inverse, les difficultés rencontrées par les usagers à se familiariser aux différents outils du numérique.
Ainsi, 16 % de la population serait classée parmi les « vulnérables numériques », parce qu’elle maîtrise mal les outils du numérique. Ce profil serait plus féminin, plus âgé et plus rural que la moyenne.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
En revanche, 28 % des Français seraient des « experts du numérique ». Très à l’aise avec les outils technologiques qu’il utilise au quotidien, ce groupe serait plus masculin, plus jeune, plus aisé et plus urbain que la moyenne.
Mais quand on évoque ces nouveaux outils numériques qui s’imposent désormais dans le domaine de la médecine, à quoi fait-on précisément allusion ? En 2022, dans un numéro spécial de son Bulletin consacré à cette thématique, le Conseil national de l’Ordre des médecins avait dressé une liste exhaustive des principaux usages numériques en médecine.
Certains outils dits de télémédecine aident les soignants dans leur exercice professionnel, notamment en sollicitant leurs pairs. Le patient en bénéficie indirectement puisque cela impacte sa prise en charge (en termes de diagnostic, de traitements, de suivi en ville ou à l’hôpital…). C’est le cas notamment de :
la télé-expertise, qui permet à un médecin généraliste de faire appel à distance à un spécialiste doté d’une expertise spécifique (pour l’interprétation d’un cliché, la surveillance d’un cancer, etc.)
la téléassistance médicale, qui correspond à une coopération entre professionnels de santé, et au cours de laquelle un professionnel médical assiste à distance un autre professionnel de santé (pour soigner une plaie complexe, réaliser des soins d’urgence dans un Ehpad, etc.)
Certains outils digitaux entrés dans le quotidien des Français interviennent directement dans la relation soignant-soigné (ou médecin-patient). On citera pour exemple :
la téléconsultation, qui permet à un professionnel de santé de donner une consultation à distance à un patient, si la situation de santé de ce dernier le permet (le cas échéant, le patient peut être assisté sur place par un professionnel de santé)
la télésurveillance médicale, qui permet au patient de transmettre à distance ses données de santé à l’équipe médicale qui le suit afin que cette dernière les interprète
la e-prescription ou prescription électronique, qui correspond à un circuit de l’ordonnance dématérialisé
les agents conversationnels appelés chatbots
Un « chatbot » (« chat » pour « discussion en ligne » et « bot » pour « robot ») est un programme informatique (agent conversationnel incluant de l’intelligence artificielle générative, IA). Il se présente sous la forme d’une appli (application) conçue pour simuler et gérer des conversations humaines écrites ou orales. Il permet aux patients d’interagir avec des interfaces numériques comme s’ils échangeaient avec une personne humaine réelle.
Les premiers chatbots en santé ont été principalement développés pour affiner les pré-diagnostics médicaux, à l’image du programme Watson créé par IBM en 2007, capable de comprendre le langage humain, d’analyser des données et de formuler des réponses en ligne. Il s’est notamment illustré au Japon en identifiant une forme rare de leucémie.
Depuis, leur présence sur le marché connaît une croissance importante, portée par les innovations dans l’IA, et désormais dans l’IA générative, avec par exemple Sophie le robot-avatar, un robot humanoïde conçu pour interagir avec les patients à domicile ou encore Ada Health, une application mobile d’auto-diagnostic médical basée sur l’intelligence artificielle, voire même des systèmes robotiques assistés pour les interventions chirurgicales.
On assiste à un véritable foisonnement de nouvelles applications et usages qui transforment la pratique médicale et donnent naissance à la médecine assistée par l’IA ou médecine de précision à l’exemple de Mako de Stryker.
À lire aussi : IA et dispositifs d’aide à la décision médicale : quels retours des usages ?
Essentiellement centrés sur le pré-diagnostic, ou le suivi thérapeutique les bénéfices attendus par ceux qui font la promotion des chatbots sont nombreux. Pour les professionnels de santé, les échanges qui se créent en amont d’une consultation – dans les situations où le patient interroge le chatbot sur son état de santé et que celui-ci, en retour, peut lui recommander une démarche adaptée après analyse de ses réponses – déplacent le « Temps Médical Utile » vers la consultation.
De plus, le pré-diagnostic virtuel réalisé par un Chatbot Santé propose une interface conviviale qui peut faciliter une prise en charge plus rapide. Désormais, beaucoup de catégories de patients ou de situations pathologiques sont visées. Par exemple, le marché se développe en direction des personnes âgées.
Le Dr Antoine Poignant, médecin juge, pour sa part, que :
« les objets connectés permettent de déplacer des données plutôt que les patients, et pour les personnes âgées, ce n’est pas négligeable. Leur domicile devient leur lieu de soins. »
Une partie de l’explication de l’efficacité des agents conversationnels réside dans la structure même du langage. Les modèles de langage de l’IA Générative de type LLM (Large Language Model), entraînés sur de très vastes corpus de textes, peuvent simuler ces réseaux relationnels. Ils peuvent comprendre et générer du langage en fonction de contextes complexes.
Les relations patients-professionnels sont potentiellement transformées par ces outils d’assistance digitale à la pratique de la médecine, et cela dans trois directions majeures, selon Anthéa Serafin.
D’abord, ces outils entraînent une redéfinition des rôles de patient et de médecin. Les outils de santé numérique renforcent l’autonomie des patients, leur responsabilisation dans la relation de soins, et ils pourraient faciliter une meilleure observance thérapeutique, qui est un enjeu considérable face à la montée des maladies chroniques.
De plus, ils aident les professionnels à coordonner plus facilement les parcours de soins, comme cela a par exemple été montré dans le cas du patient atteint d’un cancer. Enfin, ils favorisent la détection plus précoce de maladies, par exemple dans le cas de l’autisme ou d’addictions.
Il est primordial que les outils digitaux en santé qui s’appuient sur l’intelligence artificielle restent des outils d’assistance et non des décideurs autonomes. L’humain doit demeurer l’agent central dans l’exercice de la médecine digitale, en conservant la maîtrise et l’initiative des décisions médicales. Les résultats produits par les systèmes d’IA doivent être soumis à une supervision humaine et une validation finale par un professionnel de santé, qui en reste responsable.
Quelques questions sont cruciales : jusqu’où laisser aux algorithmes et à ceux qui les conçoivent la maîtrise des décisions médicales ? Comment garantir la confidentialité de nos vies privées ? Autant d’enjeux dont se saisissent les professionnels de santé, les associations de patients, notamment dans les Espaces de Réflexion Ethique Régionaux (ERER).
Nous suggérons quelques points d’alerte pour garantir un usage éthique et sécurisé de la digitale-thérapie :
Mettre en place un encadrement adapté aux usages de l’IA en santé, définissant des règles et des bonnes pratiques
Assurer la transparence de l’IA envers ses utilisateurs, pour permettre aux professionnels de santé et aux patients de comprendre les processus et les données qui influencent les résultats générés par l’IA
Clarifier la responsabilité des différents acteurs impliqués dans la conception et l’utilisation de l’IA
Garantir une protection de la vie privée et une confidentialité des données la plus forte possible
Lutter contre l’illectronisme (ou fracture numérique) qui représente un risque d’exclusion sociale particulièrement inquiétant.
Alors que ces développements sont à la fois très récents et très nombreux, la formation des professionnels de santé aux usages des chatbots, comme à l’ensemble des outils du numérique en santé, doit être considéré comme un impératif.
Cet article a été coécrit par Corinne Grenier, Angélique Chassy, Jérôme Béranger et Antoine Poignant.
Jérôme Béranger est expert IA & Ethique pour l’Institut EuropIA.
Angélique Chassy et Corinne Grenier ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
21.04.2025 à 19:38
Max Barahona, Professeur de gestion et communication interculturelles, et de commerce et de marketing internationaux, Montpellier Business School
De même que l’Amérique latine, l’Europe a été, des décennies durant, fascinée par les États-Unis, lesquels ont joué sur les deux continents un rôle majeur sur les plans stratégique, économique, politique et culturel. Le tournant pris par l’administration Trump annonce peut-être la fin de cette ère.
Si vous êtes né entre les années 1970 et 1980 en Amérique latine ou en Europe, il y a de fortes chances que la musique états-unienne ait constitué la bande-son de vos années de formation, avec ses tubes diffusés en boucle sur les radios locales, et que vous ayez mémorisé de nombreuses répliques emblématiques de classiques hollywoodiens. Pour le meilleur ou pour le pire, la culture américaine reste omniprésente aujourd’hui, rythmant la vie de tous les jours, dictant les garde-robes et les rêves de milliards de personnes… Toutefois, cette omniprésence alimente souvent ressentiment et méfiance.
Avec le retour de Donald Trump, l’Europe éprouve, plus encore qu’hier, un mélange ambigu d’admiration et de méfiance envers Washington. Cette ambivalence, l’Amérique latine - où l’on a longtemps dansé au son du rock venu du nord du continent tout en vivant dans l’ombre oppressante de dictatures bénéficiant du soutien parfois explicite de Washington - la connaît intimement depuis des décennies. Les Européens se sentent à la fois charmés et révulsés par la culture et la politique des États-Unis, séduits par leur dynamisme et leur esprit d’innovation, tout en redoutant leurs ambitions géopolitiques et en étant souvent abasourdis par leurs débats internes.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Ces sentiments paradoxaux culminent dans la période charnière actuelle, où le Vieux Continent semble s’apprêter à prendre pour de bon ses distances avec « l’Oncle Sam »
L’imposition par l’administration Trump de droits de douane sur les produits européens et les menaces de nouvelles guerres commerciales ont déstabilisé les économies du continent, incitant les nations européennes à reconsidérer leur dépendance au marché des États-Unis et à explorer d’autres partenariats.
Parallèlement, l’unité de l’Otan, autrefois pierre angulaire des relations transatlantiques, a été mise à rude épreuve par l’imprévisibilité de l’administration Trump et la possibilité que, en cas d’attaque contre l’un des membres de l’Alliance, les États-Unis puissent ne pas respecter les engagements de l’article 5, ce qui pousse actuellement l’Europe vers la mise en œuvre d’une plus grande autonomie de défense.
La souveraineté numérique est également devenue un sujet de controverse, avec des différences marquées entre les lois européennes strictes en matière de protection des données et l’approche plus laxiste des États-Unis, créant des tensions sur la fiscalité et la réglementation du numérique. Par conséquent, l’Europe s’efforce de réduire sa dépendance aux géants technologiques américains, en favorisant l’innovation locale et en affirmant une plus grande indépendance technologique.
À lire aussi : L’Europe peut-elle faire émerger des champions du numérique ?
L’incertitude qui règne dans les relations entre les États-Unis et l’UE est manifeste dans des analyses récentes. Un rapport du Centre d’études stratégiques et internationales (CSIS) note que « le Washington de Trump a le sentiment que l’Europe compte moins dans le monde et que, pourtant, l’Europe profite de la garantie de sécurité américaine pour ignorer ses responsabilités en matière de défense, tout en ciblant les entreprises américaines avec des réglementations contraignantes ».
L’expérience de l’Amérique latine constitue un avertissement opportun pour l’Europe, illustrant clairement les risques d’une acceptation aveugle de l’influence états-unienne, spécialement quand cette acceptation ne tient pas compte les coûts géopolitiques qui accompagnent inévitablement l’attrait culturel. Ce sentiment est repris dans une analyse récente du Parlement européen, qui indique qu’au cours des 65 dernières années, alors que les interactions transatlantiques officielles n’ont cessé de s’intensifier et de s’approfondir, les États-Unis n’ont reconnu que tardivement et avec une réticence notable l’influence croissante de l’UE.
La vaste expérience de l’Amérique latine en matière de dépendance économique vis-à-vis de Washington, d’interventions stratégiques des États-Unis et de conflits d’intérêts entre responsables continentaux et entreprises états-uniennes fournit des éclairages cruciaux, soulignant à quel point un engagement prudent est préférable à un alignement aveugle. Les relations actuelles de l’Europe avec les États-Unis exigent précisément ce type d’approche prudente et réfléchie, reconnaissant l’attrait de ces relations tout en restant pleinement conscient des risques géopolitiques inhérents.
En témoigne un récent rapport de la Banque d’Espagne qui note que les tensions géopolitiques et commerciales avec les États-Unis représentent un facteur de risque majeur pour l’économie latino-américaine.
La période actuelle, marquée par un découplage croissant entre l’UE et les États-Unis, constitue un tournant critique. Deux issues apparaissent possibles : le continent pourrait enfin parvenir à une unité significative en adoptant une véritable autonomie stratégique et une collaboration interne renforcée ; ou bien il pourrait, au contraire, retomber dans sa fragmentation habituelle et son insignifiance politique.
À lire aussi : L’Europe à l’heure du retour des logiques de puissance décomplexées : le temps du sursaut stratégique ?
L’histoire nous le rappelle brutalement : des décennies de lutte pour l’instauration de la monnaie unique européenne et des divisions internes persistantes révélées lors de la crise de la dette de la zone euro, aux récents désaccords sur les politiques migratoires et aux réponses inégales à la pandémie de Covid-19, le chemin de l’intégration européenne n’a jamais été facile ni assuré.
De graves vulnérabilités affectent des secteurs clés vitaux pour l’avenir de l’Europe - sans le soutien assuré des États-Unis -, tels que les technologies de pointe, les semi-conducteurs, l’intelligence artificielle et les infrastructures critiques. La dépendance persistante de l’Europe à l’égard des chaînes d’approvisionnement états-uniennes et, de plus en plus, chinoises est porteuse de risques non seulement économiques, mais aussi stratégiques.
Les récentes perturbations de l’approvisionnement en semi-conducteurs et le retard de l’Europe en matière d’innovation en IA illustrent l’ampleur de la tâche consistant à parvenir à la souveraineté technologique. Une véritable indépendance dans ces domaines exige une volonté politique sans précédent, des investissements économiques importants, une profonde transformation structurelle et, surtout, un changement culturel et institutionnel.
L’effondrement de la mondialisation signale de profonds bouleversements géopolitiques que l’Europe ne peut se permettre de sous-estimer. J’ai souligné ailleurs la façon dont ces reconfigurations stratégiques perturbent profondément l’intégration économique et les flux technologiques établis, et à quel point la vague populiste mondiale met en lumière les griefs socio-économiques et les divisions culturelles qui alimentent l’instabilité politique mondiale – des dynamiques que l’Europe doit gérer avec prudence pour éviter des divisions internes et des vulnérabilités externes similaires.
Au cœur du projet d’intégration européenne se trouve un choix existentiel, trop longtemps différé. L’Europe doit finalement décider de ce qu’elle est fondamentalement : un partenariat économique axé principalement sur le commerce, les marchés et la croissance économique ; ou une véritable union politique et morale fondée sur des valeurs partagées, les droits humains, l’universalisme et une vision civilisationnelle commune.
La crise provoquée par l’administration Trump 2.0 a révélé de manière flagrante la diversité et, souvent, les divergences de conception de ce que devrait être l’Europe. Les réactions variées des dirigeants et des sociétés européennes - l’adhésion enthousiaste de certains dirigeants européens aux politiques nationalistes de Trump, contrastant fortement avec le scepticisme et l’inquiétude des autres - mettent en évidence ces divisions sous-jacentes.
Cette tension entre intégration renforcée et souveraineté nationale est un thème récurrent de la politique européenne, le Brexit en étant la manifestation la plus spectaculaire à ce jour.
L’avenir de l’Europe repose sur la compréhension et la gestion de la montée simultanée de la fragmentation géopolitique, de la progression du populisme, des dépendances technologiques et de l’érosion des alliances traditionnelles. Face à ces défis, le continent doit saisir cette opportunité cruciale d’adopter une véritable solidarité, sous peine de perdre sa pertinence. Dépasser une logique purement économique ou opportuniste pour construire une Union européenne fondée sur des valeurs politiques, morales et civilisationnelles communes. Cela implique une solidarité plus structurelle que conjoncturelle, où les États membres choisissent délibérément de s’unir face aux crises, qu’elles soient géopolitiques, technologiques, sociales ou démocratiques. Ça passe ou ça casse !
Max Barahona ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
21.04.2025 à 19:38
Benjamin Blandin, Doctorant en relations internationales, Institut catholique de Paris (ICP)
L’arrivée à la Maison Blanche de Donald Trump est source d’inquiétude pour Taïwan. Le président des États-Unis semble nettement moins préoccupé que ses prédécesseurs par le sort de l’île, ce dont a bien conscience la République populaire de Chine, qui multiplie les opérations d’intimidation et les rappels de sa détermination à reprendre le contrôle de ce territoire.
À l’initiative de Pékin, les incidents se multiplient entre les deux rives du détroit de Taïwan. Les États-Unis, sous la présidence de Donald Trump, semblent se détourner de Taipei, après plusieurs décennies de ferme soutien.
La posture actuelle de Washington semble s’inscrire dans le désengagement global engagé par l’administration républicaine, ce dont témoigne la récente promulgation (temporairement suspendue depuis) de droits de douane prohibitifs à l’encontre non seulement de leurs adversaires traditionnels mais aussi, voire surtout, de leurs partenaires et alliés, aussi bien sur le continent américain qu’en Europe et en Asie.
Dans ce contexte, Pékin multiplie les infractions à la ligne médiane dans le détroit et à la zone d’identification aérienne de Taïwan, à travers l’envoi de ballons et d’aéronefs de l’armée de l’air chinoise. On observe également des infractions sur le pourtour des îles taïwanaises de Kinmen, située au large de la ville chinoise de Xiamen, et le sabotage de câbles sous-marins entre la pointe nord de l’île principale et l’archipel des îles Matsu.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Les intentions des autorités chinoises sont claires : il s’agit de passer à la phase concrète du « réglement du problème taïwanais ». En témoignent les photos et prises de vue satellite qui attestent la multiplication des exercices de débarquement des forces armées de la RPC impliquant l’usage de barges de grande taille.
Au cours des dernières années, plusieurs scénarios ont été élaborés pour anticiper la façon dont Pékin pourrait s’y prendre afin de forcer une réintégration de Taïwan.
Le premier, issu des exercices de « wargaming » menés par Le Pentagone, comprend une attaque de vive force contre Taïwan, une opération d’envergure qui pourrait durer de quelques semaines à plusieurs mois, avec de lourdes pertes pour Pékin.
Le deuxième, élaboré par le think tank américain CSIS ChinaPower, annonce l’adoption par la RPC d’une approche coercitive, consistant à imposer une zone de quarantaine, ou plus simplement un blocus économique progressif de l’île, voire la mise en place d’un champ de mines tout autour de Taïwan afin de diminuer voire d’empêcher tout transport de marchandises par voie de mer, cette pression devant finir par faire plier les autorités taïwanaises ou de provoquer des révoltes populaires dans l’île.
Le troisième scénario, imaginé par l’auteur du présent article, entrevoit une prise de contrôle progressive, non létale et séquencée des territoires contrôlés par Taïwan : d’abord les îles les plus proches du continent (Kinmen, Wuqiu, Matsu), puis les deux îles de la mer de Chine méridionale (Pratas et Itu Aba), et enfin les îles Pescadores, le tout par l’emploi de blocus successifs destinés à obtenir la reddition de chacune de ces îles une fois qu’elles seront à court de nourriture, d’eau et de carburant. Un tel développement priverait progressivement Taïwan de ces capteurs avancés, tout en infligeant camouflet sur camouflet aux autorités militaires et politiques de Taipei, sans aller, à ce stade, jusqu’à une invasion de l’île principale.
Pas vraiment. Donald Trump critique publiquement Taipei pour sa « dominance » dans le secteur des puces électroniques, alors qu’il convient de rappeler que leur fabrication ne représente qu’une des nombreuses dimensions de la chaîne de valeur, et que sur un certain nombre d’autres éléments, ce sont les États-Unis qui sont largement en position dominante.
La récente décision de l’entreprise taïwanaise TSMC d’investir 100 milliards de dollars de plus aux États-Unis porte le total de ses investissements à 165 milliards de dollars dans le pays, une somme tout sauf anecdotique. Cet investissement peut se voir comme le pendant civil des commandes d’équipements militaires massives passées par Taïwan depuis l’adoption du Taïwan Relations Act en 1979, au profit premier de l’industrie de défense des États-Unis — une fidélité peu récompensée au regard du retard systématique mis par Washington à honorer ces commandes, souvent livrées avec plusieurs années de retard.
Au total, Taïwan a passé des commandes pour un montant de 93 milliards de dollars en 2022 (soit 182 milliards en prenant en compte l’inflation), dont 22 milliards sont toujours en attente de livraison. Entre autres matériels, les livraisons de chasseurs F-16 et de missiles ont été retardées à de nombreuses reprises et sont aujourd’hui en retard de plusieurs années sur le calendrier initial.
Les États-Unis se sont pourtant engagés à de nombreuses reprises aux côtés de Taipei lors des crises du détroit de Taïwan, que ce soit en 1954-1955, en 1958 ou en 1995. Même après le départ des forces américaines en 1974 et la reconnaissance par Washington de la Chine communiste en 1979, le Taïwan Relation Act a cimenté la relation pour les décennies qui ont suivi et ce soutien a été renouvelé, médiatiquement politiquement, économiquement et militairement, de nombreuses manières.
Pour autant, force est de constater que la politique de pivot vers l’Asie initiée par Barack Obama, après un long focus sur le Moyen-Orient, n’a pas permis de réinvestissement stratégique notable en faveur de Taïwan — tout juste, bien qu’à la marge, en faveur des Philippines —, tandis que le nombre de soldats positionnés au Japon, en Corée du Sud et à Guam n’a cessé de baisser. Et la quatrième crise du détroit de Taïwan, en 2022, n’a donné lieu à aucune réaction américaine suite à la démonstration de force chinoise.
À lire aussi : Taïwan : la stratégie indo-pacifique des États-Unis à l’épreuve
Ce relatif sentiment d’abandon a pu s’amplifier à partir de l’élection de Donald Trump qui, outre sa posture souvent qualifiée de pro-russe sur le dossier ukrainien et sa promulgation de droits de douane très élevés à l’encontre de nombreux alliés (Taïwan n’est à cet égard pas épargné), a prétendu ne pas connaître la signification de l’acronyme « AUKUS ». Or ce programme emblématique initié sous la présidence Biden, qui vise à doter l’Australie d’une flotte de sous-marins à propulsion nucléaire afin de renforcer ses capacités dans le contexte de la confrontation des puissances occidentales avec la Chine en Indo-Pacifique, a un intérêt clair aux yeux de Taïwan.
Tout cela, assurément, ne participe pas à la tranquillité d’esprit des élites politiques et militaires de Taipei. Pour autant, la situation actuelle, aussi troublante soit-elle, ne doit pas faire oublier que Taïwan est en train de développer sa propre base industrielle et technologique de défense, avec des succès importants dans le domaine des sous-marins, des navires de surface, des drones et des munitions, y compris des missiles hypervéloces.
On l’a vu, la Chine fait feu de tout bois pour intimider Taïwan et obtenir sa réintégration par tous les moyens. La dimension militaire n’est pas écartée mais semble n’être sérieusement envisagée qu’en dernier recours, la RPC étant bien consciente des dégâts potentiellement catastrophiques qu’entraînerait pour elle l’échec d’une invasion, et aussi du gigantesque prix humain et économique qu’elle devrait payer pour s’emparer de l’île par la force.
Pour mener à bien son objectif sans recourir à la violence, la Chine emploie donc les trois méthodes suivantes : le déni d’accès, la guerre hybride et les techniques de la zone grise :
La première méthode, potentiellement létale, vise à déployer et à maintenir autour de Taïwan une zone d’interdiction maritime et aérienne ou à minima la capacité de le faire. À cette fin, les forces armées chinoises ont intensifié leur dispositif de radars et de missiles anti-navires et anti-aériens, agrandi et amélioré les bases aériennes le long de la côte, et développé le nombre et la qualité de leurs navires et aéronefs. La marine et l’armée de l’air procèdent par ailleurs au déploiement sans cesse plus régulier et massif de navires et d’aéronefs (y compris des ballons) au sein des eaux et de l’espace aérien taïwanais et conduisent des exercices militaires de façon plus fréquente.
La seconde comprend des moyens administratifs, de propagande et légaux, visant d’une part à contester la ligne médiane dans le détroit, en mer comme dans les airs (par l’établissement et la modification unilatérale de plans de vol pour l’aviation civile au-dessus du détroit), d’autre part à renforcer les liens entre les deux rives du détroit, notamment dans la conduite des affaires et en facilitant l’obtention de quasi-cartes d’identité de la RPC pour les citoyens taïwanais. Les autorités chinoises mènent également une intense guerre de l’information, tant à destination de la population taïwanaise que chinoise.
La troisième comprend le sabotage de câbles sous-marins, les manœuvres navales et aériennes dangereuses et la militarisation de la garde-côtes qui, équipée d’anciennes corvettes de la marine et de capacités de débarquement amphibie, a désormais le droit d’arrêter navires et équipages pour une durée pouvant atteindre 60 jours et de faire usage de la force létale suite au passage de deux lois spécifiques en 2021 et en 2024.
Et comme si Taïwan n’avait pas assez de problèmes à régler, certains pays proches n’agissent pas toujours dans son intérêt. Que ce soit les pays du Pacifique Sud, qui s’en détournent chaque année un peu plus en échange d’aides économiques à court terme de la Chine, ou certains pays d’Asie du Sud-Est, dont la Malaisie et Singapour, tous souhaitent publiquement une « réunification pacifique » de l’île à la Chine, reprenant en cela le vocabulaire officiel des autorités chinoises.
Par ailleurs, on a constaté ces dernières années une implication croissante d’influenceurs chinois basés d’un côté comme de l’autre du détroit de Taïwan, voire à l’international, en faveur du rattachement de Taïwan à la Chine. Encore récemment, une citoyenne chinoise résidant à Taïwan du nom de « Yaya » s’est fait connaître après avoir produit et diffusé de nombreux contenus ouvertement favorables à la réunification de Taïwan par la force et a vu son permis de séjour non renouvelé, ce qui ne l’a pas empêchée de venir protester le jour même de son départ contre son expulsion avec un groupe de soutien devant un bâtiment officiel à Taipei.
En majorité, la population taïwanaise ne soutient pas une position de statu quo et ne s’identifie pas à la Chine, mais il est certain qu’elle n’est pas prête à consentir aux sacrifices nécessaires pour se défendre seule.
De plus, les forces armées de Taïwan font face à quatre défis majeurs : le vieillissement de la population, la désaffection pour les carrières militaires, le vieillissement des plates-formes de combat et l’ultra-dépendance à la mer pour les importations et exportations du pays. Dans le même temps, les leçons de la guerre d’agression de la Russie contre l’Ukraine démontrent que de nouveaux matériels et de nouvelles stratégies existent et pourraient lui permettre de résister en cas d’agression.
Si l’on ne peut pas affirmer que l’île soit totalement lâchée par les États-Unis, ou abandonnée par ces voisins, il est indéniable que Taïwan fait face à des menaces chinoises de plus en plus inquiétantes. Dans ce contexte, une absence de soutien de la part de Washington, sur le plan médiatique comme politique, associée à une cessation de l’aide et/ou des livraisons d’armes, pourrait être perçue par les autorités politiques et militaires chinoises comme un aveu de faiblesse et un signal que le moment propice à une intervention est peut-être arrivé.
Benjamin Blandin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
21.04.2025 à 19:36
Ioannis Bournakis, Associate Professor in Economics, SKEMA Business School
La fiscalité des entreprises a un effet sur la stratégie de leurs dirigeants. Toutes les firmes ne sont pas touchées de la même façon et les plus fragiles doivent faire des efforts plus importants.
Imaginez des coureurs possédant des capacités diverses courant sur des tapis roulants. Le contrôleur du tapis, à intervalles fréquents, met la machine en mode « charge ++ », ce qui incline fortement le tapis. Les coureurs les plus performants restent rapides et parviennent à atteindre leurs objectifs, même s’ils ralentissent forcément un peu. Les coureurs moins en forme obtiennent des scores extrêmement bas et ressemblent à des athlètes non entraînés.
C’est exactement ce qui arrive avec les évolutions aveugles de la fiscalité des entreprises. Des taux d’imposition plus élevés sur les profits des entreprises sont contraignants pour toutes les firmes. Alors que les grandes entreprises peuvent absorber ces coûts plus facilement, les plus petites entreprises peinent. Elles sont souvent prises dans un cercle vicieux.
L’augmentation des impôts a plusieurs implications pour les entreprises, notamment.
un coût plus élevé du capital. Lorsque les entreprises sont confrontées à des taux d’imposition plus élevés sur les bénéfices générés par les investissements en capital, cela augmente essentiellement le coût du capital, ce qui décourage l’investissement dans de nouveaux actifs :
des bénéfices après impôts réduits,
une capacité limitée à financer des projets à haut risque tels que l’innovation et l’entrée sur de nouveaux marchés.
Les entreprises cherchant à investir dans la recherche et le développement (R&D) et l’expansion internationale ont besoin d’une force financière pour couvrir des coûts qui ne peuvent être récupérés ultérieurement, que l’investissement soit couronné de succès ou non. Ces coûts incluent l’installation de réseaux commerciaux sur les marchés étrangers, l’établissement de chaînes d’approvisionnement, l’adaptation des produits aux normes internationales, l’installation de laboratoires de recherche, et plus encore. Ces dépenses sont particulièrement difficiles et presque prohibitives pour les entreprises plus petites et moins productives.
La fiscalité des entreprises joue un rôle crucial dans la prise de décisions stratégiques, notamment celles liées à l’innovation (R&D) et aux exportations. Cependant, l’étude que nous avons menée a démontré que, parmi 7 819 entreprises manufacturières européennes en France, Allemagne, Hongrie, Italie, Espagne et Royaume-Uni sur la période 2001-2014, la fiscalité n’est pas une charge significative pour les entreprises hautement productives.
À lire aussi : Les impôts sur la fortune individuelle favorisent la distribution de dividendes
Une augmentation de 10 % de l’impôt payé par une entreprise en proportion de sa valeur ajoutée réduit, en moyenne, la probabilité d’investissement en R&D de 2,3 % et d’exportation de 1,4 %. Toutefois, cet effet reste très différencié selon les niveaux de productivité des entreprises. Pour les entreprises situées au bas de l’échelle de productivité, ces chiffres peuvent atteindre une baisse de 12,9 % des investissements en R&D et une diminution de 25,5 % des exportations.
Abonnez-vous dès aujourd’hui !
Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).
En revanche, les entreprises plus productives et rentables gèrent mieux une fiscalité plus élevée. Plus résilientes, ces entreprises peuvent absorber l’impact des impôts sans trop de difficultés, car elles peuvent développer leurs exportations vers des zones économiques spéciales ou des zones de transformation pour l’exportation où les taux d’imposition sont plus bas. En réalité, une fiscalité plus élevée peut même motiver certaines entreprises parmi les plus productives à s’étendre dans plusieurs pays, leur permettant ainsi de transférer légalement leurs bénéfices vers des juridictions où les taux d’imposition sont plus faibles.
Les décideurs politiques qui cherchent à favoriser la croissance économique doivent reconnaître que les changements fiscaux impactent de manière disproportionnée la R&D et les exportations, en particulier face à une concurrence mondiale croissante et à la stagnation de la productivité en Europe.
En conséquence, les réformes fiscales des entreprises ne devraient pas suivre une approche universelle, mais plutôt prendre en compte la diversité des entreprises afin de soutenir à la fois les petites entreprises nationales et les grandes entreprises compétitives à l’international.
Au moins quatre pistes méritent d’être retenues, avant d’envisager une réforme fiscale :
Les entreprises plus petites ou moins rentables paieraient moins d’impôts, leur permettant de libérer des ressources pour innover ou s’étendre à l’international, tandis que les entreprises plus grandes et plus établies contribueraient davantage en fonction de leur capacité. Cela créerait un environnement plus équitable, favorisant une plus grande participation à l’innovation et au commerce international, stimulant ainsi la productivité globale et la croissance économique à long terme.
De telles politiques créeraient un cercle vertueux où l’innovation alimente les exportations, et où les profits issus des exportations sont réinvestis dans l’innovation.
Il est tout aussi important de renforcer les partenariats public-privé (PPP), dans lesquels les gouvernements partagent les risques liés au financement de l’innovation et des exportations avec les institutions financières, incitant ainsi les banques à prêter davantage à ces entreprises à des conditions favorables.
La fiscalité des entreprises est un déterminant essentiel des décisions en matière de R&D et d’exportation. Une fiscalité élevée représente un défi plus important pour les entreprises plus petites et moins efficaces, qui manquent souvent de résilience financière pour investir dans la R&D ou s’étendre à l’international. En revanche, les entreprises plus grandes et plus rentables absorbent plus facilement ces coûts.
Pour soutenir les entreprises à tous les stades de développement, les politiques fiscales devraient être progressives, réduisant la charge pour les petites entreprises tout en garantissant que les grandes entreprises contribuent davantage.
Des politiques sectorielles spécifiques peuvent encourager les investissements dans des industries à forte croissance comme la technologie et la fabrication. En intégrant des incitations fiscales pour l’innovation et l’exportation, et en améliorant l’accès au financement, les gouvernements peuvent créer un cercle vertueux, où l’innovation stimule les exportations et inversement.
L’avenir reposera sur la mise en place d’un écosystème fiscal qui soutient les entreprises de toutes tailles, favorisant un environnement qui bénéficie non seulement aux entreprises leaders, mais aussi à celles qui luttent pour émerger.
Ioannis Bournakis ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
21.04.2025 à 19:35
Léo Charles, Maître de conférences spécialiste d'histoire économique, Université Rennes 2
Guillaume Vallet, Professeur des Universités, Université Grenoble Alpes (UGA)
Michel Rocca, Professeur d'économie politique, Université Grenoble Alpes (UGA)
À la fin du XIXe siècle, d’immenses fortunes se sont rapidement forgées aux États-Unis. Rockefeller, Morgan, Carnegie, Vandebilt… Autant de capitaines d’industrie dont les noms se confondent avec cette période qualifiée de « Gilded Age » (Âge doré) que Donald Trump se fait fort de ressusciter.
Lors de son investiture le 20 janvier 2025, Trump affirme le désir de recréer un « nouvel âge d’or américain ». Quelques jours plus tard, il précise cette référence inattendue à la période des années 1870-1890 nommée Gilded Age : « Les États-Unis étaient les plus riches de 1870 à 1913. C’est là que nous étions un pays avec des droits de douane. »
Les choix autocratiques et libertariens de Trump témoigneraient donc du désir d’un passé à ressusciter. Pourquoi cette fascination, Trump allant jusqu’à proclamer son admiration pour McKinley (1896-1900), président républicain symbole d’une politique tarifaire agressive ?
Pour l’ancien ministre du travail Robert Reich, les trois décennies de l’âge doré voient un essor économique inédit et resté unique. Le produit national états-unien est multiplié par six ; la croissance annuelle moyenne est d’environ 4 %, malgré des crises financières fortes et répétées. Dans les années 1890, la production industrielle des États-Unis dépasse ainsi celle du Royaume-Uni. En 1913, elle équivaut à celles du Royaume-Uni, de l’Allemagne et de la France réunis.
En exploitant les immenses ressources d’un territoire américain conquis, l’essor de l’industrie du chemin de fer et la sidérurgie sont très vite exponentiels. Le nombre de kilomètres de chemin de fer est multiplié par sept sur la période. Puis portée par des progrès technologiques, l’émergence de nouveaux secteurs comme les industries chimiques et mécaniques ainsi que l’électricité renforcent très vite une dynamique d’ensemble qui est alimentée par un afflux constant d’immigrants et l’apport de capitaux étrangers, le plus souvent britanniques.
Au-delà de ces chiffres enviables, ce fut surtout une période où, au cœur d’une économie protégée par des tarifs douaniers très élevés, les « Robber Barons » (barons voleurs) — Rockefeller, Carnegie, Morgan ou Westinghouse — se construisent de gigantesques monopoles.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Nommée « Gilded Age » en référence au roman satirique coécrit par Mark Twain de 1873, cette ère est celle d’un accroissement phénoménal des inégalités. En 1890, 10 % des Américains détiennent 90 % de la richesse nationale. Le Gilded Age voit s’affirmer d’un côté le pouvoir et le comportement ostentatoire de quelques dizaines de techno-entrepreneurs à la tête de monopoles. De l’autre, la plus grande précarité de la population très bien représentée par les photos des bidonvilles de New York du journaliste militant J. Riis.
Derrière le déferlement des déclarations hasardeuses de Trump, ses mesures brutales et ses décrets visant à des réformes sociétales, il y a une constante obsession idéologique : la recherche des ingrédients constitutifs du Gilded Age.
Mimant la politique isolationniste du Gilded Age, le second mandat de Trump est d’abord marqué par un farouche nationalisme symbolisé par la reprise du slogan « America First ». Une phrase prononcée par le président Woodrow Wilson ne souhaitant pas participer à la Première Guerre mondiale. Comme le montrent les annonces de Trump, les priorités américaines sont non négociables. Elles peuvent d’ailleurs comprendre une politique étrangère très offensive : l’imposition d’un néomercantilisme impérialiste, c’est-à-dire une logique de rapports de force bilatéraux, où les échanges deviennent instruments de puissance voire de domination d’autres pays.
Comment ne pas voir de parallèle entre, d’une part, les volontés tenaces d’« annexion » du Canada, d’« achat » du Groenland, de « prise de contrôle » du canal du Panama et, d’autre part, l’expédition militaire états-unienne contre l’Espagne de février 1898 ? L’explosion d’un navire de la marine américaine dans le port de La Havane déclenche une guerre contre l’Espagne. Vainqueurs à Cuba et aux Philippines, les États-Unis récupèrent ces territoires, ainsi que l’île de Porto Rico et l’archipel d’Hawaï en 1898. Avec la signature du protectorat de Panama en 1903, ils s’imposent comme une puissance nationale capable d’impérialisme pour garantir à l’étranger, dans ses proximités le plus souvent, ses intérêts. Selon André Kaspi, cette « petite guerre » constitue le véritable acte de naissance de l’impérialisme américain.
Après les menaces adressées à tous les pays excédentaires commercialement avec les États-Unis, l’utilisation de « droits de douane réciproques » appliqués aux « Dirty 15 » (« les 15 salauds ») est l’instrument le plus visible de ce nationalisme débridé. Réaffirmer la puissance hégémonique états-unienne comme « maître du jeu » d’une économie mondialisée, mais surtout obliger à des concessions diverses par l’imposition de fortes sanctions, devient la priorité de Donald Trump.
Durant le Gilded Age, les « Robber barons » ou « grands féodaux » du capitalisme sont devenus des capitaines d’industrie monopolistiques richissimes. En 1890, Rockefeller est ainsi le milliardaire le plus riche des États-Unis. La Standard Oil of Ohio contrôle 90 % de la production et du raffinage du pétrole. Son contrôle du marché du pétrole passe de 4 % en 1870 à 25 % en 1874 à plus de 85 % en 1880. En définitive, une vingtaine de Robber barons dominent totalement un capitalisme de prédation politique ; un système de corruption généralisée où des hommes d’affaires sans scrupules bénéficient de faveurs politiques et ne s’en cachent pas.
Cette domination des techno-entrepreneurs est aujourd’hui tout aussi éclatante. Comme leurs prédécesseurs, les milliardaires de la tech des années 2020 comme Musk, Bezos ou Zuckerberg, financent les campagnes politiques et « reçoivent » en retour des faveurs. Elon Musk a contribué au financement de la campagne électorale de Trump. En récompense, il a reçu au fil des années « au moins 38 milliards de dollars de contrats gouvernementaux, de prêts, de subventions et de crédits d’impôt, souvent à des moments critiques », selon le Washington Post.
Dans cette quête d’un nouveau Gilded Age, la ploutocratie a une véritable marque de fabrique. Hier, c’était combattre idéologiquement l’idée d’un État intervenant dans l’économie, aujourd’hui, c’est le conquérir pour s’en servir, comme le montre chaque jour Musk.
Dans les deux cas, l’installation d’un climat politique résolument violent permet d’imposer un ordre moral, mais aussi un ordre social favorables.
Durant l’ère du Gilded Age, la lutte morale porte sur la question de la prohibition de l’alcool. Socialement, les grèves sont réprimées dans le sang telles que la grève de Homestead en 1892 et la grève Pullman de 1894. Aujourd’hui, la recherche d’un ordre moral est pour l’heure centrée sur les questions sociétales, et notamment sur les questions de genre. Le front social n’est pas déserté. En 2024, Donald Trump félicite Elon Musk « pour avoir licencié 80 % des effectifs de Twitter depuis qu’il en a pris le contrôle en octobre 2022 ». Dès 2025, dans le même esprit, il encourage Musk à entreprendre la réduction brutale des effectifs de l’État fédéral.
Au fond, le cœur de la démarche tient dans la phrase d’un des plus célèbres Robber Barons, Cornelius Vanderbilt, surnommé le Commodore pour avoir bâti sa fortune dans la construction navale :
« Que le peuple soit damné. Pourquoi je me soucierais de la loi, n’ai-je pas le pouvoir ? » (dans Frank Browning et John Gerassi, Histoire criminelle des États-Unis, éditions du Nouveau monde, 2015, p. 277-278).
Écrasant la puissance publique, la fascination pour un pouvoir absolu des techo-entrepreneurs n’est jamais loin.
Quels pronostics faire sur la réussite de cette quête d’un second Gilded Age ?
Le projet reste aussi naïf qu’irréaliste. Alors que l’étalon-or prend fin en 1971, comment imaginer qu’une augmentation des droits de douane dans une économie mondialisée permette, comme pour les États-Unis « fermés » de 1890, de voir apparaître des excédents budgétaires ? Comment augmenter ces excédents au point de désendetter l’État avec un déficit de 37 000 milliards de dollars ? de réduire le déficit du commerce extérieur ? de supprimer l’impôt fédéral sur le revenu, instauré à la fin du Gilded Age ? Et pourtant, suivant son conseiller économique Stephen Miran, Trump se voit déjà à la tête d’une « Commission tarifaire » à l’image de celle qui, en 1887, distribuait les excédents amassés par la collecte de droits de douane !
S’il gagnait vraiment du terrain, ce projet d’installer un second Gilded Age porte par ailleurs sa perte… en lui. Si l’on suit Mark Twain pour qui « l’histoire ne se répète pas mais elle rime souvent », un second Gilded Age appellerait un inévitable retournement, à l’image de celui porté par l’Ère progressiste (1901-1920) prémisse du New Deal de 1932. Les excès du Gilded Age ont directement amené au progressisme incarné en politique par l’élection du président Theodore Roosevelt en 1901. Au même moment, c’est aussi l’émergence d’un ensemble de social scientists – Ely, Small – et le travail acharné de fameux journalistes « muckrakers » (« fouilleurs de boue »). Ces derniers favorisent le passage vers un exercice plus démocratique du pouvoir ayant comme objectif cardinal le progrès pour tous.
Entre les années 1890 et 1920, les premières réformes de rupture se succéderont, comme le rappelle l’historien Ian Tyrrell. En 1890, la première loi fédérale Sherman anti-trust interdit partiellement les pratiques commerciales monopolistiques. Des lois instituent une protection des travailleurs, l’élection au suffrage universel des sénateurs, en vue de lutter contre la corruption, et le suffrage féminin en 1920. Dès 1906, des lois renforcent la réglementation du travail, des droits syndicaux et de l’industrie. L’intervention de Theodore Roosevelt lors de la grève des mineurs de charbon anthracite de 1902 est certainement l’acte de décès des méthodes violentes installées par le Gilded Age.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
21.04.2025 à 19:34
Cynthia Fleury-Perkins, Professeur titulaire de la Chaire Humanités et Santé du CNAM, et titulaire de la chaire de Philosophie à l’hôpital (GHU Paris Psychiatrie et Neurosciences), Conservatoire national des arts et métiers (CNAM)
Dans un monde qui fait la part belle à la performance et à la concurrence, les personnes les plus fragiles sont-elles prises en compte ? Si l’on n’a jamais autant parlé d’inclusion, si la pandémie de Covid-19 nous a collectivement placés face à nos fragilités, la vulnérabilité reste stigmatisée.
Or, c’est en considérant ce que traversent les personnes malades et précaires que l’on peut élaborer des politiques de prévention qui bénéficient à tous, explique la philosophe Cynthia Fleury, professeur titulaire de la chaire Humanités et Santé du Conservatoire national des arts et métiers et titulaire de la Chaire de philosophie à l’hôpital (GHU Paris Psychiatrie et neurosciences). Autrice de la Clinique de la dignité et du Soin est un humanisme, elle plaide pour une « société du care ». Entretien.
The Conversation : Dans nos sociétés compétitives, quelle place pour les personnes vulnérables ? Et où la vulnérabilité commence-t-elle ?
Cynthia Fleury : La vulnérabilité se définit essentiellement selon deux approches. La première, ontologique, la considère comme la condition sine qua non de l’homme en tant qu’être qui naît, meurt, est touché par la maladie. Purement biologique, cette approche manque la complexité du fonctionnement humain et de son développement qui nécessitent, pour être compris, de s’inscrire dans des modèles biopsychosociaux.
C’est par exemple le sens de la thèse de la néoténie et de l’altricialité secondaire – popularisée par les travaux du biologiste Adolf Portmann et, plus récemment, par le sociologue Bernard Lahire – qui pose que nous sommes physiologiquement tous des prématurés : autrement dit, sans le soutien (présent et à venir) des autres, l’individu ne peut survivre.
C’est aussi ce que veut dire le pédiatre et psychanalyste Donald Winnicott avec son étonnante formule, « Un bébé, ça n’existe pas ». Pour qu’un être humain se développe, il faut que se mette en place autour de lui une structure de « care » et de soins prolongés, bien au-delà de sa naissance. Sauf à être transhumaniste – et à considérer donc que nous n’aurions pas de limites substantielles et d’interdépendances –, la vulnérabilité est la réalité initiale à laquelle nous sommes tous confrontés.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
La deuxième approche de la vulnérabilité est sociologique : elle se définit comme la propension des individus à subir des impacts négatifs dus à des facteurs économiques, sociaux, culturels, institutionnels.
En sociologie, la vulnérabilité est à envisager comme une interaction complexe entre ces différents facteurs structurels. D’où le fait que, pour produire un diagnostic et une thérapeutique (c’est-à-dire une politique de correction des inégalités dues aux vulnérabilités), rigoureux l’un comme l’autre, il est déterminant d’avoir une approche dite « intégrée » mêlant l’analyse des facteurs structurels et la question des trajectoires plus personnelles. C’est une affaire dynamique, psychodynamique, collective.
La société est plus ou moins une fabrique de « vulnérabilisation », selon ce qu’elle permet légalement, systématise, etc. Dès lors, nos choix collectifs, consciemment ou inconsciemment, endiguent, régulent ou renforcent ces vulnérabilités.
T. C. : On parle de plus en plus d’inclusion, les derniers Jeux paralympiques ont bénéficié de plus de visibilité dans les médias… La vulnérabilité est-elle socialement plus acceptée ?
C. F. : Comme je l’avais noté dans la Clinique de la dignité, jamais il n’y a eu dans nos sociétés occidentales un discours aussi consensuel de reconnaissance de la vulnérabilité, jamais on n’a tant donné à la vulnérabilité la possibilité de se raconter, non seulement dans les espaces privés, mais aussi dans l’espace public.
Prenons l’exemple récent du journaliste Nicolas Demorand, présentateur de la matinale de France Inter, déclarant : « Je suis un malade mental. » Cette prise de parole ne relève pas tant de la « Mad Pride » que d’un refus de continuer à vivre cette ultravulnérabilité comme une honte. À un moment donné, il prend le risque de franchir le Rubicon de la possible stigmatisation pour produire un plaidoyer à partir de son expérience. Il y a vingt ans, il n’aurait sans doute pas agi ainsi. Il le fait parce qu’il est dans une conscientisation différente de sa situation, mais aussi parce que la société accueille différemment cette « singularité », pour ne pas dire cette « vulnérabilité ».
Malgré ces évolutions, cependant, les stigmatisations persistent. C’est le cas dans la sphère du travail, tous les patients peuvent vous le raconter. Les personnes souffrant de maladies chroniques sont toujours renvoyées à un questionnement sur leur mythomanie possible, sur leur fiabilité. L’ère du soupçon persiste.
T. C. : Cela veut-il dire que la reconnaissance de la vulnérabilité reste de l’ordre du discours ?
C. F. : Non, cela va au-delà du discours, il y a dans nos sociétés occidentales toute une axiologie (ou théorie des valeurs morales), qui intègre la dignité de la vulnérabilité. Celle-ci est envisagée comme un vecteur de connaissance et un levier capacitaire au sens où, c’est au chevet des plus vulnérables que l’on peut vraiment appréhender la complexité des situations et que l’on peut avoir une clinique du réel, au sens lacanien du terme (séminaires XI et XX).
On peut définir la « clinique du réel » comme l’analyse clinique des effets que le réel, dans sa dimension non symbolisée et irréductible, produit dans la structuration du psychisme. L’expression s’est depuis banalisée pour définir toute tentative de diagnostic et de thérapeutique confrontée aux dimensions les plus « effractantes » du réel.
Mais, au-delà de ces discours et de ces représentations de soi nourries de la Déclaration des droits de l’homme, subsistent un « rejet » et une crainte de la vulnérabilité. On reste dans un système social qui est une véritable machine à mettre à mal les vulnérabilités, à les stigmatiser, au mieux à les invisibiliser. En fait, les deux réalités coexistent. Les stéréotypes ont la vie dure, on est face à des situations clivées.
Par ailleurs, nous subissons une vague post #MeeToo, notamment dans les sociétés occidentales, ressentimiste et masculiniste qui stigmatise la vulnérabilité, la dévalorise, considère qu’elle est un danger culturel et social, et qu’elle doit être mise à mort.
T. C. : Des scandales ont levé le voile sur des situations terribles dans les crèches et dans les Ehpad. Les hôpitaux manquent de moyens. Dans quelle mesure la société fabrique-t-elle de la vulnérabilité ?
C. F. : Pour forger une alliance thérapeutique entre soignants et patients, il faut du temps. Plus on est vulnérable, plus on évite les soins. Pour construire un consentement à ces soins, pour que leur efficience ne soit pas mise à mal, il faut donc encore plus d’écoute et d’empathie. Or, le new management, avec sa pression gestionnaire, empêche cela.
Cette restriction des moyens qui pèse sur l’humain ne concerne pas seulement les services hospitaliers, on la retrouve à l’école, dans l’entreprise, dans la magistrature – aussi délirant que cela puisse paraître, elle touche même les soins palliatifs. Les travaux de la psychodynamique autour de la souffrance au travail ont mis au jour cette fabrique de situations indignes, qui empêche des soignants et des personnels de services publics de pouvoir faire leur métier dignement, produit des burn out et génère du mal-être chez les patients et leurs familles…
Il existe une deuxième grande fabrique de vulnérabilités, plus géopolitique, face à ces failles systémiques que sont les zoonoses, les pandémies. Alors qu’on atteint les limites planétaires de la croissance, l’accès aux ressources devient de plus en plus concurrentiel. Le nombre de réfugiés climatiques augmente, les conflits conduisent à des déplacements de populations.
À lire aussi : Zoonose : cinq ans après le début du Covid, comment minimiser les risques d’émergence ?
Ces situations terribles vont de pair avec une instrumentalisation de la notion de résilience : on continue sciemment de produire des vulnérabilités en considérant qu’il restera toujours une solution, le recours à la résilience. Or, il faudrait avant tout se dire : « Arrêtons de produire de telles situations. » La première des résiliences, c’est la culture de la prévention.
T. C. : Qu’est-ce que prendre soin, dans une société du care ? En quoi cela va-t-il au-delà de la prise en charge matérielle, physique ?
C. F. : Le soin passe par le corps, il passe par des ressources, mais ce n’est jamais une simple activité matérielle. Le soin active la fonction symbolique des êtres, il fabrique de l’éducation, il fabrique la potentialité des êtres et la résilience des sociétés.
Il y a quatre grandes approches philosophiques, ce que j’appellerais quatre grands âges du care qui, d’ailleurs, ne s’opposent pas, mais s’entrelacent, se combinent. Dans les années 1950 surgissent les théories de l’attachement, la pédopsychiatrie pose que l’absence de soin crée des troubles du développement. C’est la première définition du soin évoquée plus haut et toujours valable aujourd’hui.
Puis il y a eu des approches plus éthiques et politiques du care, centrée sur l’activité de soin, s’interrogeant sur les différences pratiques et morales entre les hommes et les femmes. Ces considérations genrées ont été essentielles pour démontrer dans un premier temps la « féminisation » du soin, donc sa dévalorisation, et son invisibilisation, et dans un deuxième temps leur nécessaire dépassement pour définir une activité générique de l’espèce humaine. On pense notamment aux travaux de Joan Tronto qui explique que le soin est tout simplement l’activité prioritaire de l’espèce humaine et qui le définit comme ce qui travaille à maintenir la vie bonne, à « réparer notre monde ».
Aujourd’hui, le « prendre soin » s’ouvre à des approches intégrées de type « One Health », où l’on considère que la santé humaine s’insère dans un tout et qu’à ce titre, elle est en dialogue constant avec la santé des écosystèmes et avec la santé animale. Prendre soin n’est plus seulement une activité interhumaine, mais une activité inter-vivants. L’homme n’est plus une exception ou, si exceptionnalité il y a, c’est dans la conscience aiguë et responsable qu’il a de cette nécessité de créer des liens réciproques et de faire baisser les externalités négatives sur les ressources naturelles.
T. C. : De quelle manière travaillez-vous sur cette notion de care à la Chaire de philosophie à l’hôpital ?
C. F. : Nous défendons une approche capacitaire de la vulnérabilité, autrement dit, en la considérant d’abord comme une « épistémologie », au sens où elle est un vecteur de connaissance et permet d’avoir une vision très fine de la réalité. Ensuite, nous travaillons à faire d’elle un levier capacitaire. Nous avons théorisé cette approche par la notion de « générativité de la vulnérabilité » : personne ne peut nier que la vulnérabilité est prioritairement, hélas, une matrice à créer de l’incapacité ; autrement dit, une vulnérabilité en entraîne une autre, comme en cascade.
Prenons la question de la maladie, ses effets physiologiques peuvent se répercuter sur la sphère du travail, la sphère familiale et amicale, la vie psychique… Les maladies chroniques notamment sont des bombes à retardement. Il n’y a pas une personne qui subisse une maladie chronique sans être, à un moment donné, touchée par une souffrance psychique importante, qu’il s’agisse de troubles anxieux ou dépressifs, de troubles du sommeil, de troubles de l’alimentation…
Cette dynamique déficitaire dangereuse, il importe de mieux la saisir, pour mieux déconstruire ses imbrications… Pour autant, la générativité du vulnérable ne se résume pas à cette seule approche déficitaire qui étudie les dysfonctionnements en chaîne. La vulnérabilité peut aussi être source d’invention. Pour résister à l’hyper-contrainte qu’elle représente, il faut produire ce que le philosophe Georges Canguilhem appelle une norme de vie et c’est ainsi que l’on crée des objets qui n’existaient pas, des dispositions d’être inédites, des usages nouveaux, etc.
En tenant compte de ce potentiel d’innovation, on peut activer une autre théorie de la conception, partant du point de vue des personnes vulnérables. C’est d’ailleurs très intéressant de voir à quel point susciter la part « agente » des patients, et notamment leur capacité de conception, est thérapeutique. À la chaire, nous défendons une « fonction soignante en partage », autrement dit, celle où le soin est une activité créatrice portée par l’ensemble des parties prenantes (soignants, patients, familles, citoyens lambda). Nous appelons cela du « design capacitaire », soit le co-design de protocoles de soin avec les patients, le personnel hospitalier, les familles, les citoyens.
Nous avons travaillé par exemple sur des solutions de « contenance » volontaire (le protocole Cisuco) qui puissent être des alternatives aux dispositifs de contention chimique et mécanique utilisés en psychiatrie contre la volonté des patients.
T. C. : Accepter la vulnérabilité, c’est donc un facteur de progression ?
C. F. : Disons que c’est un facteur d’« intelligence » pour la résilience des systèmes. C’est en allant sur les marges qu’on peut élaborer des politiques de prévention plus efficaces. C’est en prenant en considération entre autres ce que traversent les migrants qu’on viendra au mieux protéger les citoyens. Nous qui pensons être très éloignés de leur situation pourrions très bien connaître ces déplacements forcés face aux bouleversements climatiques.
Très souvent, ce qui a été pensé pour les plus vulnérables finit par être utilisé de manière universelle. La démocratie sanitaire, par exemple, c’est par la clinique du sida qu’elle a été révolutionnée, pas par la clinique des patients lambda.
L’ergonomie montre aussi combien l’inclusivité sert à tous. Imaginons des femmes qui arrivent dans une entreprise où il y a de lourdes charges qu’elles ne peuvent pas porter. On va aménager les postes, produire d’autres outils, éventuellement des exosquelettes. Certains de leurs collègues, qui auront au départ protesté contre la féminisation des métiers, finiront par revenir sur leur position, par reconnaître la fatigue générée et les troubles musculo-squelettiques générés par cette manutention, puis par avoir recours aux dispositifs mis en place.
T. C. : Quel lien entre État social et État de droit ? En quoi la prise en compte de la vulnérabilité est-elle essentielle à la démocratie ?
C. F. : On voit bien que les premières attaques de Donald Trump dès son retour au pouvoir ont visé la santé ou encore l’aide au développement.
Par définition, les régimes autoritaires fascisants – au sens de « late fascism », d’Enzo Traverso – sont des régimes de hiérarchisation des êtres, qui fonctionnent sur l’activation de relations de subordination, d’exploitation du corps d’autrui (« Your body, my choice ») et dévaluent la notion de vulnérabilité, considérant qu’il faut la repérer et l’éradiquer. Et cette vulnérabilité est multiple : il peut s’agir de handicap, de sexualité, de genre, d’âge…
A contrario, il existe une sorte de pacte essentiel entre la vulnérabilité et l’État social de droit qui, chaque fois qu’il élabore une loi, doit produire une loi qui ne renforce pas les vulnérabilités des plus faibles. La normativité dans un État de droit est « critique », « réflexive » envers elle-même, sans cesse relégitimée par de nouvelles « inclusivités » ou encore « prises en considération » de ce qui était, jusqu’alors, exclu et discriminé.
Propos recueillis par Aurélie Djavadi.
Cynthia Fleury-Perkins ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
21.04.2025 à 19:33
Olivier Coulembier, Chercheur, Université de Mons
Un projet de recherche ambitionne de transformer les déchets plastiques en nouveaux matériaux innovants à l’aide de réactions chimiques permettant de retirer du CO2 de l’atmosphère. État des lieux d’une piste encore jeune, mais déjà prometteuse.
Le plastique suscite de fréquents débats : pollution marine, recyclage… Omniprésents dans l’économie mondiale, leur production, leur utilisation et leur élimination représentent environ 4,5 % des émissions mondiales de gaz à effet de serre (GES), sans parler de leurs impacts sur la biodiversité marine.
Les appels à réduire leur usage se multiplient, mais une question persiste : les alternatives aux plastiques permettent-elles de réduire les émissions de GES au niveau global ? Un sac en papier, par exemple, bien qu’il semble plus écologique qu’un sac en plastique, peut engendrer jusqu’à trois fois plus d’émissions de GES sur l’ensemble de son cycle de vie. En parallèle du problème de plastique, les émissions de CO₂ continuent de croître au niveau mondial.
Et s’il était possible de faire d’une pierre deux coups, en valorisant à la fois les déchets plastiques et le CO2 pour les transformer en produits utiles, par exemple des matériaux de construction ? C’est l’objectif du programme de recherche Pluco (pour Plastic Waste Upcycling by CO₂ Valorization).
L’enjeu : concevoir de nouveaux matériaux piégeant du CO2 à partir de déchets plastiques, tout en s’assurant que ce CO2 soit très peu relâché à l’échelle humaine. On estime à 100 000 ans le temps pour que le CO2 incorporé à des matériaux de construction soit réémis dans l’atmosphère. Lorsqu’il est réutilisé pour l’industrie chimie ou pharmaceutique, ce délai est d’environ 10 ans, et même de seulement un an pour la production de carburant à partir de CO2, selon les estimations de l’Agence internationale de l’énergie.
Le recyclage des plastiques repose aujourd’hui majoritairement sur des procédés mécaniques (tri, broyage, lavage). Ces derniers présentent plusieurs limites majeures :
Qualité dégradée : les plastiques recyclés perdent souvent jusqu’à 50 % de leurs propriétés mécaniques (souplesse, rigidité, propriétés barrières notamment au gaz…), ce qui limite leur réutilisation. Une bouteille d’eau gazeuse recyclée ne permettant pas de retenir le gaz carbonique ne présenterait que peu d’intérêt.
Coûts élevés : ces procédés sont énergivores, avec un coût moyen de recyclage avoisinant 400 à 500 euros par tonne.
Émissions de CO2 : environ deux kilogrammes de CO2 sont émis pour chaque kilogramme de plastique recyclé mécaniquement, du fait de l’énergie utilisée pour le tri mécanique.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Bien que ces techniques permettent une réduction partielle des émissions, elles restent loin d’être idéales. À l’inverse, le recyclage chimique, notamment par solvolyse – c’est-à-dire, par dissolution à l’aide d’un solvant –, ouvre la voie à des économies substantielles pouvant atteindre 65 à 75 % de réduction des émissions de CO₂.
La solvolyse est une technique de traitement qui permet de décomposer les plastiques inertes comme les polyoléfines (un des types de polymères plastiques les plus courants) pour les transformer en matériaux fonctionnels. Par exemple, le PET, utilisé dans des produits courants comme les bouteilles plastiques et les fibres textiles, peut être recyclé par solvolyse pour produire de l’éthylène glycol. Bien connu pour son rôle d’antigel dans les radiateurs de voiture, il peut également être réutilisé dans la production de nouveaux produits en PET, contribuant ainsi à la réduction des déchets plastiques et à la réutilisation de matériaux.
Selon ce procédé, une tonne de plastique traité peut produire jusqu’à 800 kg de matières premières réutilisables, tout en économisant trois à six tonnes de CO₂ par rapport aux procédés traditionnels.
Autre axe d’amélioration en dehors des procédés eux-mêmes : le remplacement des catalyseurs métalliques par des catalyseurs organiques afin de les rendre plus respectueux de l’environnement sans recourir aux métaux lourds utilisés dans les catalyseurs traditionnels.
La toxicité potentielle des catalyseurs métalliques pose en effet problème, notamment en ce qui concerne l’utilisation de métaux lourds comme le palladium, le platine ou le nickel. Ces métaux peuvent entraîner des risques pour la santé et l’environnement, notamment en cas de contamination des sols ou des eaux. Des études montrent que leur accumulation dans les écosystèmes peut avoir des effets délétères sur la biodiversité et les chaînes alimentaires.
C’est justement cette voie que nous explorons dans nos recherches, en valorisant le CO2 comme une véritable brique de construction chimique.
L’une des voies que nous explorons est la transformation du CO2 en produits carbonatés. Ces derniers trouvent des applications industrielles variées comme les batteries, les plastiques biodégradables ou encore les revêtements. Cette approche représente une alternative durable aux produits dérivés du pétrole, et permet de convertir pas moins de 500 kg de CO2 par tonne de dérivés carbonatés produits.
Notre approche consiste à tirer parti des catalyseurs organiques pour permettre à ces réactions de survenir dans des conditions plus simples et à des températures plus modérées. Nous travaillons également sur l’ajout de CO2 dans des plastiques recyclés pour produire de nouveaux matériaux utiles, par exemple dans le domaine de la construction.
Ces deux approches combinées – revalorisation du CO2 et des plastiques – ouvrent ainsi la voie à des applications industrielles variées dans les secteurs de l’emballage, de la construction et même de la santé. L’objectif de Pluco est de démontrer la faisabilité de ces procédés à l’échelle industrielle et leur intérêt tant économique qu’en matière de durabilité.
Aujourd’hui, le recyclage des plastiques repose sur un nombre limité d’usines centralisées, comme en Belgique où seules quelques infrastructures traitent l’ensemble des déchets plastiques du pays. Pourtant, les déchets plastiques et les émissions de CO2 sont un problème global, présent dans toutes les régions du globe.
Grâce à sa flexibilité et à son efficacité, la technologie que nous développons avec Pluco pourrait favoriser un recyclage plus décentralisé. Plutôt que de concentrer le traitement des déchets sur quelques sites industriels, il deviendrait envisageable de mettre en place des unités de transformation locales, installées directement là où les déchets sont produits.
Par exemple, des lignes d’extrusion réactive – système qui permet de transformer des plastiques à des températures plus basses que celles utilisées dans les procédés de recyclage classique – pourraient être déployées dans divers contextes industriels et géographiques, réduisant ainsi le besoin de transport des déchets et maximisant l’impact environnemental positif du procédé.
Ce procédé est une technologie bien connue, facile à mettre en œuvre et localisable partout dans le monde. En travaillant à des températures où les plastiques deviennent suffisamment souples pour être transformés sans fondre complètement, il permet de modifier les propriétés du plastique tout en préservant sa structure. Cela permet notamment d’intégrer dans leur structure des molécules ayant été préparées par catalyse organique directement à partir de CO2. De quoi créer de nouveaux matériaux tout en facilitant le recyclage de manière plus économe en énergie.
Au-delà de l’aspect écologique, cette approche pourrait aussi générer de nouvelles opportunités économiques en termes d’économie circulaire, en permettant à des acteurs locaux d’exploiter ces technologies et de créer de la valeur à partir de ressources considérées jusqu’ici comme des polluants.
Le programme Pluco ouvre donc la voie vers un recyclage à empreinte carbone nulle, voire négative. Cette approche unique, qui transforme deux menaces environnementales en ressources précieuses, démontre que la chimie verte peut jouer un rôle central dans la transition écologique. Il ne s’agit pas seulement de recycler mieux, mais de redéfinir les bases mêmes du recyclage pour un impact positif et durable sur la planète.
Créé en 2007 pour accélérer et partager les connaissances scientifiques sur les grands enjeux sociétaux, le Fonds Axa pour la Recherche a soutenu près de 700 projets dans le monde entier, menés par des chercheurs originaires de 38 pays. Pour en savoir plus, consultez le site Axa Research Fund ou suivez-nous sur X @AXAResearchFund.
Olivier Coulembier a reçu des financements du Fonds National de la Recherche Scientifique (F.R.S.-FNRS), notamment à travers des projets PDR, MIS et EOS. Il a également bénéficié de financements européens via H2020 et M-ERA.NET, ainsi que du soutien de la Chaire de Recherche AXA.
21.04.2025 à 19:32
Sara De Balsi, Chercheuse associée en littérature française et comparée, CY Cergy Paris Université
La littérature québécoise est riche de romans et récits autobiographiques qui mettent en scène des parcours de transfuges de classe. Influencés par des auteurs français, d’Annie Ernaux à Édouard Louis, les écrivains canadiens explorent plus directement la thématique du plurilinguisme, notamment le changement de langue que peut produire le changement de classe sociale.
Le récit de transfuge de classe, narration d’un parcours de mobilité sociale ascendante, s’institutionnalise et se canonise en France dans les années 2020. Mais ce type de récit circule aussi dans l’espace francophone, notamment au Québec, où la question de la mobilité sociale recoupe plus directement qu’en France celle du plurilinguisme : si le changement de classe implique toujours un changement de variété de langue, souvent il impose de changer de langue tout court.
La littérature québécoise contemporaine est riche de romans et récits autobiographiques qui mettent en scène une ascension sociale. Bonheur d’occasion, de Gabrielle Roy (1945), classique récemment redécouvert aussi en France, en est le précurseur : ce roman en partie autobiographique est l’histoire d’une fille, issue du quartier populaire de Saint-Henri à Montréal, qui cherche, sans succès, à sortir de la pauvreté. Mais c’est surtout après « la Révolution tranquille » des années 1960, période de réformes progressistes qui entraînent des changements économiques, sociaux et politiques rapides, qu’on publie au Québec un grand nombre de récits et romans autobiographiques de la mobilité sociale, souvent écrits par des femmes issues de milieux défavorisés et ayant pu entrer en littérature par l’éducation.
À lire aussi : Les transfuges de classe dans la littérature : le cas d’Annie Ernaux
C’est en connaisseuse de cette tradition que Lori Saint-Martin (1959-2022), traductrice et professeure de littérature québécoise, écrit Pour qui je me prends, publié outre-Atlantique en 2020 et en France en 2023. Ce récit de transfuge de classe emprunte à la forme de l’autobiographie linguistique, ou « language memoirs » dans le monde anglo-saxon : il s’agit du récit de sa vie à travers les langues que l’on a apprises et avec lesquelles on a vécu.
Dans le texte de Saint-Martin confluent en effet la trajectoire de transfuge de classe de la narratrice, issue d’un milieu ouvrier de la ville anglophone de Kitchener, dans la province de l’Ontario, et sa trajectoire de translingue, autrice écrivant dans une langue seconde acquise tardivement. L’autrice se considère sauvée par sa passion pour la langue française, qui sera le moteur de son ascension sociale par les études :
« J’ai appris le français pour fuir l’anglais, fuir mon destin. […] Je suis une transfuge, une translingue. J’y ai mis du temps, j’y ai mis toute ma vie. »
Le changement de classe est rendu possible par l’apprentissage d’une nouvelle langue.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
De manière générale, les récits de transfuge de classe québécois des dernières années semblent s’appuyer moins sur la tradition québécoise du roman social que sur le récit de transfuge de classe fortement institutionnalisé en France, comme le montre l’abondance de références à des auteurs français, particulièrement Annie Ernaux, Édouard Louis et Didier Eribon.
Le récit de Lori Saint-Martin évoque ainsi, sans la citer, la figure d’Annie Ernaux, ne serait-ce que par l’emploi du mot « transfuge », revendiqué et popularisé par la Prix Nobel. Au début du récit, dans la phrase « J’arriverais où les miens n’étaient jamais allés, je les vengerais, je les trahirais », les verbes venger et trahir évoquent le paradoxe principal du récit de transfuge de classe, divisé entre la trahison des parents et la vengeance que constitue l’écriture, central dans l’œuvre d’Annie Ernaux.
Le récit Parler comme du monde, de l’Acadienne Annette Boudreau, une autre autrice qui vient du monde universitaire (dans ce cas, de la sociolinguistique), reprend, quant à lui, le procédé ernausien consistant à écrire à partir d’une photo d’enfance, devenu incontournable dans le récit de transfuge de classe, et cite explicitement sa source d’inspiration.
Jean-Philippe Pleau, journaliste montréalais, affirme au début de son Rue Duplessis que l’idée de ce récit lui est venue d’une interview avec Édouard Louis et ajoute plus loin que Didier Eribon, avec qui il a entretenu une correspondance, l’a encouragé à écrire son histoire. Un passage du même Édouard Louis est cité en exergue de la deuxième partie du roman autobiographique Là où je me terre, de Caroline Dawson (1979-2024), sociologue et écrivaine. Elle affirme ailleurs s’être inspirée de Retour à Reims, d’Eribon, qui lui rend hommage en retour dans une publication collective consacrée à son œuvre. Cet article est, enfin, repris comme préface de l’édition récente du roman de Dawson en France, qui contient aussi un mot introductif… d’Annie Ernaux.
Or, tous les auteurs canadiens cités sont émergents dans le champ littéraire, bien que reconnus dans d’autres domaines, comme la recherche universitaire et le journalisme : on voit par ces exemples à quel point, en se positionnant dans le sillage des récits de transfuges français, ces auteurs se construisent une filiation illustre et cherchent une caution de leur valeur littéraire.
Les récits de transfuges au Québec exploitent particulièrement le lien entre changement de classe et changement de langue. La diglossie, c’est-à-dire la présence de deux variétés de langue hiérarchisées, qui correspondent au monde social d’origine et au monde social d’arrivée du narrateur, est omniprésente dans ce type de récit. Au Québec, l’écart entre le français québécois souvent dévalorisé et le français standard dont la norme s’établit en France hexagonale engendre le phénomène bien connu de l’insécurité linguistique, étudié puis raconté d’un point de vue personnel par Annette Boudreau dans Parler comme du monde.
À cette diglossie interne au français s’ajoute, dans certains cas, le face-à-face non seulement entre deux variétés de la même langue, mais aussi entre le français et une autre langue. On a vu que Lori Saint-Martin change de classe en changeant de langue et passe non seulement de l’anglais au français, mais de l’anglais populaire au français légitime :
« Mon anglais est clivé par la classe sociale, contrairement à mon français et mon espagnol, produits de mes études et non de mon enfance », écrit-elle dans Pour qui je me prends.
Caroline Dawson, arrivée à Montréal du Chili avec ses parents à l’âge de 7 ans, connaît aussi une trajectoire de transfuge qui est également une trajectoire translingue. Dans son cas, cependant, l’apprentissage du français à l’école provoque un éloignement douloureux du monde des parents et de l’enfance. Dans son ouvrage Là où je me terre, elle écrit :
« Le français devenait ma langue. Celle qui se superposerait lentement à l’espagnol, pourtant première et maternelle. Celle qui deviendrait une demeure. Celle qui me permettrait non seulement de dire, d’appréhender le monde mais aussi de m’éloigner des miens. De m’éloigner des miens sans les quitter. »
En plus de remplacer l’espagnol, le français instaure une séparation sociale entre la narratrice et ses parents :
« Je lisais désormais de la poésie et participais aux concours littéraires de mon école. La langue de la domination de ma mère était désormais devenue mon terrain de jeu. »
Les expériences de transfuge de classe et de langue se rejoignent et se télescopent.
Ces exemples montrent que le récit de transfuge de classe au Québec représente, plus fortement que son homologue français, le clivage de la conscience linguistique. Cette spécificité s’explique par la situation linguistique de cette province canadienne – francophone, mais entourée par l’anglais – et particulièrement de Montréal, ville bilingue et multiculturelle. Les auteurs et autrices transfuges mettent en scène la rencontre et, plus souvent, la confrontation entre les langues et s’interrogent sur la manière de faire vivre dans l’écriture les langues de leur passé.
Sara De Balsi ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
21.04.2025 à 08:11
François Hammer, Astronome, membre du laboratoire LIRA, labellisé Domaine d'Intérêt Majeur ACAV+ par la Région Ile-de-France, Observatoire de Paris
François Vannucci, Professeur émérite, chercheur en physique des particules, spécialiste des neutrinos, Université Paris Cité
Le satellite Gaia a mesuré les positions et les vitesses d’un grand nombre d’étoiles appartenant au disque de notre galaxie. Pour la première fois, on constate une décroissance des vitesses orbitales en fonction de la distance au centre galactique dans la région du halo sombre, ce qui implique une quantité de matière sombre (aussi appelée matière noire) beaucoup plus faible que ce qui était admis jusque-là.
Notre galaxie, classiquement appelée la Voie lactée, est formée d’une multitude d’étoiles, plus de cent milliards, que notre œil ne peut pas distinguer d’où son apparence « laiteuse ». C’est une grande galaxie spirale et la majorité des étoiles, en particulier notre Soleil, se répartissent dans un disque de près de 100 000 années-lumière de diamètre. Mais il y a beaucoup plus dans la galaxie.
Tout d’abord il existe des nuages de gaz où se formeront les nouvelles étoiles ainsi que des poussières. De plus, il faut aussi ajouter la très énigmatique masse manquante ou sombre qu’on retrouve à toutes les échelles de l’Univers.
L’observation du fond diffus cosmologique (en anglais Cosmic Microwave Background, CMB) apporte des contraintes physiques sur la présence de matière sombre dans l’Univers. La collaboration Planck fit une mesure précise de ce fond, qui a été comparé à un ensemble de données pour en faire un modèle très précis. La conclusion est que seulement 5 % du contenu de l’Univers est constitué de matière ordinaire, les 95 % inconnus se répartissant entre deux composantes invisibles : 25 % sous forme de matière sombre et 70 % d’énergie sombre encore plus mystérieuse.
La matière sombre est une composante insensible à toute interaction sauf la gravitation. Elle n’émet aucun rayonnement et n’interagit avec le reste de la matière que par les effets de sa masse.
Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Au niveau de la formation des galaxies, ce serait la masse sombre, qui n’étant affectée que par la gravitation, s’est structurée en premier dans ce qu’on appelle le halo sombre, plus ou moins sphérique, dont les dimensions dépassent de beaucoup celles de la masse visible. Cette dernière s’est accumulée par la suite dans ces halos de matière sombre.
Cette hypothèse a été confirmée, dans les années 1970, par l’astronome américaine Vera Rubin, et l’astronome franco-néerlandais Albert Bosma grâce à la mesure des courbes de rotation d’étoiles ou de gaz froid qui orbitent autour du centre. Ces courbes montrent la variation de la vitesse de rotation en fonction du rayon de l’orbite. Notons que, dans le disque, les orbites sont quasi circulaires. Un exemple typique est donné dans la figure ci-dessous.
On y voit que les étoiles visibles se répartissent dans une région concentrée et leur vitesse de rotation décroît rapidement dès 30 000 années-lumière, en accord avec la gravitation de Newton.
C’est une vérification de la deuxième loi de Kepler : les vitesses de rotation décroissent comme l’inverse de la racine carrée de la distance au centre d’attraction. Cette loi se vérifie déjà dans le cas des planètes qui tournent de moins en moins rapidement à mesure qu’elles sont plus éloignées du Soleil. Mais si l’on examine la galaxie dans son ensemble, la masse sombre donne une composante qui s’étend bien au-delà. Les courbes de rotation semblent plates, on ne constate pas de décroissance de la vitesse jusqu’à des distances approchant 100 000 années-lumière.
Les vitesses de rotation se mesurent par l’effet Doppler qui se traduit par un décalage du rayonnement des objets examinés vers les fréquences basses (le rouge pour le spectre visible). Pour la Voie lactée, notre Soleil est à l’intérieur du disque et c’est un grand défi d’analyser des mouvements d’étoiles pour lesquels les lignes de visée sont transverses et changeantes. C’est ce qu’a su résoudre Gaia, un satellite lancé fin 2013 par l’Agence spatiale européenne (acronyme anglais, ESA).
Gaia est un satellite astrométrique, c’est-à-dire qu’il mesure les mouvements dans le ciel de plus d’un milliard d’étoiles en les observant à diverses époques. Près de 33 millions d’étoiles ont été aussi observées en spectroscopie pour mesurer leurs vitesses radiales, c’est-à-dire leurs mouvements dans notre direction. Avec deux vitesses dans le plan du ciel et la vitesse radiale, cela donne en trois dimensions les vitesses et les positions de 1,8 million d’étoiles du disque galactique.
Connaître les mouvements dans toutes les directions apporte une mesure beaucoup plus précise de la courbe de rotation caractérisant notre galaxie.
Le résultat de Gaia est donné sur la figure ci-dessous. On y voit une décroissance qui suit la loi de Kepler, depuis le bord du disque visible à environ 50 000 années-lumière jusqu’à 80 000 années-lumière. C’est la première fois que l’on détecte un tel déclin képlérien pour une grande galaxie spirale.
Avec ce profil mesuré, on peut déduire une masse totale de la galaxie d’environ 200 milliards de masses solaires, avec une incertitude de 10 %. La masse de la Voie lactée était auparavant estimée à 1 000 milliards de masses solaires, cinq fois plus.
Avec une masse de matière ordinaire (étoiles et gaz) de près de 60 milliards de masses solaires, le rapport masse invisible/masse ordinaire est à peine supérieure à 2, très inférieur à ce qui est connu pour les autres galaxies spirales où on trouve un rapport entre 10 et 20. Ceci est à comparer avec le rapport 5, indiqué en préambule, mesuré pour l’Univers global à l’aide du fond cosmologique.
Pourquoi notre galaxie aurait-elle une dynamique différente des autres galaxies spirales ? Les galaxies spirales ont une histoire compliquée. On a d’abord pensé qu’elles se formaient lors d’un effondrement primordial aux premières époques de l’Univers. On sait depuis les années 2010 que les galaxies actuelles n’ont pas pour origine la première structuration de la matière, mais qu’elles découlent d’une série de collisions entre galaxies plus jeunes, capables de former les grands disques spiraux observés.
La dynamique d’aujourd’hui dépend donc de l’histoire de ces collisions. Or, notre galaxie a connu une histoire relativement calme avec une grande collision il y a 9 milliards à 10 milliards d’années. Ceci explique que le disque externe, dans lequel les étoiles suivent des orbites quasi circulaires, soit à l’équilibre. Pour la grande majorité des galaxies spirales, la dernière collision est advenue beaucoup plus tardivement, il y a seulement 6 milliards d’années.
Finalement, on peut dire que non seulement la galaxie n’a pas perdu les trois quarts de sa masse, mais la nouvelle évaluation de la matière sombre présente donne un résultat qui remet en question certaines certitudes cosmologiques. La quantité locale de masse sombre s’avère très inférieure à ce qu’on trouve à d’autres échelles de l’Univers, peut-être du fait de l’histoire spéciale de notre galaxie.
Cela résonne avec un épisode du règne de Louis XIV. Il demanda à ses astronomes une nouvelle cartographie du pays à partir de données astronomiques, suivant une recette imaginée par Galilée. La méthode était beaucoup plus précise que celle fournie par les arpenteurs, mais la carte ainsi obtenue se révéla très surprenante. Elle montra un rétrécissement notable du royaume sur le flanc de la côte ouest et le roi, irrité, aurait déclaré : « Mes astronomes ont fait perdre à la France plus de territoires que tout ce qu’avaient gagné mes militaires. »
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
19.04.2025 à 15:56
Narcisa Pricope, Professor of Geography and Land Systems Science and Associate Vice President for Research, Mississippi State University
Pâques s’accompagne de chocolat (que l’on soit croyant ou non). Une tradition qui pourrait vite devenir un luxe. Avec le réchauffement climatique, son prix ne cesse d’augmenter. En cause : l’aridité qui se propage silencieusement dans de nombreuses régions productrices de cacao. Heureusement, des solutions existent.
Le nord-est du Brésil, l’une des principales régions productrices de cacao au monde, est aux prises avec une aridité croissante –, un assèchement lent mais implacable des terres. Le cacao est fabriqué à partir des fèves du cacaoyer, petit arbre à feuille prospérant dans les climats humides. La culture est en difficulté dans ces régions desséchées, tout comme les agriculteurs qui la cultivent.
Ce n’est pas seulement l’histoire du Brésil. En Afrique de l’Ouest, où 70 % du cacao mondial est cultivé, ainsi qu’en Amérique et en Asie du Sud-Est, les variations des niveaux d’humidité menacent l’équilibre délicat nécessaire à la production. Ces régions, abritant écosystèmes dynamiques et greniers à blé mondiaux, sont en première ligne de la progression lente mais implacable de l’aridité.
Au cours des trente dernières années, plus des trois quarts des surfaces la Terre est devenue plus sèche. Un rapport récent que j’ai aidé à coordonner pour la Convention des Nations unies sur la lutte contre la désertification a révélé que les terres arides couvrent maintenant 41 % des terres mondiales. Cette superficie s’est étendue de près de 4,3 millions de kilomètres carrés au cours de ces trois décennies – plus de huit fois la taille de la France.
Cette sécheresse rampante n’est pas seulement un phénomène climatique. Il s’agit d’une transformation à long terme qui peut être irréversible… avec des conséquences dévastatrices pour les écosystèmes, l’agriculture et les moyens de subsistance dans le monde entier.
L’aridité, bien que souvent considérée comme un phénomène purement climatique, est le résultat d’une interaction complexe entre des facteurs anthropiques – dus à l’existence et à la présence d’humains. Il s’agit notamment des émissions de gaz à effet de serre, des pratiques d’utilisation des terres et de la dégradation des ressources naturelles critiques, telles que les sols et la biodiversité.
Ces forces interconnectées ont accéléré la transformation de paysages autrefois productifs en régions de plus en plus arides.
Le changement climatique d’origine humaine est le principal moteur de l’aridité croissante.
Les émissions de gaz à effet de serre augmentent les températures mondiales, notamment en raison de la combustion de combustibles fossiles et de la déforestation. La hausse des températures, à son tour, provoque l’évaporation de l’humidité à un rythme plus rapide. Cette évaporation accrue réduit l’humidité du sol et des plantes, ce qui exacerbe la pénurie d’eau, même dans les régions où les précipitations sont modérées.
L’aridité a commencé à s’accélérer à l’échelle mondiale dans les années 1950, et le monde a connu un changement prononcé au cours des trois dernières décennies.
Ce processus est particulièrement marqué dans les régions déjà sujettes à la sécheresse, telles que la région du Sahel en Afrique et la Méditerranée. Dans ces régions, la réduction des précipitations – combinée à l’augmentation de l’évaporation – crée une boucle de rétroaction : les sols plus secs absorbent moins de chaleur, laissant l’atmosphère plus chaude et intensifiant les conditions arides.
L’aridité est également influencée par la façon dont les gens utilisent et gèrent les terres.
Les pratiques agricoles non durables, le surpâturage et la déforestation dépouillent les sols de leur couverture végétale protectrice, les rendant vulnérables à l’érosion. Les techniques d’agriculture industrielle privilégient souvent les rendements à court terme, plutôt que la durabilité à long terme, en appauvrissant les nutriments et la matière organique essentiels pour des sols sains.
Au nord-est du Brésil, la déforestation perturbe les cycles locaux de l’eau et expose les sols à la dégradation. Sans végétation pour l’ancrer, la couche arable – essentielle à la croissance des plantes – est emportée par les pluies ou est emportée par les vents, emportant avec elle des nutriments vitaux.
Ces changements créent un cercle vicieux : les sols dégradés retiennent également moins d’eau et entraînent plus de ruissellement, ce qui réduit la capacité de récupération des terres.
Le sol, souvent négligé dans les discussions sur la résilience climatique, joue un rôle essentiel dans l’atténuation de l’aridité.
Les sols sains agissent comme des réservoirs, stockant l’eau et les nutriments dont les plantes dépendent. Ils soutiennent également la biodiversité souterraine et aérienne. Une seule cuillère à café de sol contient des milliards de micro-organismes qui aident à recycler les nutriments et à maintenir l’équilibre écologique.
À mesure que les sols se dégradent sous l’effet de l’aridité et de la mauvaise gestion, cette biodiversité diminue. Les communautés microbiennes, essentielles au cycle des nutriments et à la santé des plantes, déclinent. Lorsque les sols se compactent et perdent de la matière organique, la capacité de la terre à retenir l’eau diminue, ce qui la rend encore plus susceptible de se dessécher.
La perte de santé des sols crée des effets en cascade qui sapent les écosystèmes, la productivité agricole et la sécurité alimentaire.
Le cacao n’est qu’une des cultures touchées par l’empiètement de l’aridité croissante.
D’autres zones agricoles clés, y compris les greniers à blé du monde, sont également à risque. En Méditerranée, au Sahel africain et dans certaines parties de l’Ouest américain, l’aridité mine déjà l’agriculture et la biodiversité.
D’ici 2100, jusqu’à 5 milliards de personnes pourraient vivre dans les zones arides, soit près du double de la population actuelle de ces zones. Les raisons : la croissance démographique et l’expansion des zones arides à mesure que la planète se réchauffe. Cela exerce une pression immense sur les systèmes alimentaires. Elle peut également accélérer les migrations, car la baisse de la productivité agricole, la pénurie d’eau et l’aggravation des conditions de vie obligent les populations rurales à se déplacer à la recherche d’opportunités.
Les écosystèmes sont mis à rude épreuve par la diminution des ressources en eau. La faune migre ou meurt, et les espèces végétales adaptées à des conditions plus humides ne peuvent pas survivre. Les prairies délicates du Sahel, par exemple, cèdent rapidement la place aux arbustes du désert.
À l’échelle mondiale, les pertes économiques liées à l’aridification sont vertigineuses. En Afrique, l’aridité croissante a contribué à une baisse de 12 % du produit intérieur brut de 1990 à 2015. Les tempêtes de sable et de poussière, les incendies de forêt et la pénurie d’eau pèsent davantage sur les gouvernements, exacerbant la pauvreté et les crises sanitaires dans les régions les plus touchées.
L’aridité n’est pas une fatalité et ses effets ne sont totalement irréversibles. Mais des efforts mondiaux coordonnés sont essentiels pour freiner sa progression.
Les pays peuvent travailler ensemble à la restauration des terres dégradées en protégeant et en restaurant les écosystèmes, en améliorant la santé des sols et en encourageant les méthodes agricoles durables.
Les communautés peuvent gérer l’eau plus efficacement grâce à la collecte des eaux de pluie et à des systèmes d’irrigation avancés qui optimisent l’utilisation de l’eau. Les gouvernements peuvent réduire les facteurs du changement climatique en investissant dans les énergies renouvelables.
La poursuite de la collaboration internationale, y compris avec les entreprises, peut aider à partager les technologies pour rendre ces actions plus efficaces et disponibles dans le monde entier.
Pendant que vous savourez du chocolat en cette fête de Pâques, souvenez-vous des écosystèmes fragiles qui se cachent derrière. Au début de l’année 2025, le prix du cacao était proche de son plus haut niveau historique, en partie à cause des conditions sèches en Afrique.
En l’absence d’une action urgente pour lutter contre l’aridité, ce scénario pourrait devenir plus courant, et le cacao – et les concoctions sucrées qui en découlent – pourrait bien devenir un luxe rare.
Narcisa Pricope est membre de l'interface science-politique de la Convention des Nations unies sur la lutte contre la désertification (UNCCD), qui s'efforce de traduire les résultats et les évaluations scientifiques en recommandations pertinentes pour les politiques, notamment en collaborant avec différents groupes et organismes scientifiques.
17.04.2025 à 16:32
Ivanne Galant, Maîtresse de Conférences, Docteure en études hispaniques, Université Sorbonne Paris Nord
En Espagne, entre 2022 et 2024, le nombre de touristes étrangers a fait un bond de 31 %. Du côté de l’Andalousie, région chérie des visiteurs, c’est la surchauffe : à Grenade, à Malaga ou à Séville, les centres historiques se transforment, et les habitants peinent à se loger.
Depuis quelques semaines, les médias saluent la croissance espagnole : un PIB en hausse de 3,2 %, soit quatre fois plus que la moyenne européenne. The Guardian a même qualifié le gouvernement de Pedro Sánchez (PSOE) de « phare progressiste en ces temps obscurs », dans un éditorial mettant en avant les politiques d’immigration, la baisse de l’inflation, le développement des investissements et des infrastructures publiques, les efforts pour la transition écologique et, bien sûr, le tourisme. En 2024, 94 millions de touristes étrangers ont dépensé 126 milliards d’euros, pour une activité représentant 12 % du PIB du pays. Mais le journal britannique mettait aussi en garde contre les effets négatifs de cette industrie.
Depuis le boom touristique des années 1950-1960, les médias relaient régulièrement les chiffres spectaculaires liés à l’activité. Aujourd’hui, chacune des 17 communautés autonomes espagnoles publie ses propres statistiques, qui sont à manier toutefois avec précaution.
Ainsi, les méthodes de calcul varient, ne prenant pas toujours en compte les locations d’appartements touristiques de type Airbnb, comme à Séville où les proportions en résultent faussées : sur les 5 millions de touristes pour 2024, les Américains seraient les plus nombreux (290 000), suivis des Français (264 000), des Italiens (250 000) et des Britanniques (210 000). Ce manque de transparence concernant les appartements touristiques est d’ailleurs une des préoccupations de l’Union européenne, qui cherche à mieux comprendre et encadrer les dynamiques de ce marché.
Mais, quelle que soit la façon dont on les compte, les touristes sont bien là, et les dérives d’un tourisme de masse, déjà pointées du doigt par les habitants réunis en collectifs avant la pandémie, sont au cœur des préoccupations. Car, si les autorités et les médias présentent souvent l’activité comme source de travail et de revenus, les conséquences sur la vie locale sont bien réelles.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Le cas de Séville en Andalousie est particulièrement intéressant. Centre culturel et économique à l’époque musulmane, elle devient une ville riche et cosmopolite entre le XVIe et le XVIIIe siècles, car elle est, jusqu’en 1717, le seul port autorisé à recevoir les marchandises venant des colonies américaines. Un siècle plus tard, ce sont les voyageurs romantiques qui la mettent à l’honneur et en font le but de leur itinéraire espagnol : dans cette Andalousie perçue comme un Orient domestiqué, Séville séduit particulièrement, d’autant plus qu’elle est accessible en train.
La ville devient touristique et son image se façonne selon un dialogue asymétrique. D’une part, depuis l’étranger, des produits culturels mettent la ville à l’honneur, pouvant constituer une sorte de publicité passive – pensons à la cigarière Carmen, à ses multiples adaptations sur scène ou à l’écran. D’autre part, les institutions touristiques locales adaptent leur offre aux attentes des voyageurs.
Dès les années 1920, des aménagements urbains et des événements ont structuré l’activité touristique de Séville : le quartier de Santa Cruz a été rendu plus pittoresque, l’enceinte de l’exposition ibéro-américaine célébrée en 1929 est une visite incontournable. Plus tard, l’Expo 92 a accueilli 40 millions de visiteurs et a permis à la ville d’améliorer ses infrastructures.
Tous les espoirs étaient tournés vers l’après-Expo 92, avec l’idée de faire de la ville une mégalopole, mais les festivités avaient coûté trop cher, et les mauvaises herbes ont fini par envahir l’enceinte de l’exposition. Cela étant, forte de son aéroport agrandi et de sa gare flambant neuve, Séville a continué à attirer des voyageurs, embrassant cette industrie jusqu’à l’étouffement.
La ville connaît un tourisme de masse, avec des visiteurs qui restent en moyenne entre deux et trois nuits et qui se pressent dans le centre historique. Face à la saturation, la mairie a tenté de placer sur la carte de nouveaux repères : l’imposante structure en bois (Metropol Parasol-Las Setas) et la tour Pelli haute de 40 étages – qui a failli coûter à la ville son inscription au patrimoine mondial de l’Unesco en raison de sa hauteur impactant le skyline sévillan. Ces deux constructions modernes, œuvres de deux « starchitectes », initialement controversées pour leur esthétique et leur coût, se sont finalement intégrées à la ville.
Il a également été question de rendre touristiques des quartiers auparavant délaissés par les visiteurs : Triana, ancien quartier gitan, a vu s’ouvrir le Centro Cerámica en 2014 ; le Castillo San Jorge, ancien siège de l’Inquisition, et ses marchés alimentaires se rapprochent des Food hall prisés des touristes. Même chose pour la Macarena, avec la création du musée de la basilique, l’exhumation de la dépouille du général franquiste Queipo de Llano, ou encore la rénovation de l’église baroque San Luis des Français. La mairie a également annoncé que les quartiers de Nervión, la Cartuja et Santa Justa devraient apparaître sur les futurs plans distribués aux touristes.
Une autre stratégie consiste à capitaliser sur les films et séries tournés dans la ville. Les « films commissions » encouragent les tournages en insistant sur la logique du win-win (gagnant-gagnant) qu’ils entraînent : il y a des avantages fiscaux pour les productions, des retombées économiques locales au moment du tournage et une affluence touristique une fois l’œuvre diffusée. Lawrence d’Arabie, Star Wars, Game of Thrones, sont autant de références mises en valeur dans des circuits touristiques, et ce sera bientôt le cas des séries Berlin (spin-off de La Casa de Papel) et Sherlock Holmes (Amazon).
Il peut aussi être question de varier les expériences et de s’adresser à plusieurs publics en développant la promotion d’événements sportifs ou de festivals, en célébrant des anniversaires (celui, en 2018, de la naissance du peintre du XVIIe siècle Bartolomé Esteban Murillo ; celui, en 2025, de la création de Carmen par Bizet), en se positionnant comme une destination idéale pour le tourisme de congrès, en encourageant les voyageurs à venir en été avec la campagne Passion for Summer) (qui ne mentionnait pas les 40 °C de moyenne de juin à septembre), ou encore en ouvrant de nouvelles lignes aériennes, récemment vers la Turquie et le Maroc.
Mais, comme on dit en espagnol « Una de cal y otra de arena » (« On souffle le chaud et le froid ») : tout semble être mis en œuvre pour attirer toujours plus de touristes, au moyen d’un double discours qui, finalement, fait fi des conséquences néfastes de l’activité sur les habitants. L’un des principaux problèmes à trait au logement saisonnier qui s’est professionnalisé, modifiant les quartiers et rendant difficile l’accès à la location pour les habitants. Le premier décret de la Junta de Andalucía – au niveau régional – date de 2016 et visait à réguler la remise des licences aux propriétaires.
En 2018, le mouvement populaire Colectivo Asamblea Contra la Turistización de Sevilla, dit Cactus, a commencé à hausser le ton, tandis qu’Antonio Muñoz, conseiller municipal PSOE chargé de l’habitat urbain, la culture et le tourisme, faisait campagne contre les appartements illégaux, tout en rassurant les habitants : Séville n’est pas au niveau de Barcelone. Après la parenthèse imposée par le Covid, les discussions entre la Région et la Ville ont repris de plus belle, sans pour autant réussir à agir de concert, tandis qu’un autre collectif d’habitants, Sevilla se muere, voyait le jour.
En juin 2023, tandis que la Junta autorisait les mairies à limiter les appartements touristiques, celle de Séville (tenue par le parti conservateur Partido Popular, PP) ne parvenait pas à rédiger un texte. Pendant ce temps, la Junta continuait de distribuer des licences (environ 25 par jour, en juillet 2024).
En mars 2024, le PP a proposé de limiter à 10 % la part de logements touristiques par quartier. Le PSOE, initialement d’accord, a demandé un moratoire et a proposé de baisser le seuil à 2,5 % : accepter les 10 %, c’était ouvrir la porte à 23 000 appartements touristiques en plus des 9 500 existants. Finalement, le décret du PP a été adopté en octobre 2024, avec le soutien de l’extrême droite Vox.
Mais les problèmes persistent : les décrets ne sont jamais rétroactifs, et dans les quartiers du centre, le mal est fait – environ 18 % d’appartements touristiques dans le centre monumental –, et d’autres problèmes s’ajoutent : uniformisation des commerces, perte d’authenticité, saturation et privatisation de l’espace public avec, notamment, l’invasion des terrasses et l'augmentation du nombre de bars, un phénomène connu sous le nom de « baretización ».
Séville, comme d’autres villes à forte attractivité touristique, oscille entre mise en valeur de son identité et mise en marché de celle-ci. La question n’est plus de savoir si le tourisme est bénéfique, mais à quelles conditions il peut être viable – pour les visiteurs, pour les habitants et pour la ville elle-même.
Ivanne Galant ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
17.04.2025 à 16:30
Paolo Mazza, Associate Professor of Finance, LEM-CNRS 9221, IÉSEG School of Management
Augmenter la taxe sur les transactions financières semble aller de soi. Mais gare aux effets de bord. Des solutions alternatives existent pour réguler sans produire de dysfonctionnement des marchés.
Depuis l’annonce du projet de loi de finances et la décision du Sénat de rehausser la taxe sur les transactions financières (TTF) de 0,3 % à 0,4 % qui sera mise en application le 1er avril 2025. Soit une augmentation nette de 33 %. Les articles et les prises de position dans la presse se multiplient depuis. Toutefois, ces analyses se concentrent souvent sur les gains fiscaux pour l’État et l’usage potentiel des recettes générées, occultant un aspect fondamental : l’impact de cette taxe sur les marchés financiers eux-mêmes.
Pour rappel, la TTF concerne les sociétés dont le siège social est en France et dont la capitalisation boursière dépasse un milliard d’euros, soit 121 entreprises au 1er décembre 2024, un périmètre proche de l’indice SBF120. Pourtant, loin d’être un simple prélèvement fiscal, cette taxe modifie le comportement des investisseurs et, par extension, le fonctionnement des marchés.
L’idée de taxer les transactions financières a été initialement proposée par l’économiste James Tobin en 1972, dans un contexte de forte volatilité des marchés des changes après l’abandon du système de Bretton Woods. Tobin souhaitait instaurer une taxe pour limiter la spéculation excessive sur les devises et stabiliser les fluctuations monétaires. Depuis, ce concept a été étendu à d’autres segments des marchés financiers, principalement sous un prisme fiscal. Cette idée a été implémentée dans plusieurs pays, dans le but premier de combler un déficit budgétaire croissant : en Suède (de 1984 à 1990), Italie (2013), Espagne (2021). La France a quant à elle débuté avec une taxe à 0,2 % en 2012 avant de la rehausser à 0,3 % en 2013.
Cependant, une approche focalisée uniquement sur les gains fiscaux occulte une réalité : une taxe sur les transactions financières influence directement le comportement des acteurs de marché, avec des effets parfois contre-productifs, malgré les stratégies existantes pour en atténuer l’impact (trading intra-journalier, recours aux produits dérivés, etc.).
Les marchés financiers reposent largement sur la capacité des acteurs à fournir de la liquidité, c’est-à-dire à assurer la présence constante d’acheteurs et de vendeurs. Introduire une TTF revient à taxer un mécanisme essentiel à la transparence, à la qualité et à l’efficience des marchés.
De nombreuses études académiques ont montré que, contrairement aux attentes initiales de Tobin, la taxe n’améliore pas la stabilité des marchés. Au contraire, elle réduit la liquidité et accroît la volatilité des prix, rendant les transactions plus coûteuses pour tous les investisseurs.
Abonnez-vous dès aujourd’hui !
Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).
Les traders à haute fréquence (HFTs), bien qu’ils ne soient pas directement visés par la TTF, voient leurs incitations à fournir de la liquidité diminuer. Avec des volumes réduits, ils deviennent trop exposés et réalisent moins de transactions. Or, ces acteurs jouent un rôle clé en assurant un flux constant d’ordres, facilitant ainsi la formation des prix et la fluidité du marché. Leur retrait entraîne un élargissement des écarts de cotation (bid-ask spreads), ce qui signifie que les investisseurs doivent payer plus cher pour acheter un actif et en retirent moins lorsqu’ils le vendent. Par ailleurs, une réduction du nombre de transactions rend les prix plus erratiques, diminuant ainsi l’efficience du marché.
En outre, la taxation modifie le comportement des investisseurs, qui réduisent leur exposition aux marchés taxés. Cela entraîne une contraction des volumes d’échange et une augmentation de la volatilité, allant à l’encontre de l’objectif initial de la taxe. Une TTF peut même dissuader les investisseurs institutionnels, pourtant essentiels à la stabilisation des marchés en fournissant une liquidité stable et en limitant les variations extrêmes des prix.
Les traders individuels, qui représentent une part croissante des échanges financiers aux États-Unis et en France, sont particulièrement vulnérables aux effets d’une TTF. Contrairement aux investisseurs institutionnels, ils ne disposent pas des mêmes outils pour optimiser leurs stratégies et réduire leurs coûts de transaction. En augmentant le coût des transactions et la volatilité des prix, cette taxe pénalise directement les petits investisseurs, les exposant à des marchés moins prévisibles et plus coûteux.
Par ailleurs, certains acteurs du marché pourraient contourner la taxe en délocalisant leurs transactions vers des places boursières non soumises à la TTF. Ce phénomène a déjà été observé dans plusieurs juridictions où une taxation des transactions financières a entraîné une migration des volumes vers d’autres marchés. Par exemple, dans le cas de la Suède, 60 % du volume de transactions sur les 11 actions les plus négociées a été transféré vers Londres en 1986, juste après le passage de la TTF à 1 % et plus de la moitié des échanges boursiers suédois se faisaient hors du pays avant l’abolition de la taxe en 1990.
Un autre effet pervers concerne l’investissement passif. De nombreux particuliers investissent via des ETF (fonds indiciels cotés), qui reposent sur des volumes de transactions élevés pour suivre les indices de référence. Une augmentation de la TTF perturbe la gestion de ces fonds et réduit leur performance, répercutant presque automatiquement le montant de la perte vers les investisseurs. Au final, les épargnants, notamment ceux investissant pour leur retraite, en subissent à nouveau les conséquences à long terme.
À lire aussi : La taxation des transactions financières : une opportunité à réinventer
Plutôt qu’une taxe rigide et uniforme, une solution de rechange pourrait consister à introduire une TTF variable, adaptée aux conditions du marché. Cette approche a été explorée par plusieurs chercheurs, dont, par exemple, Eduardo Dávila de Yale University. L’une des pistes envisageables, en se basant sur ces études, serait d’ajuster le niveau de la taxe en fonction de la liquidité : lorsque la liquidité est faible, une taxation plus importante pourrait dissuader les comportements spéculatifs nuisibles. À l’inverse, en période de forte liquidité, la taxe pourrait être allégée afin de ne pas pénaliser les échanges légitimes.
Ce modèle de taxation adaptative offrirait une solution plus équilibrée pour réguler les marchés financiers tout en permettant leur bon fonctionnement. Plutôt que d’appliquer une taxe fixe et uniforme à tous les acteurs du marché, cette approche flexible tiendrait compte des moments où les marchés deviennent particulièrement spéculatifs. En identifiant ces périodes de manière précise, on pourrait ajuster la taxation en fonction des besoins réels du marché, sans freiner les activités nécessaires et bénéfiques. Cette méthode permettrait donc de mieux encadrer les excès financiers tout en évitant de ralentir les échanges et les investissements qui sont essentiels à la croissance économique. En somme, une telle taxation flexible et surveillée de près serait plus efficace qu’une taxe standard qui ne prendrait pas en compte les fluctuations du marché.
L’instauration d’une taxe sur les transactions financières aura des effets secondaires sur les marchés et leurs divers participants. En réduisant la liquidité et en augmentant les coûts de transaction, la TTF risque de nuire à l’efficience des marchés et de pénaliser les investisseurs individuels.
Plutôt que d’imposer une taxe uniforme, une TTF ajustable en fonction des conditions du marché pourrait représenter une alternative plus équilibrée. En tenant compte des variations de liquidité et de la nature des acteurs de marché, un tel dispositif éviterait certains effets pervers observés avec les taxes fixes, tout en conservant un objectif de régulation efficace. Il s’agirait ainsi de repenser la taxation financière en s’adaptant aux dynamiques de marché, plutôt que d’appliquer une approche rigide aux conséquences potentiellement dommageables.
Paolo Mazza ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.