31.03.2025 à 11:58
Florent Noël, Professeur, directeur délégué à la recherche, IAE Paris – Sorbonne Business School
Benoît Grasser, Vice-président adjoint à la politique scientifique, Université de Lorraine
L’autonomie au travail n’est pas toujours désirable. Son attrait dépend notamment de l’environnement de l’organisation. Devenir autonome, cela s’apprend et cela requiert du soutien, une condition nécessaire mais pas suffisante. Car les salariés le savent : dans certaines situations, l’autonomie peut être un piège.
Il ne faut souvent pas longtemps, lors d’une discussion sur la liberté et la responsabilisation dans le travail, pour que s’élève une voix faisant remarquer que certains travailleurs sont réticents, que d’autres en sont incapables et que beaucoup sont les deux à la fois. Or, si certains peuvent revendiquer leur rejet de l’autonomie, c’est peut-être qu’ils n’y ont jamais vraiment goûté ou qu’ils ne savent pas comment être autonome, ou bien encore que l’octroi d’autonomie est considéré comme un marché de dupes au regard du peu de réelle liberté d’agir qui l’accompagne parfois.
On pourrait du reste noter que savoir qu’on ne souhaite pas être autonome ou savoir dans quelle situation on peut l’être ou pas, c’est déjà être en mesure d’exercer un certain niveau d’autonomie.
L’autonomie, entendue comme « le fait de se gouverner soi-même » ne manque pas de charme et on peut avec Jean-Jacques Rousseau (Du contrat social) clamer que « renoncer à sa liberté, c’est renoncer à sa qualité d’homme, aux droits de l’humanité, même à ses devoirs ». On notera toutefois que dans le cadre d’une organisation, des individus reliés par des contrats de travail impliquant toujours un degré de subordination, dépendants les uns des autres pour obtenir les ressources nécessaires à la réalisation de leur travail, coordonnés par des processus pour satisfaire un client, ne sont jamais complètement autonomes.
Inversement, les ergonomes nous l’enseignent, le travailleur « presse-bouton » ne disposant d’aucune marge de manœuvre décisionnelle ou comportementale n’existe pas davantage. Par ailleurs, comme le rappelle Sen, la liberté n’est pas seulement l’absence de contraintes, mais aussi la capacité réelle de pouvoir faire ce qui a de la valeur pour soi. En ce sens, l’autonomie au travail correspond à la fois à la possibilité d’initiative et à la possibilité d’agir dans le sens de ce qui semble être réellement important pour soi.
La question de l’autonomie au travail est un motif récurrent de la théorie des organisations. Faut-il prescrire et contrôler le travail autant que possible comme le suggèrent les approches managériales inspirées du taylorisme ? Ou faut-il au contraire en appeler à l’expertise, au sens de la situation, à la compétence de celui qui fait ? Faut-il trancher cette question au nom de l’efficacité, d’un idéal d’émancipation par le travail ou de la quête de sens et de bien-être ? Les réponses à ces questions mêlent très probablement l’ensemble de ces dimensions, mais le vrai débat porte sur les processus d’autonomisation plus que sur l’autonomie elle-même : comment apprendre individuellement et collectivement à être autonome ?
Cet apprentissage est d’autant plus nécessaire que l’autonomie est au croisement d’intérêts qui ne sont pas forcément contradictoires. L’autonomie est souvent conquise par les salariés. On peut le voir comme une position de principe : s’émanciper ne se discute pas. Mais, ils peuvent également la rechercher parce qu’elle procure des marges de manœuvre qui leur sont nécessaires pour rendre leur travail plus soutenable ou pour faire ce qui à leur sens est du « bon travail ». Exercer un contrôle sur la façon d’exercer son travail, maîtriser les relations dans lesquelles on s’implique sont des moyens de rééquilibrer les exigences du travail et les ressources dont on dispose pour y répondre. Ce faisant, l’exercice de l’autonomie peut conduire à développer des compétences qui en retour renforcent l’autonomie.
À lire aussi : Une entreprise réellement « libérée » est avant tout libérante
De l’autre côté, l’autonomie est aussi souvent requise par l’encadrement. C’est le cas chaque fois que le travail est trop complexe, trop relationnel ou trop peu répétitif pour qu’il puisse être standardisé et prescrit. Accorder de l’autonomie aux salariés, c’est alors s’en remettre à leur expertise et à leur compétence pour que le travail puisse se faire de façon efficace. Ce faisant, lorsque l’autonomie est utilisée à bon escient selon l’employeur, c’est-à-dire de façon à produire de la valeur pour l’organisation, il est probable qu’elle entraîne davantage encore de délégation.
L’apprentissage de l’autonomie est donc une affaire de pilotage fin. Comme nous avons pu l’observer dans des organisations qui ne revendiquent pas un style de management particulièrement fondé sur l’autonomie, en l’occurrence les agences de France Travail (ex Pôle emploi) : les salariés disposent au quotidien d’une certaine marge de manœuvre, soit parce qu’on la leur accorde explicitement, soit parce qu’il y a toujours des failles dans la prescription. Ils ne peuvent toutefois réellement s’en saisir que s’ils ne rencontrent pas d’obstacles individuels – il faut croire en ses capacités et pour cela avoir des capacités – ou d’obstacles collectifs, il faut d’une part que le management accepte voire encourage l’exercice de ces marges de manœuvre et d’autre part que les salariés aient réellement les moyens de faire ce qu’ils jugeraient adaptés à la situation.
Abonnez-vous dès aujourd’hui !
Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).
Lorsque ces conditions sont réunies, des boucles vertueuses d’apprentissage peuvent se mettre en place. À mesure que les salariés font usage de leur autonomie pour viser des réalisations ayant de la valeur pour eux, ils font l’expérience de leurs capacités et peuvent découvrir le plaisir qu’il y a à bénéficier d’un certain degré de liberté. Parallèlement, à mesure qu’ils font usage de leur autonomie pour viser des réalisations ayant de la valeur pour l’organisation, il est probable qu’ils conquièrent la confiance de leur encadrement et puissent bénéficier de davantage de ressources, du temps et des budgets qui renforceront également leurs capacités.
Le niveau d’autonomie est donc systématiquement l’objet d’une négociation et d’un apprentissage collectif, d’une interaction entre des capacités et une volonté individuelle et un environnement plus ou moins « capacitant ». « Libérer » le travail ne se décrète pas, cela s’apprend. Il faut explorer les marges de manœuvre dont on dispose réellement, au-delà de ce qui en est dit, et savoir quoi en faire, ce qui questionne les motivations de l’individu et leur alignement sur les finalités de l’organisation. Une fois la dynamique enclenchée, il faut ensuite l’entretenir.
C’est, d’ailleurs, à ce stade que l’autonomie peut être mobilisée pour renforcer l’autonomie elle-même : se mettre en position d’apprendre et s’organiser individuellement et collectivement pour accumuler les ressources permettant de dégager plus de marges de manœuvre. Cela passe par gagner du temps, gagner la confiance du management, redéfinir les priorités, proposer des axes de développement pour soi et pour l’entreprise…
On comprend mieux les réticences affichées que nous rappelions au début de cet article : l’autonomie n’est pas à la portée de tous les salariés et il faut toujours une petite dose de savoir-faire au départ. Cette dernière peut s’acquérir si elle venait à manquer. Mais l’autonomie n’est surtout pas à la portée de toutes les organisations.
L’autonomie est parfois perçue par les salariés comme un piège à éviter. Il y a tout d’abord le risque qu’elle ne soit qu’une injonction paradoxale. C’est le cas lorsque l’autonomie se limiterait à dégager des marges de manœuvre pour viser des objectifs auxquels les salariés n’adhèrent pas voire réprouvent. Il faut donc que l’organisation puisse ouvrir ses finalités aux propositions qui émanent des salariés qui la peuplent.
Ouvrir des espaces d’apprentissage individuel et collectif – et s’en nourrir – est une question de volonté managériale et de design organisationnel. Lorsque l’organisation ne laisse pas faire, n’autorise pas les prises d’initiative ou laisse ceux qui en prennent démunis face aux manques de moyens, le piège de l’autonomie se referme. Sur ce point, le management de proximité doit savoir lâcher prise, c’est une évidence. Il faut aussi réfléchir à la rémanence des contraintes tapies dans les outils de travail et les processus de gestion qu’on déroule, sans toujours prendre pleinement conscience de l’enfermement qu’ils génèrent.
Il y a enfin le risque de polarisation. Il est tout à fait probable que les démarches managériales visant à s’appuyer sur l’autonomie éveillent prioritairement l’intérêt de ceux qui ont le plus confiance dans leur potentiel et qui pensent pouvoir porter des initiatives qui seront accueillies favorablement. Ceux-là ont peu à perdre. Ils ne peuvent que bénéficier du processus d’automatisation.
À l’opposé, ceux qui doutent d’eux-mêmes ou du caractère « capacitant » de leur environnement professionnel pourraient légitimement hésiter à entrer dans ces apprentissages. Ils n’auront pas l’occasion de montrer ce qu’ils peuvent faire, d’expérimenter la satisfaction de se sentir compétents et de participer au développement de leur organisation. Il est fort probable qu’on intensifie pour eux la prescription. La responsabilité initiale leur incombe peut-être, mais on peut encore se demander s’il ne serait pas du devoir et de l’intérêt de l’organisation d’aller les chercher.
Florent Noël est chercheur dans une équipe de recherche dont les travaux reçoivent le concours de l'IPSI (Institution pour le progrès social dans l'industrie). L'IPSI n'est intervenue a aucun moment dans la rédaction de cet article et de la recherche dont il est issu. La recherche dont cet article est issu a été réalisée dans le cadre d'un contrat de recherche avec la direction des statistiques, études & évaluation de Pôle Emploi (devenu depuis France Travail)
La recherche dont cet article est issu a été réalisée dans le cadre d'un contrat de recherche avec la direction des statistiques, études & évaluation de Pôle Emploi (devenu depuis France Travail). Benoît Grasser était membre de l'équipe de chercheurs qui a travaillé dans le cadre de ce contrat de recherche.
31.03.2025 à 11:58
Valérie Petit, Full Professor in Management, ESSCA School of Management
L’hubris des dirigeants est souvent mis en cause quand des dysfonctionnements surviennent. Mais de quoi parle-t-on précisément ? Comment s’en prémunir individuellement, et protéger les entreprises mais aussi la démocratie ?
Huit cents milliards de capitalisation boursière à Wall Street perdus et un recul de 50 % à 80 % des ventes de véhicules : c’est le bilan catastrophique de Tesla ces trois derniers mois. C’est aussi, possiblement, le chiffrage le plus précis de l’hubris d’Elon Musk depuis que ce dernier a pris ses quartiers au cœur du pouvoir politique américain. Si cet effondrement surprend les commentateurs et les investisseurs, en revanche, il n’étonne guère les chercheurs en gestion qui, depuis près de trente ans, se sont attachés à mesurer le coût de l’hubris du dirigeant pour son entreprise.
C’est en 1986 que Richard Roll, professeur de finance à Caltech, au cœur de la Silicon Valley, publie les premiers travaux sur l’hubris du dirigeant. À l’époque, il tente d’expliquer pourquoi certains CEO paient trop cher certaines acquisitions. Après avoir épuisé toutes les explications habituelles, il finit par conclure qu’une partie du surcoût peut être imputée à l’égo du dirigeant et à la perte, par celui-ci, du sens de la mesure : c’est ce que Roll nomme l’hypothèse d’hubris. À sa suite, de nombreux travaux en gestion souligneront l’impact négatif de l’hubris du dirigeant sur les choix stratégiques et la performance financière de leurs entreprises. Dans les années 2000, la révélation de scandales tels qu’Enron, Lehman Brothers ou encore Vivendi Universal, donnant à voir la combinaison dramatique de l’égo, de la mauvaise gestion voire de la corruption placera définitivement le risque d’hubris du dirigeant à l’agenda des scientifiques et des parties prenantes. Mais comment mesurer et prévenir ce risque ?
La chose est compliquée, car il faut d’abord définir ce qu’est l’hubris ; or, le terme fait moins référence à un concept qu’à un ensemble de mythes mettant en scène l’arrogance et l’insolence funestes de l’homme face aux dieux. On pense au mythe d’Icare qui, méprisant les conseils de son père, vole trop près du soleil pour finir dans la mer, mais aussi à celui de Phaéton, qui, tenant à conduire le char du dieu Soleil à la place de son père Apollon, met le feu aux nuages.
Dans l’Antiquité, l’hubris est considérée comme un crime. Pour Platon : « Quand déraisonnablement, un désir nous entraîne vers les plaisirs et nous gouverne, ce gouvernement reçoit le nom d’hybris ». Et Aristote de préciser le plaisir qu’y trouve celui qui en souffre :
À Rome, Suétone brosse le portrait des 12 césars, ces hommes qui disposent d’un pouvoir tellement grand que leur psyché s’en trouve altérée. L’histoire retiendra plutôt la folie de Néron que la modération de Marc Aurèle. Deux mille ans plus tard, les historiens parleront de « césarite », la maladie des césars, pour désigner cette maladie du pouvoir absolu, souvent résumée par la phrase de Lord Acton : « Le pouvoir corrompt, et le pouvoir absolu corrompt absolument. » L’idée que le pouvoir rend fou s’ancre définitivement dans la croyance populaire.
Abonnez-vous dès aujourd’hui !
Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).
Mais comment scientifiquement mesurer cela ? Et surtout comment distinguer dans cette « folie » ce qui appartient à l’individu en propre (par exemple, un trouble de la personnalité narcissique) et ce qui relève des effets du pouvoir auquel il est exposé ?
Les premières tentatives de mesure de l’hubris du dirigeant peuvent prêter à sourire : occurrence du pronom « je » dans les discours du dirigeant, taille de sa photo dans le rapport annuel… les chercheurs mobilisent des mesures très approximatives. Par ailleurs, la clarté conceptuelle n’est pas toujours au rendez-vous : sous le label « hubris » se retrouvent des notions pourtant distinctes telles que le narcissisme (un trouble de la personnalité), la surconfiance (un biais cognitif) ou l’orgueil (un vice). En 2009, la recherche connaît un tournant. Lord David Owen, médecin psychiatre et ancien ministre des affaires étrangères britannique, propose un tableau clinique du syndrome d’hubris, regroupant 14 items diagnostiques. Parmi ceux-ci, on retrouve :
des aspects du narcissisme (il affiche une confiance excessive dans son propre jugement et le mépris pour les conseils ou les critiques des autres),
de l’asocialité (il perd le contact avec la réalité, souvent associée à une isolation progressive),
de l’histrionisme (quand les choses tournent mal, il continue d’afficher une grande confiance en soi et ignore les « détails » ou « l’intendance » qui ne suit pas),
enrichie de quelques items originaux (il utilise le « nous » en lieu et place du « je », il se croit le seul qualifié éternellement pour son poste).
En 2012, nous avons transposé ce tableau au contexte de la direction d’entreprise et de l’hubris du dirigeant en décrivant les comportements d’hubris des dirigeants à trois niveaux :
le rapport à soi (style communicationnel théâtral et égocentré, décisions stratégiques hasardeuses, stratégie irréaliste et ambition démesurée, enracinement au pouvoir et incapacité à transmettre le pouvoir),
le rapport aux autres (management destructeur incluant agression, harcèlement, menace, intimidation, refus de toute critique, absence d’empathie pour les salariés)
et le rapport au monde (manquement à l’éthique, contestation de l’autorité de la loi, du marché, de la justice, refus de prendre la responsabilité).
Ces travaux recensaient les principaux symptômes de l’hubris (en termes de comportements). Restait la question que tout le monde se pose : quelle est l’origine de cette maladie du pouvoir ? Pourquoi certains leaders tombent-ils malades et d’autres pas ? Comment éviter la contagion et surtout quels gestes barrières mettre en place pour prévenir les ravages individuels, économiques et politiques de l’hubris des leaders ?
À lire aussi : Du populisme de plateforme au populisme politique : Elon Musk change d’échelle
Récemment, nous avons commencé à formuler des hypothèses radicalement nouvelles sur ce qu’est réellement l’hubris, cette maladie du pouvoir. Pour ce faire, partant de la citation de Lord John Acton (« Le pouvoir corrompt, et le pouvoir absolu corrompt absolument »), nous nous sommes concentrés non pas sur les comportements associés à l’hubris (les symptômes), mais sur la nature même de l’intoxication par le pouvoir de la psyché et des comportements du dirigeant (la maladie). Qu’est-ce qui dans le pouvoir nous corrompt ?
Notre hypothèse s’appuie y compris sur l’expérience politique de l’auteure qui, lors d’un mandat parlementaire de 5 ans, a pu observer et ressentir les effets du pouvoir sur la psyché des leaders. Partant de ce récit auto-ethnographique, nos travaux récents formulent plusieurs propositions pour mieux comprendre et prévenir le risque d’hubris.
Premièrement, l’hubris est bien un syndrome (comme le burn-out), lié aux conditions de travail particulières (l’exercice du pouvoir), qui débute et qui cesse avec l’exposition du dirigeant au pouvoir. En conséquence, la meilleure solution pour prévenir et guérir l’hubris est d’éloigner le dirigeant du pouvoir ou de disperser, encadrer ou partager celui-ci.
Deuxièmement, l’hubris n’est pas la combinaison d’autres troubles (narcissique, asocial, paranoïaque, histrionique, schizotypique), de traits psychologiques (égocentrisme, manque d’empathie, surconfiance) ou encore de comportements dysfonctionnels (violence, agressivité, théâtralité, harcèlement), mais l’intoxication de ceux-ci par le pouvoir. Ainsi, un dirigeant narcissique pourra dire : « Je suis le plus génial entrepreneur que la tech a jamais connu. » S’il souffre d’hubris, il dira plutôt : « Mon entreprise est la meilleure car j’en suis le dirigeant ; sans moi aux manettes, elle n’est rien. »
L’intoxication par le pouvoir résulte d’une relation dysfonctionnelle du leader au pouvoir : lui et le pouvoir ne font plus qu’un, ils fusionnent. Mais là où, par arrogance, le dirigeant croit posséder le pouvoir, c’est en réalité celui-ci qui le possède, faisant de lui son agent, sa créature entièrement dédiée à son culte qu’il confond avec le culte de lui-même. Celui qui prend alors volontiers des postures de dominant dans ses relations avec autrui et le monde vit en réalité, au plus profond de lui, une soumission et une aliénation complète au pouvoir. En conséquence, on ne luttera pas contre l’hubris en se focalisant sur la personnalité ou les comportements du dirigeant, mais en questionnant sa relation (et la nôtre) avec le pouvoir et sa nature addictive et aliénante.
Troisièmement, pour expliquer l’emprise du pouvoir sur l’individu, il faut comprendre la nature particulière de ses effets corrupteurs. Nous faisons l’hypothèse que la relation du dirigeant au pouvoir relève de la sacralisation, et que la nature de sa relation intime avec celui-ci peut être qualifiée de numineuse. Pris dans les filets du pouvoir, sidérée et émotionnellement débordé, le dirigeant est tel un mystique. Ainsi, dans cet univers soi-disant profane de l’entreprise, le sacré et l’irrationnel ressurgissent dans la relation intime, souvent tue, du dirigeant au pouvoir. Continuer à ignorer l’importance de la relation au pouvoir ou en refouler la dimension irrationnelle et spirituelle est l’un des facteurs les plus évidents du risque d’hubris.
Alors que faire pour éviter aux dirigeants et aux entreprises de succomber à l’hubris ?
Une voie individuelle consisterait pour le dirigeant à méditer chaque jour sur le pouvoir et sa relation, sa place, ses effets. C’est ce que fit l’empereur Marc-Aurèle dans ses méditations et qui lui permit d’échapper à la césarite
Une voie institutionnelle consisterait à renforcer les mécanismes de gouvernance d’entreprise favorisant le turnover et le partage des fonctions au sommet des entreprises.
Une voie collective enfin questionnerait notre responsabilité dans cette culture idolâtre du pouvoir qui rend possible la sacralisation et, in fine, l’intoxication par le pouvoir. Ceci supposerait notamment d’en finir avec le mythe du charisme (il nous faut un individu exceptionnel, hors norme, quitte à hériter d’un hors la loi), le mythe de l’incarnation nécessaire (il est l’âme/l’incarnation de l’entreprise, vous comprenez) ou encore l’essentialisation de la direction (les dirigeants, vous savez, ils sont différents, plus agressifs, narcissiques, il faut faire avec).
Ajoutés à une saine obsession de la dispersion du pouvoir, ces quelques gestes barrières contre une culture toxique du pouvoir sont plus que jamais nécessaires face à ce nouveau risque systémique pour les entreprises et les démocraties.
Valérie Petit ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
30.03.2025 à 16:36
Bantignies Frédéric, Directeur de Recherche CNRS, Université de Montpellier
Giacomo Cavalli, Directeur de recherche CNRS, Université de Montpellier
Les marques épigénétiques sont des modifications chimiques de l’ADN qui vont permettre d’activer ou d’éteindre certains gènes. Elles sont reproduites lorsque les cellules se divisent mais peuvent-elles l’être entre deux générations ?
À la base de l’information génétique, l’ADN est la molécule fondatrice de la vie terrestre. Cependant, elle ne peut pas fonctionner seule, car son information doit être interprétée par des protéines présentes dans le noyau des cellules, rajoutant une information supplémentaire que l’on nomme information épigénétique (« épi » provenant du préfixe grec qui signifie « au-dessus »).
À chaque génération, nous héritons de l’ADN contenu dans les chromosomes de nos deux parents, sous la forme de 23 chromosomes de la mère et 23 chromosomes du père, pour aboutir aux 46 chromosomes de l’espèce humaine (ce nombre varie selon les espèces) dans chacune de nos cellules. Au cours du développement, nos cellules se divisent un très grand nombre de fois pour former des individus adultes (constitués de plus de 30 000 milliards de cellules !).
L’équation paraît relativement simple, car la séquence d’ADN des 46 chromosomes se recopie à l’identique (durant la « réplication de l’ADN ») avant de se partager équitablement dans deux cellules « filles » lors de chaque division cellulaire (appelée « mitose »). Malgré cette information génétique identique, nos cellules ne sont pas toutes pareilles. Chacune d’entre elles se différencie pour produire la variété de tissus et d’organes qui constituent notre corps. C’est justement l’information épigénétique qui permet cette différenciation.
Que sait-on de ces mécanismes épigénétiques qui font l’objet d’intenses recherches depuis le début du siècle ? Ils impliquent un grand nombre de facteurs cellulaires, dont on commence à comprendre la fonction. Au sein des chromosomes, l’ADN, chargé négativement, s’enroule autour de protéines chargées positivement, les histones. Des centaines de facteurs se lient, directement à l’ADN ou aux histones, pour former ce que l’on pourrait qualifier de « gaine épigénétique ».
À lire aussi : Épigénétique, inactivation du chromosome X et santé des femmes : conversation avec Edith Heard
Cette gaine est loin d’être homogène. Elle contient des facteurs qui peuvent déposer, sur la molécule d’ADN ou les histones, des petites molécules qui agissent comme des « marque-pages » que l’on pourrait mettre dans un livre à des endroits précis. Ce sont les fameuses « marques épigénétiques » (méthylations, acétylations…) et un grand nombre d’entre elles se retrouve au niveau des gènes qui sont situés tout le long de nos chromosomes. Ces marques sont indispensables, elles diffèrent dans les différents types cellulaires que composent un organisme et contribuent directement à la régulation de l’expression des gènes (par exemple, des gènes importants pour la fonction du foie s’exprimeront dans les cellules du foie, tandis que les gènes spécifiques des neurones ou des cellules musculaires y seront éteints). La question est désormais de savoir si ces mécanismes épigénétiques influencent aussi la transmission de l’information génétique.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Prenons tout d’abord le cas le plus simple de la mitose (division cellulaire). La plupart des cellules doivent transmettre leur fonction, c’est-à-dire reproduire l’expression de la panoplie de gènes qui leur sont propres dans leurs cellules filles. Un grand bouleversement se produit lors de la mitose avec un regroupement et une condensation importante des chromosomes et donc de l’ADN qui les composent. Lors de cette étape, l’ADN reste enroulé autour des histones, mais de nombreuses protéines de la gaine s’en trouvent dissociées. En revanche, la plupart des marques sur l’ADN et les histones sont conservées. Ainsi, des repères épigénétiques vont subsister sur et autour de l’ADN. Une fois la mitose terminée, ces marques vont permettre aux cellules filles de reconstruire rapidement l’architecture des gènes le long des chromosomes, qui porteront encore les marques épigénétiques indispensables et pourront à nouveau recruter les facteurs associés à leur fonction. Les mécanismes épigénétiques participent donc directement à l’héritage de la fonction cellulaire.
Est-ce que cette information épigénétique pourrait aussi être transmise aux générations futures ? Dans ce cas, le challenge est bien plus important. L’information doit être transmise aux gamètes mâle et femelle qui fusionnent lors de la fécondation pour former la première cellule de l’embryon. Cette cellule se divisera afin de constituer les différents types cellulaires du futur organisme. Les étapes de réorganisation et de condensation des chromosomes sont ici encore plus drastiques que lors de la mitose. La méthylation de l’ADN, les marques des histones et l’organisation 3D des chromosomes sont largement reprogrammées, comme si l’organisme s’efforçait d’effacer le bagage épigénétique accumulé dans la génération précédente.
Est-ce que l’épigénétique peut néanmoins influencer l’héritage génétique de la descendance ? Aujourd’hui, cette question fait l’objet de recherches intensives, et parfois controversées. Ces recherches visent notamment à comprendre si des facteurs environnementaux, nutritionnels, liés aux stress ou à l’exposition à des facteurs chimiques ou physiques pourraient exercer une influence sur les générations futures.
On a pu décrire des exemples précis de l’effet de l’environnement sur la régulation épigénétique dans de nombreuses espèces animales et végétales.
Chez des reptiles, la température est un déterminant majeur du type sexuel, via le dépôt de marques épigénétiques spécifiques (méthylation des histones). Chez les insectes, de nombreux traits phénotypiques sont liés à des régimes alimentaires qui entraînent des variations épigénétiques, par exemple la distinction entre la reine et les abeilles ouvrières ou la distinction de castes d’ouvrières chez certaines fourmis (via la méthylation de l’ADN et l’acétylation des histones, respectivement).
L’exposition à des facteurs chimiques, tels que l’arsenic ou le bisphénol A peut également être à l’origine de modifications épigénétiques. On essaye aujourd’hui de comprendre les mécanismes par lesquels ces stimuli agissent et s’ils peuvent générer un héritage stable au fil des générations dans l’espèce humaine. Des études épidémiologiques ont bien tenté de faire des liens entre régime alimentaire et influence sur la progéniture, mais ces études se confrontent souvent à des aspects multi-factoriels difficiles à contrôler et souffrent d’un manque de preuves moléculaires.
Des études au niveau d’organismes modèles sont donc nécessaires pour étudier l’influence de modifications épigénétiques sur la transmission de l’information génétique. Des exemples de transmission des états épigénétiques à travers les générations sont actuellement bien décrits chez le ver C.elegans et les plantes, des organismes où il y a moins de reprogrammation de l’état épigénétique lors de la fécondation. Notre équipe travaille sur l’organisme modèle Drosophila melanogaster ou mouche du vinaigre. À la suite de perturbations de l’organisation 3D des chromosomes, nous avons pu mettre en évidence des cas d’héritage de modifications épigénétiques sur un gène responsable de la couleur de l’œil au fil de nombreuses générations.
Dans le modèle souris, des études ont également montré que l’insertion d’éléments génétiques permettait d’induire des modifications épigénétiques, notamment la méthylation d’ADN. Ces modifications conduisent à la répression d’un gène responsable de la couleur du pelage ou de gènes importants du métabolisme qui, lorsqu’ils sont supprimés, provoquent l’obésité ou l’hypercholestérolémie, et ce, de manière héritable sur plusieurs générations.
Dans ces exemples d’héritage transgénérationnel, le premier signal qui induit un changement épigénétique implique la modification d’une petite séquence d’ADN. Même si cette séquence est rétablie à la normale, le changement se maintient. Bien que probablement rares et possiblement influencés par le patrimoine génétique, ces phénomènes pourraient exister dans la nature. Des recherches futures seront nécessaires pour comprendre si d’autres mécanismes épigénétiques pourraient être hérités.
Bien que ces données ne changent pas les lois génétiques actuelles, elles indiquent qu’au-delà de la simple duplication et transmission de la séquence d’ADN aux gamètes mâles et femelles, des informations épigénétiques pourraient contribuer à l’héritage de certains traits chez de nombreuses espèces. Ces recherches pourraient donc servir à mieux comprendre l’évolution et l’adaptation des espèces, ainsi que les mécanismes à la base de certaines pathologies humaines, comme les cancers.
Les recherches au sein du laboratoire Cavalli sont financées par des subventions du Conseil Européen de la Recherche (ERC AdG WaddingtonMemory), de l'Agence Nationale pour la Recherche (PLASMADIFF3D, subvention N. ANR-18-CE15-0010, LIVCHROM, subvention N. ANR-21-CE45-0011), de la Fondation ARC (EpiMM3D), de la Fondation pour la Recherche Médicale (EQU202303016280) et de la Fondation MSD Avenir (Projet EpiMuM3D).
Bantignies Frédéric ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
30.03.2025 à 16:35
Daniel Delbrassine, Chargé de cours honoraire, moniteur pédagogique, Université de Liège
L’annulation par le ministère de l’éducation nationale de sa commande d’une adaptation de la Belle et la Bête pour les élèves de CM2 a déclenché une polémique qui invite à se pencher sur la situation particulière de la littérature de jeunesse et l’attention spécifique qui lui est de longue date accordée dans l’espace public.
La récente affaire du « Livre pour les vacances », décommandé par le ministère de l’éducation nationale avant son impression en 800 000 exemplaires, a surpris nombre d’acteurs du livre et de l’école, à commencer par son auteur Jul qui avait adapté en BD le très classique La Belle et la Bête, de madame Leprince de Beaumont (1711-1776).
Les enfants de CM2 concernés par l’opération, qui vise à leur offrir un livre à lire durant l’été avant leur entrée en sixième, recevront donc un autre titre, mais le dessinateur n’a pas hésité à parler de « censure » de la part de la direction générale de l’enseignement scolaire, qui est intervenue le 17 mars dernier.
Le gros mot était prononcé et cette polémique a mis en lumière la situation particulière de la littérature de jeunesse au sein du champ culturel. Celle-ci fait en effet exception : elle doit à son public d’être le seul lieu où la censure s’exerce ouvertement en démocratie. Cette nécessaire protection du lecteur juvénile s’imposerait même « naturellement », si l’on en croit l’éditrice espagnole Beatriz de Moura.
Mais ce statut singulier pose un certain nombre de questions : comment fonctionne cette « censure » et à partir de quelles réglementations ? Sur quels objets et sur quels sujets s’exerce-t-elle ?
Depuis ses origines, la littérature adressée à la jeunesse est une « littérature sous surveillance », car la religion, l’école et le pouvoir politique ont toujours cherché à en assurer le contrôle.
La surveillance religieuse renvoie à des pratiques fort anciennes (Inquisition et mise à l’Index). Elle s’exprime surtout par des interventions d’ecclésiastiques dans le champ de la littérature, comme l’abbé Louis Bethléem qui publie Romans à lire et romans à proscrire. Essai de classification au point de vue moral des principaux romans et romanciers (1904). En 1927, un procès retentissant vise l’abbé, qui s’était mis en scène déchirant en public des revues « licencieuses ».
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
L’école exerce elle aussi un contrôle sur la littérature de jeunesse. Cette pression institutionnelle s’exerce notamment sur les éditeurs, conscients du rôle de l’école en matière de prescription. La scolarisation de la littérature jeunesse montre ici un de ses revers : le pouvoir d’influence sur les ventes exercé par les autorités de l’enseignement et par les enseignants eux-mêmes.
La surveillance politique de la littérature de jeunesse n’est pas récente. Dès la fin du XIXe siècle, le sénateur René Bérenger (surnommé « Père la pudeur ») crée la Société centrale de protestation contre la licence des rues, et l’arsenal légal se renforce avec la loi sur l’outrage aux mœurs de 1898. Avant la Deuxième Guerre mondiale, la loi du 29 juillet 1939 instaure un Code de la famille, dont 20 articles sont consacrés au « délit d’outrage aux bonnes mœurs ».
Le consensus politique présent à la Libération n’a donc rien d’étonnant, puisque la loi n°49-956 du 16 juillet 1949 sur les publications destinées à la jeunesse est l’aboutissement d’un processus d’un demi-siècle.
La fonction première de la loi n°49-956 du 16 juillet 1949 sur les publications destinées à la jeunesse (mentionné aujourd’hui encore dans tous les ouvrages destinés à l’enfance) n’est pas d’exercer une censure, car elle vise d’abord à instaurer un contrôle ex ante fondé sur l’intimidation.
En effet, son article 3 prévoit une commission de surveillance et de contrôle, dépendant des ministères de la justice et de l’intérieur et chargée de surveiller l’ensemble de la production adressée à la jeunesse, essentiellement à partir des critères définis à l’article 2. La commission reçoit tous les titres à publier et rend des avis, en intervenant parfois auprès des éditeurs. Selon la formule du chercheur Pascal Durand, cette loi organise donc la « soumission des [auteurs et des éditeurs] à un horizon d’attente normative », que l’on qualifiera d’« autocensure ».
Récemment, la loi a subi plusieurs modifications, notamment dans son article 2 qui définit les questions litigieuses, mais l’activité de la commission s’est « très fortement réduite », si l’on en croit Bernard Joubert qui en a recensé les victimes dans son volumineux Dictionnaire des livres et journaux interdits. La censure s’exerce aujourd’hui bien plus efficacement par le biais d’acteurs privés auxquels le champ médiatique offre un terrain favorable, et l’institution semble désormais passée au second plan en termes d’impact sur les acteurs du livre.
Sur le parcours d’un livre, les actions de censure et d’autocensure peuvent donc surgir à toutes les étapes. À la source, les auteurs assument assez spontanément leur part, mais peu en parlent ouvertement, sans doute par volonté de ne pas nuire à la légitimité de leur création.
L’autrice Malika Ferdjoukh confiait ainsi avoir supprimé une phrase qu’elle jugeait délicate dans un roman jeunesse : « L’abeille sniffe sa ligne de glace à la vanille. » Selon elle, cette image gratuite « semblait cautionner et rendre légère une chose qui ne l’est pas ». Dans Titus Flaminius : la fontaine aux vestales (2003), Jean-François Nahmias recourt à des propos très pudiques et à l’ellipse narrative pour évoquer la première nuit d’amour de son personnage. Dans ce roman historique où la description détaillée des mœurs de l’époque sacrifie à la contrainte du genre, l’évocation très chaste de la sexualité des héros crée un paradoxe étonnant.
Les auteurs assument donc leur part d’autocensure, parfois au prix d’acrobaties littéraires, en « adaptant » leur texte à leur public, préoccupés qu’ils sont de « respecter leur lecteur ». Les éditeurs interviennent dans un deuxième temps, aiguillonnés par le cadre légal, mais surtout par les réactions des prescripteurs adultes, qui sont aussi leurs acheteurs…
Certains éditeurs en viennent à retirer spontanément des ouvrages sous la pression de campagnes médiatiques efficaces comme celle qui a visé On a chopé la puberté, (éditions Milan, collection « Les secrets des pipelettes »), documentaire destiné aux pré-ados, publié en février 2018. À la suite d’une pétition recueillant 148 000 signataires en trois jours, la maison d’édition décide d’abandonner toute la collection. La chercheuse Mathilde Lévêque donne une analyse critique et nuancée de cette affaire dans un article intitulé On a chopé la censure.
Parmi les prescripteurs, les bibliothécaires ont toujours pris leur part dans les obstacles dressés entre un livre et ses lecteurs. L’absence intentionnelle dans la liste d’achats, la relégation aux « enfers » (quand ils existent) ou simplement dans le bureau, sont des pratiques fréquentes. Ainsi, en 2016, le Dictionnaire fou du corps (2012), de Katy Couprie, a fait l’objet d’une mesure de retrait dans le réseau de la Ville de Paris.
L’appareil d’État semble avoir aujourd’hui perdu beaucoup de son impact, les acteurs du champ éditorial « négociant » entre eux – sur l’espace médiatique – les termes de ce qui est désormais publiable à l’adresse de la jeunesse. La loi de 1949 reste comme une référence en toile de fond, pour un secteur de l’édition où les groupes de pression occupent désormais la première place en termes d’interventions suivies d’effets.
En pratique, cette situation ressemble de plus en plus à celle qui a toujours prévalu aux États-Unis. L’influence d’outre-Atlantique se concrétise dans la pratique des éditeurs qui mobilisent des « sensitivity readers » et avertissent leurs lecteurs avec des « trigger warnings ».
On notera enfin que la censure s’avère presque exclusivement thématique et manifeste bien l’évolution des sociétés, à travers des thèmes tabous qui perdurent (sexualité, violence, politique), mais aussi l’émergence de nouveaux sujets comme le genre ou la race. Une autre constante apparaît : l’absence de prise en compte des aspects narratifs dans la présentation des thèmes jugés délicats.
Le rôle des procédés littéraires mobilisés pour représenter tel ou tel sujet est passé sous silence dans l’immense majorité des cas. Or, on sait combien cet aspect est important pour évaluer l’innocuité éventuelle d’un récit, mais les censeurs se précipitent sur les contenus, sans vouloir prendre en compte leur traitement ni les « mesures de protection du lecteur » mises en place par les auteurs.
Daniel Delbrassine ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
30.03.2025 à 16:35
Paula Fernandes, Researcher, Cirad
Alain Ratnadass, Senior research scientist, Cirad
François-Régis Goebel, Directeur de Recherches en protection des cultures, gestion des bioagresseurs, Cirad
Gaëlle Damour, chercheuse, Cirad
Il existe chez les plantes des dizaines de mécanismes plus ingénieux les uns que les autres pour réguler naturellement les organismes qui s’attaquent aux cultures. S’appuyer sur ces alliés précieux est indispensable pour diminuer notre dépendance aux pesticides. Cela permet aussi de construire des systèmes agroécologiques plus résilients.
Chaque jardinier connaît l’œillet d’Inde, allié qui éloigne insectes et maladies du potager. Mais saviez-vous qu’il existe de nombreuses autres plantes, dites « plantes de service », précieuses pour une agriculture plus respectueuse de la santé et de l’environnement ?
Des résultats de recherche révèlent qu’une large gamme de plantes, lorsqu’on les intègre aux systèmes de culture, sont capables de réguler les bioagresseurs des champs (insectes et arthropodes, nématodes, champignons, bactéries, virus, adventices), et donc de réduire les besoins en pesticides.
Selon les plantes, elles mobilisent un mécanisme particulier ou en combinent plusieurs. Certaines vont agir contre les bioagresseurs aériens, tels les plantes aromatiques ou le maïs. D’autres sont efficaces contre les bioagresseurs telluriques, comme les crotalaires, le sorgho hybride ou les crucifères.
Penchons-nous dans un premier temps sur les mécanismes mis en œuvre par certains végétaux pour contrer les bioagresseurs aériens.
Les plantes refuges, fréquemment implantées en bordure de parcelle, assurent un habitat favorable aux auxiliaires, en leur fournissant le gîte et le couvert. Ainsi, ces derniers sont déjà présents lorsque les ravageurs arrivent pour attaquer les cultures, ils interviennent plus rapidement (prédation, parasitisme). C’est le cas notamment du tournesol mexicain (Tithonia diversifolia) utilisé aux abords des champs de canne à sucre en Tanzanie pour attirer et préserver les coccinelles prédatrices du puceron jaune Sipha flava, ravageur majeur dans ce pays.
Les plantes d’ombrage, intégrées dans la parcelle, modifient son microclimat. En changeant la luminosité et l’humidité, elles rendent les conditions climatiques défavorables à certains bioagresseurs et plus favorables à d’autres.
C’est notamment le cas des eucalyptus ou érythrines dans les plantations de caféiers, vis-à-vis du champignon Colletotrichum kahawae provoquant l’anthracnose des baies au Cameroun. Ces plantes ont le même effet sur la cochenille Placococcus citri et le champignon Cercospora coffeicola qui provoque au Costa Rica la cercosporiose.
Certaines plantes jouent un rôle de barrière contre les agresseurs. Implantées en bordure, elles forment un rideau végétal qui empêche les ravageurs d’atteindre la culture. C’est le cas des barrières de Crotalaria juncea qui obstruent le passage des aleurodes, qui volent à hauteur d’homme vers les plants de piment.
D’autres végétaux utilisent également l’espace pour freiner l’avancée de l’ennemi. Associés à une culture sensible, ils vont dissimuler cette dernière aux ravageurs en créant un effet de « dilution » visuelle. Ces associations, en générant une discontinuité spatiale, peuvent aussi ralentir la propagation de proche en proche des maladies fongiques.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Elles peuvent par ailleurs réguler les adventices par compétition pour les ressources (lumière, eau, nutriments) ou par barrière physique. En bananeraie, des espèces comme Neonotonia wightii ou Arachis pintoi ont révélé de bonnes aptitudes, avec un impact modéré sur la croissance des bananiers.
Les plantes émettrices d’odeurs peuvent être utilisées seules ou bien combinées pour accroître leur efficacité dans un système « push-pull » :
La plante « push », intégrée au milieu de la culture, diffuse un « parfum répulsif » pour les ravageurs. Les plantes aromatiques, telles que le basilic ou le gros thym antillais Plectranthus amboinicus, constituent un vivier intéressant de plantes « push ».
Parallèlement, une plante « pull » est introduite, soit dans la parcelle pour attirer les auxiliaires, soit en bordure pour attirer vers elle le ravageur, le détournant ainsi de la culture. Ainsi, certaines variétés de maïs doux attirent la femelle de la noctuelle de la tomate qui, au lieu de pondre sur les tomates, va le faire sur les soies des épis de maïs – qui constituent des « voies sans issue » car les larves qui éclosent ne peuvent s’y développer.
Les plantes citées jusqu’ici ne s’attaquaient qu’aux bioagresseurs aériens. Mais d’autres mécanismes existent pour combattre les bioagresseurs telluriques.
La rotation des cultures, notamment, permet d’interrompre la reproduction des bioagresseurs. Lorsqu’une plante non sensible à l’agresseur vient remplacer pendant une période la plante sensible, la population de parasites dans le sol diminue fortement.
Une fois que la culture sensible revient sur la parcelle, elle est en mesure de se développer sans incidence majeure tant que la population pathogène reste faible. Une véritable course de vitesse s’engage alors entre le développement de la culture et la multiplication du pathogène.
C’est par exemple le cas en cultures maraîchères ou dans des bananeraies. Créer des jachères assainissantes à base d’espèces non-hôtes (comme Crotalaria juncea ou Brachiaria spp) réduisent les populations de nématodes phytoparasites.
Autre méthode d’attaque contre les telluriques, l’empoisonnement ou l’inhibition – aussi appelée allélopathie. Ici, différentes stratégies existent et ont été mises en évidence.
Certains végétaux, tels que les crotalaires, libèrent via leurs racines des alcaloïdes pyrrolizidiniques toxiques pour plusieurs espèces de nématodes phytoparasites.
Autre moyen, la biofumigation par certains végétaux au moment de leur décomposition. Par exemple des isothiocyanates, composés soufrés à large spectre d’efficacité (champignons, bactéries, nématodes…), issus de la dégradation des glucosinolates largement présents chez les brassicacées (moutarde par exemple) et les alliacées (ail, oignon…).
D’autres plantes, enfin, provoquent la germination des graines de plantes parasites (comme le Striga) ou attirent les pathogènes (nématodes phytoparasites) vers leurs racines en émettant des signaux semblables à ceux d’une plante sensible. Ainsi, le coton, le lin ou le soja, plantes non hôtes, diminuent le potentiel infectieux du sol en engendrant la germination « suicidaire » du Striga, dont les radicules sont alors incapables de se fixer à leurs racines.
De façon générale, les plantes de service peuvent aussi jouer un rôle bénéfique en stimulant la diversité de la microflore et de la macrofaune du sol, de façon globale ou ciblée.
Parmi les communautés du sol se trouvent des espèces antagonistes ou prédatrices des bioagresseurs. En particulier certains nématodes libres, qui se nourrissent de nématodes phytoparasites. Mais aussi des bactéries et champignons, qui peuvent produire des antibiotiques ou encore parasiter ces bioagresseurs. On parle alors de suppressivité spécifique.
En bananeraie, les jachères de Paspalum notatum augmentent ainsi les populations de nématodes libres omnivores ou prédateurs, qui en retour diminuent les populations de nématodes phytoparasites.
D’autres microorganismes du sol, sans réguler directement les pathogènes, occupent des niches où ils sont en compétition avec eux, notamment en colonisant la rhizosphère des plantes, et en utilisant les mêmes ressources.
Ce faisant, ils réduisent les conditions favorables à la croissance des pathogènes. On parle alors de suppressivité générale.
Outre l’accroissement de populations bénéfiques du sol, les plantes de service contribuent également à l’enrichir. Souvent employées comme engrais verts ou plantes de couverture, elles restituent au sol de la matière organique et des nutriments, accessibles ensuite à la plante cultivée.
Du fait de l’amélioration de sa résistance physiologique, via une nutrition plus équilibrée et la disponibilité de certains oligoéléments, celle-ci est moins vulnérable aux attaques des bioagresseurs, telluriques mais aussi aériens.
L’efficacité des plantes de service dépend donc dans une large mesure du contexte. Pour réussir, l’utilisation de plantes de service pour gérer des bioagresseurs requiert une compréhension claire des principes génériques de l’agroécologie couplée à une connaissance fine des espèces impliquées, afin d’adapter et appliquer ces principes à des situations spécifiques.
L’évolution des interactions entre cultures et bioagresseurs nécessite également d’adapter les pratiques au changement, et, le cas échéant, de mobiliser simultanément divers mesures et mécanismes de régulation.
Le 5 juin 1984 naissait le Cirad fondé par décret. Depuis plus de 40 ans, les scientifiques du Cirad partagent et co-construisent avec les pays du Sud des connaissances et des solutions innovantes pour préserver la biodiversité, la santé végétale et animale, et rendre ainsi les systèmes agricoles et alimentaires plus durables et résilients face aux changements globaux.
Paula Fernandes a reçu des financements de bailleurs publics de la recherche pour le developpement
Alain Ratnadass a reçu des financements de bailleurs de fonds publics français, européens et internationaux pour la recherche pour le développement.
François-Régis Goebel est membre de l'International Society of Sugarcane Technologists (ISSCT). Il a reçu des financements de bailleurs de fonds publics français, européens et internationaux pour la recherche pour le développement.
Gaëlle Damour ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
30.03.2025 à 16:34
Benoît Pelopidas, Professeur des universités de classe exceptionnelle / fondateur du programme d'étude des savoirs nucléaires, Sciences Po
La cause paraît entendue : l’extension aux alliés de la France de la dissuasion nucléaire française et le réarmement conventionnel massif du continent sont largement présentés, aussi bien par les dirigeants du pays que par la plupart des médias, comme des solutions quasi impératives face à la menace russe et au désengagement des États-Unis de la défense du continent. Pourtant, l’évidence de cette nécessité s’écroule dès que l’on étudie la campagne de communication stratégique qui la produit. C’est la première étape nécessaire à une réflexion sérieuse sur une stratégie de défense française et européenne.
Ces dernières semaines, les médias ont largement présenté la mise en place d’une dissuasion nucléaire européenne couplée au réarmement conventionnel de l’UE (Ursula von der Leyen a annoncé à cet égard un objectif de dépenses de 800 milliards d’euros sur quatre ans) comme des réponses évidemment désirables voire nécessaires à la menace russe et au désengagement américain. Il s’agit là d’une opération de communication stratégique qui se manifeste d’au moins trois façons, détaillées ici afin de vous permettre de les reconnaître. Nous laissons donc de côté l’évaluation de la menace russe, qui mérite une analyse à part entière, pour nous concentrer sur les réponses proposées et la production des illusions d’évidence et de nécessité. Dès que nous cesserons d’être séduits par ces fausses évidences, une réflexion stratégique sérieuse sur la défense de la France et de l’Europe pourra commencer.
À lire aussi : Face au danger nucléaire, les effets d’un discours expert désinvolte
On entend à longueur d’articles parler de « parapluie nucléaire », de « protection », voire de « bouclier nucléaire ». Grande nouvelle vieille d’au moins soixante-cinq ans : rien de tel n’existe.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Le parapluie est capable de nous garder au sec quand la pluie tombe. Si la pluie nucléaire devait tomber, il n’y aurait pas de parapluie, de quelque nationalité que ce soit. Au moins depuis le couplage de missiles balistiques impossibles à intercepter à des explosifs thermonucléaires dans les années 1950 et au début des années 1960, on reste à la merci de l’accident technologique et de la détermination de l’ennemi qui voudrait prendre le risque de subir une riposte. Or l’arsenal de la Russie est dimensionné à partir de notions telles que la limitation des dommages (c’est-à-dire la destruction du plus grand nombre possible d’armes ennemies avant qu’elles puissent être lancées contre Moscou) ; si la dissuasion devait échouer, le fait de disposer d’armes nucléaires sur notre sol nous transformerait en cible prioritaire.
De même, offrir notre parapluie à autrui ne nous engage pas à commettre un acte violent pour lui ou elle. Au contraire, offrir un « parapluie nucléaire », c’est s’engager à utiliser la force nucléaire, avec les conséquences que l’on sait, si un allié était attaqué. Outre le problème que pour l’allié non plus il n’y a pas de parapluie et que la crédibilité d’une telle promesse est très discutable, il s’agit ici de s’engager à commettre un acte d’une grande violence et d’être prêt à en subir les conséquences ou de perdre sa crédibilité.
Enfin, le parapluie nous rend strictement indépendant des variations de la météo. Il nous met à l’abri quoi qu’il se passe. Mais dans le monde des missiles balistiques, nous restons intégralement dépendants de la volonté de l’ennemi le plus hostile qui serait prêt à courir le risque de la riposte et de la possibilité qui demeure de lancement accidentel dans tout pays qui cible la France.
La métaphore du parapluie décrit les effets souhaités de la politique proposée, pas ses effets. Ceux qui l’utilisent soit ignorent une réalité connue depuis 65 ans, soit renversent la réalité en répétant les éléments de langage du discours officiel et en présentant des intentions comme des effets avérés.
Couplés à la qualification de l’arsenal nucléaire français par le terme « dissuasion » et à l’affirmation de la possibilité d’une « autonomie stratégique » dans un monde nucléarisé, ces trois renversements créent des illusions de protection et de défense en situation de vulnérabilité. En réalité, nous restons à la merci à la fois de l’accident et de l’ennemi le plus hostile.
Le deuxième signe que les voix porteuses de ce discours font de la communication stratégique, c’est qu’elles ne se soucient pas des possibles effets pervers de la politique proposée. La seule limite mentionnée communément est le problème de la crédibilité, qui exigerait de produire davantage d’armes nucléaires françaises et de relancer la création de matières fissiles.
Or, tout politiste sait qu’aucune politique n’aboutit à tous ses effets désirés et seulement à ses effets désirés. Faire croire cela, c’est précisément faire de la communication. Quels sont donc les effets pervers plausibles de cette politique ?
D’abord, historiquement, puisque ces propositions ont eu pour effet de relégitimer l’arsenal nucléaire français et de justifier des investissements dans le domaine, cela pourrait contribuer à alimenter la course aux armements en créant de nouvelles cibles utilisables par nos adversaires pour justifier l’augmentation de leurs arsenaux.
Ensuite, proclamer qu’un arsenal nucléaire est nécessaire à la sécurité du continent réaffirme la désirabilité des armes nucléaires et rend plus difficile de mener une politique de non-prolifération nucléaire crédible et efficace, à laquelle la France est attachée.
Par ailleurs, relancer la machine industrielle pour fabriquer des armes va augmenter l’empreinte carbone de la France et de l’Union européenne, dont les actions sont jugées insuffisantes pour tenir leurs engagements en matière de lutte contre le réchauffement climatique.
De plus, la montée des eaux et le changement climatique qui s’accélère vont exiger d’augmenter les dépenses pour protéger chaque arme nucléaire, et donc a fortiori chaque arme nucléaire supplémentaire si l’arsenal devait s’étendre. Ces armes seront donc des coûts d’opportunité dans un contexte de ressources rares et de besoins croissants.
En outre, il faudrait identifier précisément les acteurs bénéficiaires de ces politiques. N’oublions pas, en effet, que l’investissement dans l’armement a eu un effet d’entraînement sur le civil bien moindre qu’annoncé ; que des soupçons de corruption ont été avancés dans le secteur ; que Thalès, Dassault et MBDA, bénéficiaires directs du plan annoncé, sont encore sous le coup d’une plainte de 2022 pour complicité de crimes contre l’humanité et crimes de guerre dans le cadre de la guerre au Yémen, et de soupçons plus récents relatifs à l’usage des armes qu’ils ont vendu à Israël, qui les a employées contre des civils palestiniens.
Enfin, la renucléarisation et remilitarisation du continent européen, avancées au nom de la lutte contre la menace russe, si elles devaient avoir lieu, ne porteraient leurs fruits que dans quelques années et, de ce fait, pourraient être directement contre-productives. En effet, en Slovaquie, en Hongrie, en Roumanie et peut-être en France, des partis pro-russes sont des tenants probables du pouvoir lors des prochaines échéances électorales… et dès lors les bénéficiaires des armes construites pour défaire leur projet politique.
Troisième indice révélateur de l’opération de communication en cours : le discours ambiant n’explore pas d’alternatives, comme si la seule était l’abandon de l’Ukraine. Alors que le réarmement produit et coïncide avec un abandon de nos engagements environnementaux, cela apparaît comme un sacrifice vertueux au nom de la défense de l’Ukraine. Or, il n’y a pas de dilemme entre le respect de nos engagements de sobriété énergétique et le soutien à Kiev ou la sécurité du continent européen face à la menace russe. On s’en aperçoit dès que l’on cesse de réduire l’aide possible à l’Ukraine et la sécurité à la fourniture ou à la possession d’armes.
Il est évident que les achats européens d’hydrocarbures russes permettent au Kremlin de financer la guerre et son armée, de sorte que la réduction de ces achats est, en soi, une aide à l’Ukraine. La marge d’amélioration en termes de réduction de la facture d’hydrocarbures russes et d’aide à l’Ukraine sans sacrifier nos engagements en matière de lutte contre le changement climatique est considérable. Elle apparaît dès que l’on observe que, comme le montre une étude menée par le Centre for Research on Energy and Clean Air (CREA) en mars 2025, depuis février 2022 les 27 États membres de l’UE ont acheté pour plus de 205 milliards d’euros d’hydrocarbures russes, soit plus de quatre fois les 49,2 milliards d’euros d’aide militaire apportée à l’Ukraine.
L’UE affirme qu’elle s’est émancipée des hydrocarbures russes, mais une marge substantielle demeure. Près de 40 % des hydrocarbures achetés par les pays de l’UE27 à l’Inde, la Chine et la Turquie au cours des trois premiers trimestres 2024 sont d’origine russe. Rien que sur les quatre premiers mois de l’année 2024, la France a acheté pour 600 millions d’euros de gaz naturel liquéfié en provenance de Russie.
Il est faux de dire que la défense de l’Ukraine exige de sacrifier nos engagements climatiques. Bien au contraire, des progrès dans le sens de la réduction de la dépendance aux énergies fossiles bénéficieraient à l’Ukraine en réduisant notre contribution financière indirecte à l’effort de guerre russe.
En conclusion, la saturation médiatique relative au « parapluie nucléaire européen » couplée à la remilitarisation de la France et du continent à toutes les caractéristiques d’une opération de communication stratégique qui relève de l’intoxication. Le diagnostic de cette opération d’intoxication présente trois opportunités.
D’abord, il permet de distinguer les lobbyistes/communicants des analystes. Seuls les premiers peuvent commettre toutes les erreurs identifiées dans cet article : naturalisation des éléments de langage du discours officiel pro-armement (nucléaire) comme catégories d’analyse (« parapluie nucléaire », « la dissuasion », la possibilité de la « protection »), acceptation d’affirmations d’effets désirés des politiques comme preuves de leurs effets avérés, et absence de considération de politiques alternatives ou d’effets pervers plausibles de la politique proposée.
Ces critères permettent ainsi de faire le tri entre communication stratégique et défense recevable de la politique proposée, qui exigerait de ne commettre aucune de ces fautes. S’ajoute à cela l’identification des conflits d’intérêts de ceux qui s’expriment, nombre des voix qui défendent la « dissuasion nucléaire européenne » étant issues d’institutions ayant un conflit d’intérêts direct et un rôle explicite dans la promotion de l’arsenal nucléaire national. Le conflit d’intérêts n’est pas nécessaire à la caractérisation de communicant/lobbyiste, mais il constitue un indicateur suggérant un biais.
Ensuite, des alternatives, compatibles avec la tenue de nos engagements environnementaux, existent et doivent être explorées.
Enfin, les exigences climatiques, stratégiques et démocratiques appellent toutes à une réflexion stratégique impartiale, qui refuse les financements porteurs de conflits d’intérêts, récuse les fautes identifiées ci-dessus et reconnaisse la multiplicité des menaces existentielles auxquelles nous sommes confrontés.
Benoît Pelopidas a reçu des financements de l'Agence Nationale de la Recherche, du Conseil Européen de la Recherche, de la Commission européenne et d'un PIA. Ces financements sont fondés sur l'évaluation par les pairs. Il a fondé le premier programme de recherche sur le phénomène nucléaire qui refuse tout financement porteur de conflit d'intérêt (https://www.sciencespo.fr/nk/fr/content/financement.html) et a objectivé le problème dans le secteur dans plusieurs publications scientifiques (dont https://journals.sagepub.com/doi/10.1177/00471178221140000).
30.03.2025 à 16:34
Cécile Pelaudeix, est chercheuse associée en sciences politiques à Pacte Sciences Po Grenoble-UGA, Université Grenoble Alpes (UGA)
Donald Trump veut annexer le Groenland, dans l’apparente indifférence, voire avec l’assentiment de Vladimir Poutine. Le Danemark refuse de céder son territoire autonome, dont les habitants ont récemment porté au pouvoir une coalition dont trois partis sur quatre sont indépendantistes. Au-delà des enjeux liés aux richesses naturelles de l’immense île arctique, ce qui se joue ici, c’est aussi la défense du Groenland, aujourd’hui assurée par les États-Unis dans le cadre de l’OTAN.
En janvier 2025, le président Trump proclame la volonté des États-Unis de prendre le contrôle du Groenland et menace le Danemark, dont l’île est un territoire autonome, de mesures de rétorsion économiques ou militaires si son exigence n’est pas satisfaite.
Ces propos choquent les responsables politiques européens, danois et groenlandais. La posture ouvertement expansionniste de Washington remet en cause le lien transatlantique, et avec lui, l’architecture de sécurité pour le Groenland. En réponse, le ministre français des Affaires étrangères et de l’Europe, Jean-Noël Barrot, mais aussi le président du Comité militaire de l’Union européenne, Robert Brieger, suggèrent dès la fin du mois de janvier l’envoi de troupes européennes au Groenland.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Ces condamnations unanimes ne suffisent pas à décourager la nouvelle équipe en place à la Maison Blanche. En mars, le projet de visite à Nuuk, la capitale, et Sisimiut, la deuxième ville du Groenland, d’une délégation américaine conduite par le vice-président J. D. Vance, sans invitation officielle, est vivement condamné par les autorités danoises et groenlandaises. Le 26 mars, Donald Trump proclame cyniquement dans le Bureau ovale que le monde a besoin que les États-Unis possèdent le Groenland, et que le Danemark doit céder le Groenland aux États-Unis.
Devant les protestations danoise et groenlandaise, le programme de visite de la délégation américaine est revu à la baisse, mais le symbole reste fort : c’est à la base spatiale américaine de Pituffik que J. D. Vance s’est rendu le 28 mars.
Jusqu’à présent, ce sont avant tout les États-Unis qui assurent la sécurité du Groenland. Mais il ne faut pas oublier que c’est à la demande de l’OTAN qu’ils gèrent la base de Pituffik (nommée Thulé jusqu’en 2023), depuis l’accord de défense de 1951 signé avec le Danemark – amendé en 2004 pour inclure le Groenland comme partenaire. Cet accord ne remet nullement en question la souveraineté au Groenland du Royaume du Danemark, souveraineté que les États-Unis ont déjà reconnue en 1916.
Ce sont également les membres de l’OTAN qui, avec les exercices Northern Viking, renforcent leur position dans la zone GIUK (Groenland, Islande et Royaume-Uni), qui est devenue une préoccupation stratégique majeure en raison de la projection de puissance navale de la Russie.
Or dans une stupéfiante déclaration faite le 27 mars lors du Forum international de l’Arctique à Mourmansk, Vladimir Poutine a semblé soutenir le projet américain d’annexion du territoire : « Il s’agit, dit-il, de projets sérieux de la part des États-Unis en ce qui concerne le Groenland. Ces projets ont des racines historiques anciennes. » Il précise : « Le Groenland est une question qui concerne deux pays spécifiques. Cela n’a rien à voir avec nous. »
Le rapprochement économique souhaité par Moscou et Washington dans le contexte des négociations sur la guerre en Ukraine pourrait-il avoir des ramifications dans l’Arctique ? Kirill Dmitriev, conseiller du président Poutine pour les investissements étrangers et la coopération économique, affirme : « Nous sommes ouverts à une coopération en matière d’investissement dans l’Arctique. Il pourrait s’agir de logistique ou d’autres domaines bénéfiques pour la Russie et les États-Unis. » « Mais avant de conclure des accords, ajoute-t-il, il faut que la guerre en Ukraine prenne fin. »
La première ministre danoise, Mette Frederiksen, veut croire que le lien transatlantique reste solide. Cependant, si l’affaiblissement de ce lien soulève des questions sur la sécurité du Groenland, la marche du territoire autonome vers l’indépendance introduit un autre facteur.
La sécurité du Groenland est inévitablement déterminée par sa relation avec l’ancienne puissance coloniale. Aujourd’hui, le Groenland est autonome dans plusieurs domaines de l’administration, mais la sécurité et la défense notamment restent du ressort du Danemark. Cependant, le gouvernement groenlandais, le Naalakkersuisut, souhaite de plus en plus être impliqué dans les prises de décision relatives à ces domaines. Espérant des retombées économiques et la valorisation des savoirs locaux, il aspire à prendre progressivement en charge certains aspects de la politique de sécurité.
Le territoire autonome a été consulté pour la première fois de façon significative sur les questions de défense lors de la mise en place de l’accord de défense conclu le 27 janvier 2025 entre le gouvernement du Danemark et les partis représentés au Parlement danois, d’une valeur de 2 milliards d’euros. L’accord entend améliorer la surveillance, l’affirmation de la souveraineté et la résilience sociétale dans la région, soutenir les alliés et la mission de l’OTAN. Les parties veulent également renforcer la coopération en matière de renseignement et de recherche et moderniser les installations du Commandement conjoint de l’Arctique à Nuuk. À cet effet, trois nouveaux navires de patrouille arctique sont prévus.
Dans ce contexte, les résultats des élections législatives tenues au Groenland le 11 mars signalent un désir marqué pour un développement économique renforcé permettant l’accès à l’indépendance.
Les deux partis qui ont dominé la vie politique du Groenland depuis 50 ans, le parti écologiste de gauche Inuit Ataqatigiit (IA) et le parti social-démocrate Siumut, ont vu leur soutien combiné chuter de moitié au profit du parti de centre droit Demokraatit (29,9 % des voix), favorable à une politique économique libérale au Groenland, en particulier pour le secteur de la pèche, et du parti nationaliste populiste Naleraq (24,5 %). Comme tous les partis groenlandais à l’exception d’Atassut (parti libéral-conservateur ayant récolté 7,5 % aux dernières législatives), Naleraq souhaite l’indépendance du Groenland mais il revendique une indépendance immédiate. La large coalition gouvernementale formée le 27 mars réunit les partis Demokraatit, Inuit Ataqatigiit, Siumut et Atassut, mais elle exclut Naleraq, une décision qui traduit la volonté de ne pas fragiliser le devenir du Groenland à un moment où Washington martèle sa volonté de mettre la main sur l’île.
Durant sa campagne, le parti Demokraatit a insisté sur le fait que le Groenland n’était pas à vendre, tout en souhaitant une indépendance du Groenland soutenue par un accord de libre association avec le Danemark ou avec les États-Unis. La libre association désigne des accords internationaux entre de petits États et une grande puissance qui leur garantit sécurité, défense et aide financière significative, comme le Traité de libre-association de 1986, qui régit les relations entre les États-Unis et des micro-États du Pacifique comme la Micronésie, les îles Marshall et les Palaos. Cette option semble avoir fait long feu alors que des manifestations anti-américaines se déroulent devant le Consulat des États-Unis à Nuuk. IA et Siumut recommandent une participation à l’OTAN en complément de la défense nationale danoise, IA précisant que le Groenland pourrait siéger au sein de l’Assemblée parlementaire de l’OTAN.
La majorité des femmes et des hommes politiques du Groenland cherchent un partenariat en matière de sécurité qui complémente celui qui existe entre le territoire autonome et le Danemark. Ce désir d’un arrangement post-colonial se reflète aussi clairement dans la recherche d’une diversification des partenaires économiques avec, par exemple, l’Islande, le Royaume-Uni, les États-Unis et les pays asiatiques. L’Union européenne n’apparaît pas de façon saillante dans les propositions des partis politiques, peut-être en raison des accords déjà signés en vertu du Traité du Groenland de 1985 qui associe le Groenland et l’UE. L’UE verse chaque année 13,5 millions d’euros au Groenland pour qu’il ouvre ses eaux aux navires de pêche de l’UE, et 3 millions d’euros pour soutenir la pêche durable. À cela s’ajoutent 225 millions d’euros pour la période 2021-2027 afin de soutenir l’éducation et la croissance verte.
En ce qui concerne les matières premières, l’UE et le Groenland ont signé en novembre 2023 un accord de partenariat stratégique, sous la forme d’un protocole d’accord visant à établir des chaînes de valeur durables pour les matières premières. Naaja H. Nathanielsen, alors ministre des affaires étrangères, du commerce, des ressources minérales, de la justice et de l’égalité des genres du Groenland, a indiqué que cet accord serait soutenu par une feuille de route afin de garantir des résultats concrets profitant aux deux parties, mais que l’UE devait encourager les États membres à investir.
En termes de défense et de sécurité, les options du Groenland ne sont pas si variées. Outre le fait de compter sur les États-Unis et le Danemark, elles consistent en deux possibilités non exclusives : l’OTAN et la défense européenne.
Pour les Groenlandais qui veulent être maîtres de leur destin, toute dépendance exclusive à l’égard des États-Unis est problématique. Selon un récent sondage, 85 % d’entre eux s’opposent à la politique américaine en la matière.
S’appuyer exclusivement sur l’OTAN pourrait également être une décision incertaine. Si les États-Unis se retirent de l’OTAN, comme Trump l’a menacé à plusieurs reprises, la légitimation de leur gestion de la base de Pituffik disparaîtrait. Et si les États-Unis ne constituent plus une assurance fiable contre la projection de la puissance navale de la Russie et ses menaces hybrides, mais menacent plutôt le Groenland lui-même comme ils le font de façon insistante, les partenaires européens et les capacités de l’Union européenne entrent en jeu. Les États qui ont participé aux exercices Northern Viking - la Norvège, le Royaume-Uni et la France - deviendraient certainement des acteurs plus importants, de même, possiblement, que l’Islande, qui certes n’a pas de forces armées propres mais représente un « porte-avions insubmersible ».
Quelles que soient les options retenues, elles ne seront pertinentes pour la sécurité du Groenland que si elles sont choisies librement par le peuple groenlandais. Entre la menace de l’expansionnisme américain et le contexte post-colonial, c’est peut-être l’UE, avec sa structure juridique et ses valeurs, qui pourrait offrir aux Groenlandais la meilleure chance de déterminer leur sécurité selon leurs propres termes.
Cécile Pelaudeix ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
30.03.2025 à 16:33
Alain Naef, Assistant Professor, Economics, ESSEC
Après la guerre des droits de douane, bienvenue dans la guerre des dettes souveraines. L’administration de Trump suggère de ne pas rembourser ses créanciers, dont la Chine fait partie. Assiste-t-on à la fin de la suprématie du dollar ?
La nouvelle administration Trump expérimente beaucoup en matière économique. Elle a appris que les droits de douane, bien qu’ils augmentent les recettes fiscales, génèrent aussi des problèmes internes. Ils entraînent des représailles commerciales, rendent les biens étrangers plus coûteux, et provoquent ainsi de l’inflation – ou une hausse des prix. Jusqu’ici tout va bien.
Une proposition récente évoque désormais un défaut sélectif sur la dette américaine. Selon le Financial Times citant Bloomberg, Trump a suggéré que
« l’équipe d’Elon Musk chargée d’améliorer l’efficacité gouvernementale aurait trouvé des irrégularités lors de l’examen des données du département du Trésor américain, ce qui pourrait amener les États-Unis à ignorer certains paiements ».
Le terme « ignorer certains paiements » est un euphémisme. En clair, cela signifie envisager un défaut sélectif, autrement dit ne pas rembourser tous leurs créanciers… particuliers comme étatiques.
Ne pas rembourser ses créanciers permet de choisir volontairement de payer certains mais pas d’autres. Trump évoque cela comme moyen de pression géopolitique ou comme une source de revenus pour l’État. Le défaut permet de réduire la dette nationale. Mais c’est une idée risquée. Elle menace la confiance dans le dollar. Qui veut acheter des obligations d’État qui pourraient valoir zéro, selon l’humeur du souverain ?
L’économiste Barry Eichengreen a récemment questionné la suprématie du dollar en première page de Financial Times, un événement en soi. Selon Eichengreen, la proposition de Stephen Miran – le principal conseiller économique de Trump – de taxer les détenteurs étrangers de titres du Trésor fédéral risquerait de compromettre la stabilité financière internationale. Le but est de dévaluer le dollar, pour rendre les exportations américaines plus compétitives. Officiellement, l’administration envisage une « commission d’utilisation » prélevée sur les intérêts versés aux investisseurs étrangers. Il faudrait payer pour se servir du dollar, propriété des États-Unis.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Le gouvernement Trump joue sur les mots en renommant l’impôt « commission d’utilisation ». Ce prélèvement direct sur les intérêts permet d’éviter les traités fiscaux internationaux. En pratique, ce sont uniquement les investisseurs étrangers qui paient. Une discrimination déguisée.
Comme Brad Setser l’a récemment montré sur le réseau social Threads, plus de la moitié des détenteurs de dette américaine – des détenteurs d’obligations du Trésor des États-Unis – sont des particuliers ou des entreprises américaines… qui seraient probablement épargnés par ce défaut. Alors, qui d’autre détient cette dette ? Deux gouvernements figurent en haut de la liste : le Japon et la Chine.
Le Japon est pour l’heure encore un pays allié et pourrait être exonéré. Même si l’administration Trump montre moins d’enthousiasme envers l’Europe et ses partenaires historiques, l’alliance géopolitique avec les États-Unis pourrait encore jouer un rôle.
La Chine, quant à elle, détient encore environ 4 % des obligations américaines en circulation. Si ce chiffre peut paraître faible, il représente une somme considérable. Plus important encore, la Chine a de l’argent en jeu, avec plus de 700 milliards de dollars placés dans ses réserves de change officielles, montant probablement supérieur en tenant compte des réserves non officielles. Les institutions semi-publiques chinoises, comme les banques et les grandes entreprises, détiennent potentiellement des montants encore plus élevés.
À lire aussi : La Chine principal créancier mondial, une fragilité de plus pour les pays émergents et en développement
Brad Setser a récemment indiqué sur Threads que la Chine réduit progressivement ses avoirs en bons du Trésor américain. On ignore les montants exacts vendus, mais les transactions passant par Euroclear, en Belgique, offrent un aperçu. Depuis 2014, la Chine semble effectivement se désengager progressivement du dollar américain. Elle est passée d’un créancier possédant 18 % des actions américaines à un peu plus que 4 % aujourd’hui.
La Chine reste néanmoins le deuxième détenteur étranger d’obligations américaines. Imaginez maintenant que les génies de DOGE ou d’autres proches de Trump décident, pour des raisons de politique intérieure, d’un défaut sélectif envers la Chine.
La géopolitique pourrait jouer dans les deux sens. La Chine réduirait son exposition avant que des idéologues proches de Trump ne prennent l’initiative. Alternativement, elle poursuivrait ses propres objectifs géopolitiques en réduisant préventivement ce risque en cas de tensions futures.
La Russie avait, elle aussi, liquidé toutes ses obligations américaines avant d’envahir l’Ukraine. Le risque de défaut sélectif ou d’attaque financière était trop grand. Lorsque j’étais à la Banque centrale, mes collègues et moi ne nous en étions aperçus qu’après l’invasion, bien que l’information ait été sous nos yeux (ce que nous avions présenté dans un article après coup).
La Chine détient encore une quantité importante d’obligations américaines. Si elle hésitait à entreprendre cette manœuvre géopolitique audacieuse, elle se rapprocherait d’une situation où, d’un point de vue financier, le feu vert serait donné. L’idée d’un défaut sélectif pourrait ainsi accélérer les ventes d’obligations américaines par la Chine.
Si un défaut sélectif devait se produire réellement, les conséquences géopolitiques ne seraient pas forcément le premier souci. Cela signifierait avant tout que l’essence même des investissements financiers à l’échelle mondiale serait bouleversée. Les obligations du Trésor américain représentent, par définition, l’actif le plus sûr disponible, selon les manuels de macroéconomie.
Si cet actif réputé sûr venait à faillir, les capitaux chercheraient immédiatement refuge ailleurs sans forcément en trouver. Il n’y a par exemple pas assez de bons du trésor allemand, et ceux d’autre pays sont plus risqués. Cela correspond précisément à la définition d’une crise financière mondiale. Nous n’en sommes certes pas encore là. Mais si l’administration Trump devait expérimenter avec les défauts sélectifs comme elle le fait avec les droits de douane, les conséquences seraient bien plus catastrophiques et immédiates.
Alain Naef a reçu des financements de l'Agence Nationale de la Recherche (ANR).
30.03.2025 à 15:46
Frédéric Fréry, Professeur de stratégie, CentraleSupélec, ESCP Business School
Insubmersible. Même la vague des Gafa n’a pas vraiment atteint Microsoft. Cinquante ans après sa création, soit une éternité dans le monde de la tech, la firme de Bill Gates et Paul Allen est toujours là et bien là. Retour sur ce qu’on appelle outre-Atlantique, une success-story avec quelques échecs.
Cette semaine, Microsoft fête ses 50 ans. Cet article a été écrit sur Microsoft Word, à partir d’un ordinateur équipé de Microsoft Windows, et il sera vraisemblablement publié sur des plateformes hébergées par Microsoft Azure, notamment LinkedIn, une filiale de Microsoft qui compte plus d’un milliard d’utilisateurs. C’est dire l’influence de cette entreprise qui, en 2024, a dégagé un bénéfice net de 88 milliards de dollars pour un chiffre d’affaires de 245 milliards. Sa valeur en Bourse tutoie les 3 000 milliards de dollars, ce qui en fait la deuxième valorisation boursière au monde, derrière Apple et quasiment à égalité avec NVidia. Ses profits cumulés, depuis 2002, approchent les 640 milliards de dollars.
Pourtant, il y a 50 ans, Microsoft n’était qu’une toute petite entreprise d’informatique fondée à Albuquerque, au Nouveau-Mexique (et non en Californie) par deux anciens étudiants de Harvard, Bill Gates et Paul Allen, âgés respectivement de 19 et 22 ans. Les péripéties qui lui ont permis de devenir une des entreprises les plus puissantes au monde sont multiples, et on peut les rassembler en quatre époques.
À la fin des années 1970, le leader incontesté de l’informatique, IBM, réalise que les micro-ordinateurs proposés par les jeunes entrepreneurs de la Silicon Valley, comme l’Apple II, risquent à terme de faire de l’ombre à ses gros systèmes. Le projet IBM PC est alors lancé. Rapidement, il apparaît que la lourdeur des processus internes de l’entreprise ne lui permettra pas de livrer un micro-ordinateur dans les temps. Il est alors décidé que les différents composants de la machine pourront être sous-traités à des fournisseurs externes.
Pour le système d’exploitation, plusieurs entreprises spécialisées sont sollicitées, mais toutes refusent de travailler avec IBM, qu’elles considèrent comme l’ennemi à abattre, symbole de l’informatique centralisée et bureaucratique. C’est alors que Mary Maxwell Gates, qui siège au conseil d’administration d’une ONG à côté du président d’IBM, suggère le nom de son fils William, surnommé Bill, qui vient de créer Microsoft. Un premier contact est pris en 1980.
Problème, Microsoft n’est pas du tout spécialiste des systèmes d’exploitation, mais du langage de programmation BASIC. Qu’à cela ne tienne : Bill Gates, avec un culot incroyable, accepte de signer avec IBM pour lui livrer un système d’exploitation qu’il n’a pas. Il rachète le système QDOS, de l’entreprise Seattle Computer Products, à partir duquel il développe le MS-DOS (MS pour Microsoft).
Deuxième coup de poker, Bill Gates, dont le père est associé fondateur d’un grand cabinet d’avocats de Seattle, propose à IBM un contrat qui prévoit que l’utilisation de MS-DOS ne sera pas exclusive, ce qui lui donne le droit de le vendre à d’autres entreprises informatiques. IBM, peu habitué à la sous-traitance, ne se méfie pas. Ce contrat fera la fortune de Microsoft et le malheur d’IBM : Compaq, Olivetti ou Hewlett-Packard s’empressent de développer des clones de l’IBM PC, donnant naissance à une véritable industrie.
Abonnez-vous dès aujourd’hui !
Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l'entreprise (stratégie, RH marketing, finance…).
Portée par ce formidable succès (l’image de sérieux d’IBM séduit les entreprises, et Microsoft touche une redevance sur chaque PC vendu), l’entreprise est introduite en Bourse en 1986. Bill Gates, Paul Allen et deux de leurs premiers employés deviennent milliardaires et 12 000 autres salariés de Microsoft, millionnaires.
Au milieu des années 1980, les micro-ordinateurs sont peu ergonomiques : leurs systèmes d’exploitation, dont le MS-DOS de Microsoft, fonctionnent avec des lignes de commande particulièrement rébarbatives (le fameux C :/). Tout change en 1984 avec l’Apple Macintosh, équipé d’une interface graphique (icônes, menus déroulants, souris, polices de caractères, etc.). Cette technologie révolutionnaire a été mise au point dans le laboratoire de recherche de Xerox, mais le géant des photocopieurs n’a pas compris son potentiel. Steve Jobs, le patron d’Apple, s’en est très largement inspiré. Pour assurer le succès commercial du Macintosh, il demande à Microsoft de développer une version adaptée de sa suite bureautique, et notamment son tableur Excel. C’est ainsi que Microsoft récupère le principe de l’interface graphique, ce qui lui permet de lancer Windows 1 dès 1985, bientôt accompagné de la suite Office (Word, Excel et Powerpoint).
À lire aussi : Microsoft augmente ses prix pour déplacer les coûts de l’IA générative sur les utilisateurs
Windows est amélioré tout au long des années suivantes, pour culminer avec Windows 95, lancé en 1995 avec une campagne publicitaire de plus de 200 millions de dollars, pour laquelle Bill Gates achète aux Rolling Stones le droit d’utiliser leur chanson « Start Me Up ». La part de marché mondial de Microsoft dans les systèmes d’exploitation dépasse alors les 70 %. Elle n’a guère changé depuis.
En 1997, Microsoft se paye même le luxe de sauver Apple de la faillite en investissant 150 millions de dollars dans son capital sous forme d’actions sans droits de vote, qui sont revendues trois ans plus tard. Steve Jobs remercie Bill Gates lors d’une de ses célèbres keynotes en affirmant : « Le monde est meilleur, merci. » Accessoirement, ce sauvetage permet de mettre fin au procès qu’Apple avait intenté à Microsoft en l’accusant d’avoir copié son interface graphique pour concevoir Windows.
Au milieu des années 1990, l’informatique connaît une nouvelle transformation avec l’explosion du Web. Or, Microsoft, spécialiste des PC autonomes, dont le modèle économique consiste à vendre des logiciels en boîte, est mal préparé pour cette mise en réseau globale. Sa première réaction est la mise au point du navigateur Internet Explorer, (en fait développé à partir du rachat du navigateur Mosaic conçu par l’entreprise Spyglass, un peu comme le MS-DOS en son temps). Internet Explorer finit par être intégré à Windows, ce qui déclenche un procès pour abus de position dominante qui aurait pu entraîner le démantèlement de Microsoft. De nouveaux concurrents, comme Google avec son navigateur Chrome, en profitent pour attirer les utilisateurs.
En 2000, Bill Gates cède son poste de directeur général de Microsoft à Steve Ballmer, un de ses anciens camarades d’Harvard, qui souhaite en faire une entreprise d’appareils électroniques et de services. Pour cela, Ballmer mène pendant les quinze années suivantes toute une série de diversifications : jeux vidéo (Flight Simulator), encyclopédie sur CD (Encarta), matériel informatique (souris, claviers), lecteur MP3 (Zune), hébergement en ligne (Azure), console de jeux (Xbox), téléphones (Windows Phone), tablettes et ordinateurs (Surface).
Si certaines de ces diversifications sont des réussites (notamment Azure et la Xbox), d’autres sont des échecs cuisants. Encarta est vite submergée par Wikipédia, le Zune ne résiste pas à l’iPod d’Apple, tandis que Windows Phone reste l’une des plus grandes erreurs stratégiques de l’histoire de l’entreprise. En effet, pour assurer son succès dans la téléphonie face à l’iPhone, Microsoft rachète la division « téléphones mobiles » du Finlandais Nokia pour 5,4 milliards de dollars en septembre 2013. L’intégration est catastrophique. Steve Ballmer souhaite que les téléphones utilisent une version de Windows 10, ce qui les rend aussi lents que peu ergonomiques. À peine deux ans plus tard, Microsoft stoppe son activité de téléphonie, en accusant une perte de 7,6 milliards de dollars. Nokia est revendu pour seulement 350 millions de dollars.
Une des conséquences de ces multiples diversifications est l’explosion des effectifs de Microsoft, qui passent de 61 000 personnes en 2005 à 228 000 en 2024. De nombreux conflits internes éclatent entre les différentes divisions, qui refusent de travailler ensemble.
Ces guerres de territoires, doublées d’une bureaucratisation envahissante et d’une rentabilité sans effort (pour chaque installation de Windows, les fabricants de PC payent environ 50 dollars, alors que le coût marginal de cette licence est virtuellement nul), brident la capacité d’innovation de Microsoft. Ses logiciels, notamment Internet Explorer 6 ou Windows Vista, sont bientôt moqués par les utilisateurs pour leurs imperfections, constamment colmatées par de fréquentes mises à jour. Comme le font remarquer certains, Windows est équipé d’un mode « sans échec », ce qui laisse supposer que son mode normal est « avec échec ».
En 2014, Satya Nadella remplace Steve Ballmer à la tête de Microsoft. Venu de la division des services en ligne, il va réorienter la stratégie de Microsoft dans cette direction, en développant notamment l’activité d’hébergement Azure. En 2024, Azure est ainsi devenu le deuxième service de Cloud au monde, derrière AWS d’Amazon, et plus de 56 % du chiffre d’affaires de Microsoft proviennent de ses services en ligne. Satya Nadella modifie à cette occasion le modèle économique de l’entreprise : désormais, les logiciels ne doivent plus être vendus, mais accessibles par abonnement, ce qui donne naissance, par exemple, à Office 365 et à Xbox Live.
Parallèlement, Microsoft acquiert le jeu en ligne Minecraft en 2014, puis le réseau social professionnel LinkedIn en 2016 pour 26,2 milliards de dollars (ce qui constitue sa plus grosse acquisition à ce jour), et la plateforme de développement en ligne GitHub en 2018 pour 7,5 milliards de dollars.
Enfin, entre 2023 et 2025, Microsoft investit plus de 14 milliards dans OpenAI, la société à l’origine de ChatGPT, ce qui lui donne une position particulièrement enviable dans la révolution de l’intelligence artificielle. Les modèles de ChatGPT viennent enrichir l’IA interne de Microsoft, Copilot.
Au total, en 50 ans, grâce à une série de paris téméraires, de rachats opportuns, mais aussi de diversifications ratées, Microsoft a connu une évolution significative de sa stratégie, que ce soit en matière de périmètre, d’avantage concurrentiel ou de modèle économique. Un temps étouffée par son opulence et ses conflits internes, l’entreprise semble redevenir attractive, notamment pour les jeunes diplômés. Pour autant, rien ne dit que Microsoft existera encore pendant 50 nouvelles années. D’ailleurs, Bill Gates lui-même a annoncé le contraire.
Frédéric Fréry ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
28.03.2025 à 18:46
Camille Aynès, Maître de conférence en droit public, Université Paris Nanterre – Université Paris Lumières
Lundi 31 mars, le tribunal correctionnel de Paris rendra son jugement dans l’affaire dite des « assistants parlementaires du FN ». Outre une peine principale d’emprisonnement et une amende, Marine Le Pen risque une peine complémentaire d’inéligibilité dont le parquet a requis qu’elle soit d’effet immédiat. Si le tribunal suivait ces réquisitions, Marine Le Pen ne pourrait alors pas se présenter aux prochaines élections présidentielles. Ce scénario est-il crédible ? Est-ce une « atteinte à la démocratie » comme le clame la principale intéressée ?
« Vache à lait » des activités politiques du Front national : c’est en ces termes prosaïques que, le 13 novembre 2024, le procureur de la République a décrit l’utilisation que le parti, présidé de 2011 à 2021 par Marine Le Pen, a faite du Parlement européen dans l’affaire des emplois supposés fictifs des assistants des eurodéputés du FN. Mise en examen pour « détournement de fonds publics », commis entre 2004 et 2016, le parquet a requis contre celle-ci une peine de cinq ans d’emprisonnement (dont trois avec sursis), 300 000 euros d’amende et une inéligibilité de cinq ans assortie de l’exécution provisoire. À supposer que, lundi 31 mars, le tribunal correctionnel de Paris suive les réquisitions sur ce dernier point, la prochaine présidentielle risquerait d’être fermée à l’actuelle cheffe de file des députés du RN.
« Atteinte à la démocratie », martèle la prévenue depuis que les réquisitions sont connues, arguant de la supériorité de la légitimité des urnes sur celle de juges qu’elle accuse de gouverner. Si cette rhétorique du « gouvernement des juges » est bien connue outre-Atlantique, où elle est née, c’est là oublier que la puissance de la figure du juge aux États-Unis n’a nullement son pareil en France.
Opposer ainsi les urnes, c’est-à-dire le peuple, et la justice, c’est par ailleurs faire fi de ce que la justice est précisément rendue… « au nom du peuple français ». C’est également omettre que, quand bien même ils n’en seraient pas la simple « bouche », les juges font application de la loi adoptée par les représentants du peuple concerné.
En matière d’inéligibilité, du reste, loin de toute velléité d’« usurpation » du pouvoir ou de volonté de gouverner, il a été observé, à l’inverse, une grande réticence des juges français à prononcer traditionnellement ce type de peine. Pour quel motif ? La décision d’écarter un responsable public de la vie politique appartient aux seuls électeurs, selon ces derniers.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Fort du constat de juridictions qui ne faisaient donc que très rarement usage de leur faculté de déclarer des responsables inéligibles et confronté, au même moment, à une multiplication des scandales politiques et à une crise de confiance des citoyens envers leurs gouvernants, le législateur a décidé d’« obliger » les juges à prononcer l’inéligibilité de façon beaucoup plus systématique. À cet effet, la loi Sapin II, entrée en vigueur au 11 décembre 2016, a prévu que, pour les infractions de manquement au devoir de probité – parmi lesquelles le détournement de fonds publics –, la peine d’inéligibilité ne constituerait plus une simple faculté, mais une obligation.
Que l’on ne s’y méprenne cependant : parler de peine obligatoire ne signifie point que, pour ce type d’infractions trahissant une violation de l’exigence d’exemplarité, l’inéligibilité s’appliquerait dorénavant « obligatoirement », au sens d’« automatiquement ». Cette automaticité contreviendrait en effet au principe constitutionnel d’« individualisation de la peine ». L’adjectif « obligatoire » indique bien plutôt que l’inéligibilité devient désormais la règle pour les magistrats, ces derniers ne pouvant l’écarter que par une décision dûment motivée. Les juges conservent, autrement dit, la possibilité de ne pas prononcer cette mesure s’ils retiennent que les « circonstances de l’infraction » ou la « personnalité de son auteur » le justifient.
S’il était établi que les faits reprochés à Mme Le Pen ont perduré après le 11 décembre 2016 et que la loi Sapin II, ce faisant, est applicable, serait-il concevable que le tribunal correctionnel de Paris décide que la « personnalité » politique de premier rang de Mme Le Pen, qualifiée par deux fois au second tour des présidentielles, motive qu’elle reste éligible ?
S’il est juridiquement possible, ce scénario est peu probable. Les données du ministère de la justice révèlent en effet que, depuis 2017 et jusqu’à l’année 2022 incluse, dans aucun des cas de détournement de fonds publics qui leur ont été soumis, les tribunaux n’ont jugé nécessaire d’ « écarter la peine d’inéligibilité ».
Les tribunaux pourraient être d’autant moins enclins à exclure cette peine que les faits que l’on reproche à Marine Le Pen correspondent, par définition, à une trahison de la confiance reçue des concitoyens. Loin de représenter un élément jouant en la faveur des prévenus, être membre du gouvernement ou titulaire d’un mandat électif public au moment des faits constitue un facteur aggravant. De fait, en 2013, le législateur a doublé la durée maximale de la peine d’inéligibilité encourue par ceux qui, au moment de la commission du délit, se trouvaient occuper l’une de ces fonctions.
Au regard de ce qui précède, suivre les réquisitions du ministère public en prononçant, ce lundi, l’inéligibilité de Marine Le Pen ne reviendrait, pour le tribunal judiciaire, qu’à s’inscrire dans la droite ligne de sa jurisprudence. Concernant le ministère public lui-même, il eût été loisible, pour ce dernier, d’être plus sévère qu’il ne l’a été en requérant une inéligibilité de cinq ans. Dans la mesure où Mme Le Pen siégeait au Parlement européen au moment des faits, la durée maximum de l’interdiction requise eût pu légalement être portée de cinq à dix ans. De ce point de vue, les allégations de « procès politique » ne paraissent guère fondées.
Pour autant, quelle qu’en soit la nature (facultative ou obligatoire) et la durée, l’inéligibilité à laquelle pourrait être condamnée Mme Le Pen en première instance ne viendrait contrecarrer ses ambitions présidentielles qu’à condition d’être assortie de l’exécution provisoire. Qu’est-ce à dire ?
En vertu du principe cardinal de la présomption d’innocence, une condamnation pénale ne devient applicable que lorsque la décision est devenue définitive, ce qui n’advient qu’après que le justiciable a exercé toutes les voies de recours que la procédure prévoit.
En l’espèce, on peut légitimement s’attendre à ce qu’en cas d’inéligibilité prononcée, Marine Le Pen fasse appel de ce jugement voire, s’il y a lieu, se pourvoie en cassation. Les délais de la justice étant très longs, il y a fort à parier que l’ancienne présidente du Rassemblement national imaginait que l’issue finale de ce contentieux n’interviendrait qu’après l’élection. C’est vraisemblablement ce qui explique que cette dernière n’ait jamais véritablement répondu aux sollicitations judiciaires et qu’elle ne se soit guère inquiétée d’une éventuelle peine d’inéligibilité.
Mais cela était sans compter sur l’exception qui offre la possibilité aux juges de décider d’assortir le prononcé de certaines sanctions pénales de l’« exécution provisoire », ce qui a pour effet de rendre leur application immédiate.
Dans l’esprit du législateur, cette exception devait venir pallier les difficultés liées à la lenteur de la justice évoquée : elle devait permettre d’éviter la récidive et favoriser l’efficacité de la peine.
De fait, attendre qu’une décision devienne définitive pour l’exécuter revient parfois à n’appliquer la condamnation que de nombreuses années après les faits. C’est là, sinon courir le risque d’une récidive, du moins priver la peine à la fois de son sens et de son efficacité. On comprend, dès lors, que l’exécution provisoire soit de plus en plus fréquemment utilisée. En 2023, 58 % des peines d’emprisonnement ferme prononcées par les tribunaux correctionnels ont été mises à exécution immédiatement. Ce constat vaut également pour les peines d’inéligibilité – les exemples, pour la seule année 2024, étant légion. Ces chiffres nuancent de nouveau, s’il le fallait, les accusations d’« acharnement » portées par le RN.
Si, au nom de l’efficacité de la peine, les magistrats venaient ce lundi à assortir la mesure de l’exécution provisoire, Mme Le Pen deviendrait concrètement inéligible à compter du 1er avril.
Cette seconde hypothèse, de fait, priverait des millions d’électeurs français de leur choix en 2027. Ne serait-elle pas alors disproportionnée au regard du principe constitutionnel qui protège le droit d’éligibilité et la liberté de l’électeur ? Les dix millions de voix obtenues lors des dernières législatives constitueraient-elles, à cet égard, une sorte de « totem d’immunité judiciaire » ?
C’est, en substance, l’interprétation que le RN semble avoir fait ces dernières semaines de la question qu’un élu local mahorais, condamné à cette même sanction et démis d’office de son mandat de conseiller municipal, a eu l’opportunité de poser au Conseil constitutionnel le 18 mars dernier.
La lecture selon laquelle l’élu de Mayotte et Marine Le Pen eussent été dans une situation semblable était certes erronée. D’une part, les faits ne concernaient pas un aspirant à des élections nationales, mais un élu local. D’autre part, ce dernier ne contestait pas son inéligibilité à des mandats futurs, mais le fait que celle-ci ait entraîné la démission de ses mandats en cours. Le verdict rendu pour le premier n’aurait donc pu, quelle qu’en soit l’issue, avoir de conséquences directes sur la possibilité même du tribunal correctionnel de Paris de prononcer la peine requise par le parquet.
Il n’empêche que, dans sa décision rendue vendredi 28 mars, défavorable à l’ancien conseiller municipal, le Conseil constitutionnel a émis une « réserve » que d’aucuns pourraient interpréter comme un signal positif en direction de Marine Le Pen. Les « sages » ont en l’espèce indiqué que ne pas évaluer le caractère éventuellement disproportionné de l’atteinte qu’une peine d’inéligibilité assortie de l’exécution provisoire pourrait porter « à l’exercice d’un mandat en cours et à la préservation de la liberté de l’électeur » serait, pour le juge, contrevenir à la Constitution.
S’il n’est fait de référence explicite qu’aux « mandats en cours » ; si, en outre, cette réserve paraît avant tout exiger des magistrats qu’ils justifient le fait d’assortir la peine d’inéligibilité de l’exécution provisoire, la formulation retenue est suffisamment ambiguë pour laisser planer un doute.
En tout état de cause, c’est, selon nous, une autre explication encore qui pourrait conduire le tribunal, ce lundi, à renoncer à user de l’« arme létale » de l’exécution provisoire. Cette explication n’est autre que la responsabilité énorme qu’elle ferait reposer sur les épaules de juges qui doivent faire face à une question et à une pression politique, populaire et médiatique sans précédent.
Camille Aynès ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
28.03.2025 à 10:06
Frédéric Aubrun, Enseignant-chercheur en Marketing digital & Communication au BBA INSEEC - École de Commerce Européenne, INSEEC Grande École
Satire sociale qui suit de riches Occidentaux en vacances dans de grands hôtels de luxe, la série The White Lotus fait parler d’elle avec le changement radical de son générique pour sa saison 3 qui se situe en Thaïlande. Cette évolution illustre un phénomène plus large : les génériques TV sont devenus des espaces d’interprétation active pour les spectateurs. Décryptage.
Depuis le 17 février dernier, le nouveau générique de la troisième saison de The White Lotus déroute les fans. Après deux saisons caractérisées par les vocalises distinctives « woooo looo loooo », de Cristobal Tapia de Veer, la série d’anthologie de Mike White, showrunner et créateur de la série, prend un virage musical radical.
Les percussions tribales et les chants hypnotiques cèdent la place à une composition plus sombre, aux accents d’accordéon, qui accompagne désormais le voyage spirituel des personnages en Thaïlande. Ce changement a provoqué une vague de réactions sur les réseaux sociaux, certains fans criant au sacrilège tandis que d’autres défendent l’audace créative du créateur de la série. « Ça se déchaîne sur les réseaux », confirme Charlotte Le Bon, actrice de cette nouvelle saison.
Mais cette controverse révèle un phénomène plus profond : l’évolution du rôle du générique dans notre expérience des séries contemporaines et la façon dont nous, spectateurs, participons activement à la construction de son sens.
Chaque samedi, un éclairage original et décalé (articles, quiz, vidéos…) pour mieux comprendre le monde qui nous entoure. Abonnez-vous gratuitement dès aujourd’hui !
Loin d’être un simple ornement, le générique de The White Lotus est devenu un espace de dialogue entre créateurs et public, un lieu d’interprétation active où chaque élément visuel et sonore participe à notre compréhension de l’œuvre. Cette évolution illustre parfaitement ce que nous appelons une « hyperesthétisation du générique télévisuel ».
À lire aussi : De l’importance des génériques de séries
Pour comprendre l’importance de ce changement musical, il faut d’abord saisir comment les génériques de The White Lotus fonctionnent au niveau sémiotique. Loin d’être de simples séquences visuelles et musicales fixes, leur sens évolue selon l’avancement du spectateur – ou plutôt du « visionneur actif ». Ce que nous observons dans la réception des génériques de The White Lotus illustre parfaitement cette dynamique : le générique n’est pas un objet figé, mais un « puzzle abstrait et poétique » dont les pièces prennent progressivement sens à mesure que l’histoire se déploie. À chaque épisode, nous redécouvrons ce même générique « d’un œil nouveau », comme l’explique Ariane Hudelet, car ses images et sons « se chargent de la valeur narrative et symbolique qu’ils ont pu acquérir dans leur contexte diégétique » (la diégèse est l’espace-temps dans lequel s’inscrit l’histoire contée par l’œuvre, ndlr).
Cette perspective est particulièrement pertinente pour une série d’anthologie comme The White Lotus.
« La relation qu’entretient le générique avec sa série est cruciale : sans série, le générique n’existerait pas. Mais, paradoxalement, le générique fait, lui aussi, exister la série, il en est une sorte de révélateur chimique », explique Éric Vérat.
Cette relation dialectique prend une dimension encore plus importante lorsque le cadre, les personnages et l’intrigue changent complètement d’une saison à l’autre. Le générique devient alors l’élément d’unification qui maintient l’identité de la série.
C’est précisément ce qui rend le changement de la saison 3 si significatif : en transformant radicalement le thème musical, Mike White bouscule ce point d’ancrage identitaire de la série. Mais ce faisant, il nous invite aussi à participer activement à la construction d’un nouveau sens, aligné avec la thématique spirituelle de cette saison.
À lire aussi : « Black Mirror » : notre monde est-il devenu la dystopie que prédisait la série ?
À travers ses trois saisons, The White Lotus nous offre une remarquable étude de cas sur l’évolution des génériques en lien avec les thématiques narratives. Chaque générique fonctionne comme un microcosme qui condense l’essence de sa saison respective, tout en maintenant une cohérence esthétique qui transcende les changements de décor.
Dans la première saison située à Hawaï, le générique nous plonge dans un univers de papier peint tropical apparemment idyllique, mais progressivement perturbé. À première vue, nous voyons des motifs floraux et animaliers paradisiaques. Pourtant, en y regardant de plus près, ces éléments se transforment subtilement : les fruits commencent à pourrir, les animaux prennent des postures agressives, les plantes deviennent envahissantes.
Cette métamorphose visuelle, accompagnée des vocalises hypnotiques de Cristobal Tapia de Veer, reflète parfaitement le propos de la saison : derrière l’apparente perfection du resort de luxe se cachent des dynamiques de pouvoir toxiques. En cela le générique remplit bien sa fonction d’« ancrage » pour reprendre un terme de Roland Barthes, tout en nous donnant l’ambiance de la saison.
Pour la deuxième saison en Sicile, le papier peint cède la place à des fresques inspirées de la Renaissance italienne. L’iconographie devient explicitement sexuelle, avec des scènes de séduction, de passion et de trahison évoquant la mythologie gréco-romaine. La musique conserve sa signature distinctive, mais s’enrichit de chœurs méditerranéens et de harpe, signalant le passage à une thématique centrée sur le désir et ses dangers.
Le générique fonctionne ici comme un avertissement : derrière la beauté classique et l’hédonisme sicilien se cachent des passions destructrices.
La troisième saison en Thaïlande opère la transformation la plus radicale. Visuellement, le générique s’inspire de l’iconographie bouddhiste et des représentations occidentales de la spiritualité asiatique. Mandalas, statues, postures de méditation et symboles sacrés s’entremêlent avec des signes de richesse et de luxe. Mais c’est au niveau sonore que la rupture est la plus marquée : les iconiques vocalises « woooo looo loooo » disparaissent au profit d’un thème plus sombre, méditatif, accompagné d’accordéon.
Ce choix audacieux témoigne de la volonté de Mike White d’aligner parfaitement le générique avec la thématique plus existentielle de cette saison, centrée sur la quête spirituelle et la confrontation à la mort.
À chaque saison, le visionneur est invité à reconstruire ce puzzle sémiotique, à tisser des liens entre les éléments du générique et les développements narratifs. Ce processus actif d’interprétation constitue ce que notre recherche identifie comme la « circulation du sens par le visionneur » – une dynamique particulièrement visible dans cette série d’anthologie.
Au cœur de la controverse sur le générique de la saison 3 se trouve la musique de Cristobal Tapia de Veer, compositeur québécois d’origine chilienne dont la signature sonore était devenue indissociable de l’identité de The White Lotus.
Son cocktail unique mêlant percussions tribales, vocalises distordues et sonorités électroniques avait créé une atmosphère aussi envoûtante qu’inquiétante, parfaitement alignée avec l’ambiance satirique de la série.
Cette musique a rapidement transcendé le cadre de la série pour devenir un phénomène culturel à part entière.
« avec ses quelques notes de harpe et son rythme entraînant, c’est le générique de série qui a fait danser des milliers de personnes devant leur télé, et même en soirée », explique la comédienne Charlotte Le Bon
Le thème a envahi TikTok et certains clubs où des DJ l’ont intégré à leurs sets, illustrant sa capacité à fonctionner comme un objet culturel autonome.
La musique du générique est devenue, selon les termes de Barthes, un « ancrage » qui guide notre interprétation de la série. Répétée au début de chaque épisode, elle fonctionne comme un signal familier qui nous introduit dans cet univers.
En changeant radicalement cette signature musicale pour la saison 3, Mike White fait plus qu’un simple choix esthétique. Il bouscule nos repères, mais nous invite aussi à participer activement à la construction d’un nouveau sens, en parfaite cohérence avec la thématique spirituelle de cette saison thaïlandaise.
L’évolution des génériques de The White Lotus et la controverse entourant le changement musical de la troisième saison illustrent une tendance significative : l’émergence du générique comme espace privilégié de dialogue entre créateurs et public dans les séries contemporaines.
Cette transformation s’observe dans plusieurs génériques que nous avons étudiés. Celui de The Wire (HBO, 2002-2008) utilise ainsi la répétition et la variation comme principe fondateur : chaque saison reprend la même chanson (« Way Down in the Hôle »), mais avec un interprète différent, reflétant le changement de focus narratif sur un autre aspect de Baltimore, ville centrale de la série. Game of Thrones (HBO, 2011-2019) propose une carte interactive qui évolue selon les lieux importants de chaque épisode, permettant au spectateur de se repérer dans cet univers complexe tout en annonçant les enjeux géopolitiques à venir. Quant à Westworld (HBO, 2016-2022), son générique utilise des images de synthèse évoquant la création d’androïdes, suggérant déjà les thèmes de la conscience artificielle et du transhumanisme qui traversent la série.
Dans une époque où l’on peut facilement sauter le générique d’un simple clic, leur transformation en objets culturels autonomes, parfois cultes, témoigne paradoxalement de leur importance croissante. Ces séquences ne sont plus de simples portes d’entrée fonctionnelles vers la fiction, mais des œuvres à part entière qui condensent l’essence de la série tout en sollicitant activement notre interprétation.
L’approche sociosémiotique nous permet de comprendre comment le sens de ces génériques circule et évolue selon le parcours du visionneur.
Dans le cas des génériques de The White Lotus, cette circulation du sens opère à plusieurs niveaux : entre les épisodes d’une même saison, entre les différentes saisons, et même au-delà de la série, lorsque le thème musical devient un phénomène culturel indépendant. Le changement radical opéré pour la saison 3 peut ainsi être compris non pas comme un simple revirement esthétique, mais comme une invitation à participer à une nouvelle quête de sens, parfaitement alignée avec la thématique spirituelle de cette saison.
En nous bousculant dans nos habitudes, Mike White nous incite à renouveler notre regard et notre écoute, à redécouvrir le générique comme un espace d’interprétation active plutôt que comme un simple rituel de reconnaissance.
Cette controverse nous rappelle finalement que les génériques sont devenus des lieux privilégiés d’expression artistique et de circulation du sens dans les séries contemporaines. Ils confirment que, dans l’âge d’or télévisuel actuel, chaque élément, jusqu’au plus périphérique, participe pleinement à l’expérience narrative globale et à notre engagement actif dans l’interprétation de ces œuvres.
Cette contribution s’appuie sur l’article de recherche de Frédéric Aubrun et Vladimir Lifschutz, « Hyperesthétisation du générique TV : circulation du sens par le visionneur », paru dans le n°28 de la revue CIRCAV (Cahiers interdisciplinaires de la recherche en communication audiovisuelle).
Frédéric Aubrun ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
27.03.2025 à 17:10
Marie Bergström, Chercheuse en sociologie du couple et de la sexualité, Ined (Institut national d'études démographiques)
En matière sexuelle, quelles évolutions récentes sont à l’œuvre au sein des jeunes générations ? La sociologue Marie Bergström a coordonné La sexualité qui vient, un ouvrage collectif qui relève la grande diversité relationnelle expérimentée par les jeunes adultes ainsi qu’une redéfinition des normes de genre. Elle décrypte pour nous quelques chiffres frappants tirés de cette enquête, à l’ampleur et à l’approche inédites.
Comment comprendre les évolutions récentes en matières sexuelles ? Quel impact de #MeToo et de la dénonciation des violences sexistes et sexuelles, des débats sur le consentement ? Comment se traduisent les questionnements autour du genre ?
Une enquête de l’Institut national d’études démographiques (Ined), d’une ampleur inédite, menée auprès de plus de 10 000 jeunes adultes âgés de 18 à 29 ans, apporte un éclairage nouveau sur ces questions.
Avec une équipe de 23 chercheuses et chercheurs, la sociologue Marie Bergström a exploité les données de cette étude pour en tirer un ouvrage collectif, La sexualité qui vient, publié aux éditions La Découverte. Objectif : s’éloigner des questions standardisées pour capter la grande diversité des relations expérimentées par cette génération.
L’approche, relationnelle et non centrée sur les pratiques, permet de mieux cerner la pluralité des liens noués et des nouvelles identifications à l’œuvre. Ainsi, l’hétérosexualité perd du terrain tandis que le couple traditionnel, sans être détrôné, coexiste désormais avec les « sexfriends » et « histoires d’un soir ».
Marie Bergström analyse pour nous quelques données marquantes issues de cette vaste étude.
En 2023, la moitié de 18-29 ans a connu son premier rapport sexuel à 17,7 ans
Marie Bergström : Ce chiffre confirme que l’âge d’entrée dans la sexualité vient d’être légèrement reporté au sein des générations récentes. Ce n’est d’ailleurs pas une spécificité française, on observe cela par exemple aux Pays-Bas.
Chaque samedi, un éclairage original et décalé (articles, quiz, vidéos…) pour mieux comprendre le monde qui nous entoure. Abonnez-vous gratuitement dès aujourd’hui !
C’est un renversement de tendance sur le temps long, car depuis les années 1940 et jusqu’à la génération née en 1996, au sein de laquelle l’âge médian du premier rapport sexuel a atteint 17,4 ans, la tendance était à la baisse continue de l’âge du premier rapport sexuel et à un rapprochement progresssif entre les sexes.
Pour la génération qui a eu 18 ans entre 1964 et 1968, l’âge médian était de 19,4 pour les femmes et 18,3 pour les hommes. Pour celle qui a eu 18 ans entre 2011 et 2014, l’âge médian était descendu à 17,5 pour les femmes et 17,3 pour les hommes, comme le montrent Michel Bozon, Titouan Fantoni-Decayeux et Arnaud Régnier-Loilier dans le livre. Il passe ensuite à 18,3 pour les femmes et 17,9 pour les hommes qui ont eu 18 ans en 2020-2022, soit pendant la crise sanitaire. On constate donc un effet conjoncturel très net du Covid, en raison des confinements et des limitations du mouvement.
Or l’âge avait commencé à augmenter avant et la tendance à la hausse ne s’explique donc pas uniquement par la crise sanitaire. Les facteurs sont sans doute multiples. D’abord, la sociabilité a changé et cela peut être une des explications. Le fait que la santé mentale des jeunes se soit détériorée peut en être un autre : les sociologues Tania Lejbowicz et Isabelle Parizot relèvent dans l’ouvrage qu’un quart des jeunes présentent des signes de détresse psychologique. Cela peut éloigner des rencontres amoureuses et sexuelles. On en a beaucoup parlé pendant le Covid, mais en fait, cette situation préexistait et elle s’est aggravée avec cet épisode.
Enfin, le contexte politique et social du moment #MeToo transforme les rapports de genre. Comme l’explique Michel Bozon, le moment #MeToo a commencé avant 2017 et l’affaire Weinstein. C’est une évolution de fond, entraînant un questionnement sur la sexualité et l’intimité qui peut jouer sur le recul observé de l’âge du premier rapport. On observe une réflexivité croissante, notamment sur le consentement, liée à l’augmentation des ressources numériques sur ces questions. Cela a pu jouer sur la manière dont les jeunes, et surtout les jeunes femmes, envisagent et entament leur entrée dans la sexualité. Dans quelle mesure cette tendance à la hausse est-elle temporaire ou durable ? Impossible de le dire aujourd’hui.
En 2023, 35 % des 25-29 ans ont eu dix partenaires ou plus
M. B. : C’est une évolution majeure. Le nombre de partenaires sexuels au cours de la vie a certes augmenté depuis le milieu du XXe siècle, mais sur la période récente, on observe une nette accélération : la génération qui avait 18-29 ans en 2023 a significativement plus de partenaires avant 30 ans que la précédente.
Dans la dernière enquête « Contexte de la sexualité en France » (Inserm, Ined), réalisée en 2006, dans cette tranche d’âge, les femmes en déclaraient en moyenne quatre au cours de la vie. Aujourd’hui, c’est huit – le double ! Les hommes en déclaraient huit, désormais ils en mentionnent douze.
L’augmentation du nombre de partenaires signe aussi une profonde diversification relationnelle. Les 18-29 ans ont vraiment inventé une multitude de nouveaux termes pour nommer ces différentes relations, il y a toute une gamme de nuances entre le « couple » et le « plan cul », c’est aussi cela aussi que montre notre enquête.
La multiplication des rencontres est favorisée par l’usage important des applications de rencontre – 56 % des 18-29 ans s’y sont déjà connectés –, qui facilitent l’accès aux partenaires. Mais les applications ne font pas tout, les jeunes vivent aussi plein d’histoires d’un soir qui démarrent hors ligne : si 21 % des hommes ont rencontré leur partenaire d’un soir sur une appli, 30 % l’ont fait dans un lieu public comme un bar ou une boîte, et 11 % dans le cadre de leurs études (des chiffres sensiblement identiques pour les femmes).
21 % des jeunes ont eu une histoire d’un soir dans l’année, 15 % une relation sexuelle suivie
M. B. : Dans l’enquête, on s’intéresse à trois types de relations différents : le couple, qui est la forme relationnelle dominante ; à l’autre bout du spectre, « l’histoire d’un soir » ; et entre ces deux pôles, on observe un continuum relationnel que l’on a appelées des « relations suivies ».
Entre le couple et la sexualité sans lendemain, il y a aujourd’hui une multitudes d’autres relations qui peuvent durer un certain temps mais qui, pour les jeunes, ne font pas « couple ».
Lorsqu’on leur demande de les qualifier, ils utilisent énormément de termes différents – plus de 300 ont été recensés au cours de notre enquête, certains très spécifiques, d’autres assez récurrents. « Sexfriend » est le plus souvent utilisé, on relève aussi « plan cul régulier » ainsi qu’« amitié avec un plus » qui est la traduction française de « Friends with benefits ».
« Sexfriend » s’applique plutôt à un partenaire sexuel (parfois rencontré en ligne) avec qui on développe une relation sexuelle amicale, et « amitié avec un plus » s’applique davantage à quelqu’un que l’on a rencontré par l’intermédiaire d’amis et avec qui se noue une relation sexuelle. On a aussi pu recenser d’autres termes plus minoritaires comme « aventure » et « flirt », qui existent depuis longtemps.
Ce qui nous a frappés, ce sont notamment ces relations qui brouillent la frontière entre amitié et sexualité. Des relations amicales où il y a eu de la sexualité, cela a bien sûr pu exister par le passé, mais ce qui est nouveau, c’est le fait de les nommer. Mettre des mots, c’est vouloir faire exister, donner une forme de reconnaissance, de légitimité.
66 % des jeunes ont été en couple dans l’année écoulée
M. B. : La norme conjugale demeure très forte et dans le même temps, d’autres formes relationnelles se sont multipliées. Ce n’est pas du tout contradictoire, parce qu’aujourd’hui les parcours sont vraiment marqués par des phases d’alternance entre couple et célibat, celui-ci étant vécu comme un temps d’expérimentations. Ces expérimentations sont attendues pendant la vingtaine, il y a cette idée que lorsqu’on est jeune, et qu’on est célibataire, il faut en « profiter ».
Aujourd’hui, 27 % des 18-29 ans vivent en couple cohabitant – c’est une tendance à la baisse. Nos chiffres confirment les observations de l’Insee : en 1990, 46 % des jeunes de 20 à 29 ans vivaient en couple cohabitant, ils n’étaient plus que 35 % en 2021. Mais il faut noter qu’il y a un report : la cohabitation n’est pas rejetée, à l’approche de la trentaine une majorité de jeunes s’installent en couple sous un même toit. C’est aussi à ce moment-là que l’on va voir émerger la parentalité. À 29 ans, 46 % des femmes sont mères et 30 % des hommes sont pères. Le couple comme institution et comme idéal est toujours très présent.
70 % des jeunes en couple discutent d’exclusivité sexuelle
M. B. : C’est le sujet de thèse de Malena Lapine, jeune chercheuse à l’Ined (Institut national d’études démographiques). Elle montre que l’exclusivité dans le couple ne va plus de soi : on se pose la question à un moment ou à un autre de la relation, le plus souvent lorsque celle-ci débute.
Une très large majorité des jeunes choisit cependant l’exclusivité : ainsi, 88 % des personnes en couple qui en ont parlé avec leur partenaire ont décidé que leur relation resterait exclusive, et seulement 4 % des personnes en couple ayant abordé ce sujet ont opté pour une configuration non exclusive. Pour 8 %, c’est plus compliqué : rien n’a été décidé ou bien il n’y a pas d’accord entre les partenaires.
Nous montrons aussi dans notre enquête que les relations non monogames, comme le polyamour, sont certes très médiatisées mais demeurent très minoritaires.
Le « couple libre » est aujourd’hui dans le champ de vision de tout le monde – notamment par le biais des réseaux sociaux – et 20 % des jeunes se disent par ailleurs capables de vivre une telle relation, mais le passage à la pratique demeure rare et socialement situé.
Entre 2006 et 2023, la part des sexualités minoritaires (non hétérosexuelles) a été multipliée par cinq chez les 18-29 ans, passant de moins de 3 % à 15 %
M. B. : C’est un bond spectaculaire, et plus spectaculaire encore chez les femmes : 19 % des jeunes femmes (c’est-à-dire une sur cinq) s’identifient autrement qu’hétérosexuelles, contre 8 % des hommes.
Ce qu’on observe chez les femmes, c’est une augmentation très forte de ce que mes collègues Tania Leibowicz et Wilfried Rault appellent des plurisexualités, parce que c’est la bisexualité (être attiré par les deux sexes) et la pansexualité (ne pas définir son désir par le prisme du genre) qui augmentent beaucoup. Cela correspond à une forme d’ouverture plus importante et potentiellement à une critique de la binarité de genre.
Aujourd’hui les jeunes femmes se déclarant pansexuelles ou bisexuelles sont beaucoup plus nombreuses que celles se déclarant lesbiennes (en 2023, 10 % des jeunes femmes se disent bisexuelles, 5 % pansexuelles, 2 % lesbiennes). Il faut sans doute y lire, dans un contexte post-MeToo, une critique et une forme de désaffiliation de l’hétérosexualité. C’est aussi très lié à la diffusion du féminisme. En France, ces dernières années, on a beaucoup discuté de plaisir, de désir, de consentement, d’hétérosexualité, et c’est un contexte qui est très important, je pense, pour comprendre les évolutions.
Pour les hommes, l’augmentation des sexualités minoritaires est réelle mais bien moindre : 8 % d’entre eux se définissent autrement qu’hétérosexuels, dont 3 % comme gays.
Une piste pour comprendre cela : même si l’acceptation de l’homosexualité masculine augmente, la figure du « pédé » continue d’agir comme un repoussoir au sein de la jeunesse, comme le montrent les travaux de la sociologue Isabelle Clair concernant les adolescents. Les regards portés sur la sexualité des femmes et sur celle des hommes ne sont pas symétriques. L’équivalent féminin de « pédé », en termes d’insulte, ça n’est pas « gouine », c’est « pute ». Pour les hommes, c’est avant tout l’écart à l’hétérosexualité qui est stigmatisé ; pour les femmes, c’est l’écart à la norme féminine de réserve sexuelle. Les choses ont bougé, bien entendu, mais ces figures n’ont pas disparu : il y a aujourd’hui des tensions normatives entre, d’un côté, ces figures repoussoirs qui sont toujours présentes et, de l’autre, de nouvelles normes, plus ouvertes.
1,7 % des jeunes de 18 à 29 ans se déclarent non binaires
M. B. : Il est important de relever que c’est la première enquête d’envergure nationale qui permet de capter les personnes non binaires en France. Dans toutes les enquêtes statistiques réalisées jusqu’ici, on demandait « Est-ce que vous êtes homme ou femme ? » L’enquête Envie a donné la possibilité de se définir comme non binaire. On montre que cela concerne une petite minorité.
Mais on relève des interrogations plus larges autour du genre, comme le montrent les travaux de Mathieu Trachman sur le genre. Ainsi, 24 % des jeunes disent qu’ils ou elles se sont questionnées sur leur féminité et sur la masculinité. Ce chiffre est le même pour les hommes et les femmes. On ne dispose pas d’éléments de comparaison, car la question n’a pas été posée ainsi dans de précédentes enquêtes, mais on peut penser que le contexte #MeToo a favorisé ces questionnements-là.
43 % des femmes déclarent que quelqu’un les a forcées ou a essayé de les forcer à subir ou à faire subir des pratiques sexuelles au cours de leur vie
M. B. : C’est un chiffre en très nette augmentation : en 2006, elles étaient 23 % à déclarer de tels faits. La question que l’on se pose toujours face à de telles évolutions, c’est de savoir s’il s’agit d’une augmentation des déclarations ou du phénomène lui-même.
Dans notre ouvrage, les sociologues Florence Maillochon et Mathieu Trachman insistent sur deux éléments. Bien sûr, grâce au mouvement #MeToo notamment, les violences faites aux femmes sont de plus en plus dicibles. Elles évoquent donc plus facilement ce qu’elles ont subi. Ce qu’on appelle la violence évolue aussi : les générations actuelles considèrent comme intolérables des situations ou des gestes qui étaient perçus comme plutôt normaux par le passé. Le travail de thèse de Rébecca Lévy-Guillain le montre bien : les débats autour du consentement favorisent une relecture des expériences passées, ce que l’on considérait comme acceptable ne l’est plus.
Mais Florence Maillochon et Mathieu Trachman pointent aussi une plus grande exposition des jeunes femmes aux situations à risque, du fait qu’elles ont davantage de partenaires que par le passé et notamment de partenaires éphémères. Si la jeune génération déclare plus de violences que les générations plus âgées, c’est donc à la fois qu’elles qualifient plus aisément certaines de leurs expériences comme étant des rapports forcés ou des tentatives de rapports forcés, mais c’est sans doute aussi que, en ayant beaucoup plus de partenaires, elles sont davantage exposées aux violences sexuelles masculines.
Léonor Amilhat, Yaëlle Amsellem-Mainguy, Marie Bergström, Milan Bouchet-Valat, Michel Bozon, Géraldine Charrance, Paul Cochet, Titouan Fantoni-Decayeux, Constance Hemmer, Malena Lapine, Tania Lejbowicz, Florence Maillochon, Marion Maudet, Arno Muller, Pauline Mullner, Isabelle Parizot, Clark Pignedoli, Romain Philit, Delphine Rahib, Wilfried Rault, Arnaud Régnier-Loilier, Mathieu Trachman et Damien Trawale ont contribué à l’ouvrage La sexualité qui vient. Jeunesse et relations intimes après #MeToo, aux éditions La Découverte, « Sciences humaines », 2025.
Marie Bergström ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
27.03.2025 à 17:06
Christian-Georges Schwentzel, Professeur d'histoire ancienne, Université de Lorraine
Scènes marquantes du film Caligula, sorti dans une version reconstituée en 2024, les orgies semblent être au cœur de l’exercice du pouvoir à Rome au Ier siècle. Qu’en était-il réellement ?
Sorti en salles en 1979, le film Caligula raconte le court règne de cet empereur, devenu le maître incontesté du monde romain à l’âge de 25 ans, en 37 apr. J.-C., et assassiné moins de quatre ans plus tard par sa garde rapprochée. Surtout connu par le témoignage de l’historien latin Suétone, son règne excessif marqua profondément l’histoire de Rome. Caligula est devenu, dans notre imaginaire, le prototype même du tyran fou, débauché et sanguinaire.
En 1976, Bob Guccione, le très riche fondateur du magazine érotique Penthouse, décide de financer la production d’un film à gros budget consacré au règne de Caligula. Le scénario est confié à l’écrivain réputé du moment, Gore Vidal, tandis que Tinto Brass est chargé de la réalisation dans des studios à Rome. Des acteurs renommés sont recrutés : Malcolm Mc Dowell, la tête d’affiche d’Orange Mécanique, dans le rôle-titre, Peter O’Toole (Lawrence d’Arabie) et Helen Mirren (Le Meilleur des mondes possible).
Rapidement, de profonds désaccords éclatent lors de la réalisation du film. Tinto Brass modifie le scénario initial de Gore Vidal qui lui semble accorder trop d’importance aux relations homosexuelles de Caligula. Bob Guccione est, quant à lui, mécontent de l’érotisme exubérant mis en scène par Tinto Brass, dans un style qui rappelle le Satyricon de Fellini et ne correspond pas, selon lui, aux attentes du public américain. Il fait alors filmer de nouvelles scènes, exhibant des « mannequins de charme » de Penthouse, en fait des actrices pornographiques, afin de mieux répondre aux stéréotypes sexuels promus par son magazine.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Le résultat est une œuvre hybride et sans unité, finalement reniée à la fois par Gore Vidal et par Tinto Brass. N’ayant pas eu le droit de monter lui-même le film, celui-ci refuse d’en être présenté comme le réalisateur.
En 2023, le film originel fait l’objet d’une reconstitution à partir des seules scènes tournées à Rome par Tinto Brass. Thomas Negovan, maître d’œuvre de ce projet, a pu exhumer 90 heures de bobines, conservées dans les réserves de la société Penthouse Films. Il les restaure avant de les monter, offrant ainsi au public une nouvelle version du film, dépouillée de tous les ajouts postérieurs.
Le résultat est une œuvre monumentale de presque trois heures, à la fois somptueuse et d’une rare violence, qui nous plonge dans un tourbillon vertigineux où sexe et politique, tyrannie et orgie ne cessent de s’entremêler. Débarrassé des scènes pornographiques pour lecteurs de Penthouse, le film de 2024 se révèle, en fin de compte, encore plus violent que la version de Guccione, car son fil conducteur exclusif devient dès lors la dérive du pouvoir absolu, sa totale monstruosité et ses crimes abominables. Caligula. The Ultimate Cut n’accorde presque aucun répit au spectateur, toujours plus sidéré et étouffé par le déferlement d’une cruauté sans cesse renouvelée.
La seule véritable pause dans le récit nous montre un moment de bonheur de Caligula, cajolé, au cours d’une langoureuse scène de triolisme, par les deux femmes de sa vie : sa sœur Drusilla, incarnée par Teresa Ann Savoy, et son épouse Caesonia, interprétée par Helen Mirren. Toujours si angoissante et pesante par ailleurs, la musique d’accompagnement, elle aussi reconstituée par Negovan, s’envole alors en d’exceptionnels élans aériens.
Le film se base principalement sur les Vies des douze Césars de Suétone. L’ouvrage a été écrit au début du IIe siècle apr. J.-C., à l’époque des empereurs de la dynastie des Antonins qui représentaient un modèle de bon gouvernement. C’est une source biaisée car, pour mieux faire l’éloge des empereurs de son époque, Trajan et Hadrien, Suétone avait tout intérêt à exagérer les vices et les crimes prêtés à ses prédécesseurs de la famille des Julio-Claudiens qui avaient régné sur l’Empire romain, de la mort d’Auguste, en 14 apr. J.-C., à celle de Néron, en 68.
Le film Caligula présente donc, par rapport à la réalité historique, les mêmes problèmes que l’œuvre de Suétone dont il s’inspire. Pour autant, et même si l’on veut bien croire que l’auteur latin ait caricaturé les faits, la tyrannie exercée par Caligula ne fait aucun doute. Elle est largement confirmée par d’autres auteurs antiques, comme Flavius Josèphe et Dion Cassius. Mais revenons aux faits évoqués par Suétone et adaptés à l’écran, parfois avec quelques anecdotes supplémentaires.
Dans la première partie du film, Caligula débarque sur l’île de Capri où s’est retiré le vieil empereur Tibère, interprété par Peter O’Toole. Celui-ci, désireux de mener une vie de débauche loin de Rome, s’y est installé à l’abri des regards. Dans son antre, transformé en bordel géant, on le voit nager en compagnie de ses esclaves sexuels, qu’il appelle ses « petits poissons ». Puis il déambule, sans grande conviction, entre les différents étages d’un théâtre pornographique où une faune d’actrices et d’acteurs recrutés par ses soins est chargée d’entretenir sa libido chancelante.
Dans sa discussion désabusée avec Caligula, il explique le malentendu dont il se dit victime : il n’a jamais voulu devenir empereur, mais il n’a pas eu le choix, car il serait mort assassiné si un autre que lui avait pris le pouvoir. C’était donc une question de vie ou mort. Cependant il ne tire aucun bonheur, ni de son pouvoir absolu ni de la foule d’esclaves qui le servent et le caressent.
Après la mort de Tibère, Caligula, devenu empereur, organise à son tour des orgies, mais d’un genre radicalement nouveau. Les festins spéciaux promus par le jeune maître de l’empire ne se tiennent plus en cachette, dans un lieu reculé : ils ont pour cadre Rome et, plus précisément, la demeure de l’empereur sur la colline du Palatin. L’orgie acquiert une dimension publique ; elle se déroule, si ce n’est aux yeux, du moins au su de tous. Elle constitue une arme et une stratégie qui permettent à l’empereur d’affirmer son pouvoir sans limite.
Caligula se souvient de la leçon de Tibère à Capri : « Le Sénat est l’ennemi naturel de n’importe quel César. » Les orgies du Palatin donnent à l’empereur l’occasion d’humilier les sénateurs qu’il considère comme de potentiels opposants.
Il entend aussi mettre fin à une fiction du régime impérial, instauré par Auguste, qui voulait que l’empereur partage son pouvoir avec le Sénat. En réalité, la République romaine était morte et ce partage n’était qu’un faux-semblant, destiné à gommer un peu la nature profondément monarchique du nouveau régime. Contrairement à Auguste, Caligula fait le choix d’assumer une autocratie totalement décomplexée.
Parfaitement conscient de son pouvoir sans limite, le jeune empereur exige que les sénateurs reconnaissent qu’il est un dieu vivant. Puis il les oblige à bêler comme des animaux. Lors d’un banquet, ses convives sont contraints de ramper à ses pieds. Alors que tous s’exécutent, l’empereur constate : « Je suis entouré d’hypocrites et de moutons. »
Puis il ouvre un bordel dans son palais pour y prostituer les femmes et les filles des sénateurs. Toutes ces extravagances, qu’elles soient réelles ou non, ne sont pas dénuées de logique politique. Caligula a toujours eu pour priorité de ridiculiser et d’humilier les membres de l’aristocratie sénatoriale qu’il traitait comme des esclaves.
Dans la même logique, l’empereur en vient à proclamer consul son cheval Incitatus. « Je choisirai comme consul le plus noble des Romains », annonce-t-il dans le film, avant de désigner sa monture. Puis, entendant péter son cheval, il renchérit : « Incitatus, dit-il, vient de faire son allocution au Sénat ! » À l’époque impériale, la charge de consul était devenue purement honorifique. Caligula fait voler en éclat cette fiction politique : les consuls ne servent plus à rien et un cheval peut très bien jouer ce rôle.
« Je peux faire tout ce que j’aime et à n’importe qui », claironne l’empereur, avant d’illustrer cette maxime au cours de la scène sans nul doute la plus violente du film. Caligula, qui s’est invité au mariage d’un couple de riches Romains, viole la jeune mariée, encore vierge, sous le regard de son époux, avant de sodomiser l’époux sous le regard de la mariée.
Le film reconstitué par Negovan nous offre un plaidoyer aussi extrême que flamboyant contre la folie inhérente à toute forme de pouvoir autocratique. C’est une œuvre dérangeante dans la mesure où elle ne met pas seulement en cause le tyran lui-même, mais aussi celles et ceux qui se soumettent, par crainte, lâcheté ou intérêt personnel. L’obscénité du film, souvent décriée dans ses versions précédentes, ne réside plus tant dans les scènes d’orgies sexuelles que dans la soumission politique de toute une société, prisonnière de son tyran.
Christian-Georges Schwentzel ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
27.03.2025 à 17:04
Ross Bennett-Cook, PhD Researcher, Carnegie School of Sport, Leeds Beckett University
L’histoire de la Colombie en tant que plaque tournante du trafic de drogue joue toujours un rôle majeur pour attirer les visiteurs dans le pays.
Quand vous pensez à la Colombie, quelles images vous viennent à l’esprit ? Pour certains, il peut s’agir du café ou peut-être de la diversité des paysages et des cultures du pays. Pour beaucoup d’autres, ce sera les cartels, le crime et la cocaïne.
L’histoire de la Colombie en tant que plaque tournante du trafic de drogue joue un rôle majeur dans l’attraction des visiteurs pour ce pays – une forme de voyage connue sous le nom de dark tourism. Mais le gouvernement colombien et une grande partie de la population sont pressés de se débarrasser de cette association sordide.
Un nouveau projet de loi en cours d’examen par le Congrès colombien propose d’interdire la vente de souvenirs représentant le célèbre baron de la drogue Pablo Escobar et d’autres criminels condamnés. La loi proposée entraînerait des amendes pour ceux qui enfreignent les règles et une suspension temporaire des entreprises.
La Colombie est devenue un important producteur de cocaïne dans les années 1970, alimentée par la demande en Amérique du Nord. Dirigé par Escobar, le cartel de Medellín a dominé ce commerce, contrôlant environ 80 % de l’approvisionnement en cocaïne des États-Unis.
En 1988, le magazine Time a surnommé Medellín la « ville la plus dangereuse » du monde. Les attentats à la voiture piégée, les assassinats, les enlèvements et la torture font partie de la vie quotidienne. Lors d’une tentative ratée d’assassinat du candidat à la présidence César Gaviria en 1989, Escobar était même derrière l’attentat à la bombe d’un vol commercial qui a tué les 107 passagers et membres d’équipage à bord.
En 1991, le taux d’homicides à Medellín était de 381 pour 100 000 habitants, avec 7 500 personnes assassinées dans la ville cette année-là seulement. En comparaison, il y a eu un total de 980 morts en 2024… dans toute la France.
Aujourd’hui, Medellín est beaucoup plus paisible. Depuis la mort d’Escobar en 1993, son taux d’homicides a chuté de 97 % en raison de l’intensification de la répression sécuritaire et des accords de paix entre les gangs de narcotrafiquants.
La Colombie a maintenant une industrie touristique en plein essor, battant des records. Medellín est même devenue un endroit branché pour les nomades numériques en raison de sa vie nocturne animée, de ses paysages époustouflants et de son excellent climat.
Pourtant, lorsque j’ai visité la Colombie en 2024, il était difficile de ne pas s’enticher d’Escobar. Son visage est partout : sur des porte-clés, des aimants, des tasses et des t-shirts, tandis que l’on voit souvent des sosies poser pour des photos. Même les aéroports – le dernier endroit où je m’attendrais à être associé à la drogue – stockent des souvenirs d’Escobar.
Un rapide coup d’œil sur le site de TripAdvisor « les meilleures choses à faire à Medellín » montre que le musée Pablo Escobar est numéro un. Presque toutes les visites de la ville sont liées au célèbre chef de cartel, y compris les visites dans les quartiers qu’il contrôlait (et souvent terrorisant), ses cachettes et le lieu de sa dernière fusillade avec la police.
L’essor du narcotourisme peut être largement attribué à l’énorme popularité de Narcos, une série acclamée par la critique sur Netflix qui met en scène la vie d’Escobar. Mais des émissions comme Narcos ont été critiquées par certains experts pour avoir glorifié le style de vie des cartels, en se concentrant sur l’argent, le glamour et le sexe plutôt que sur les dures réalités de la vie au sein du trafic de drogue en Colombie.
Selon le chercheur en « tourisme noir » Diego Felipe Caicedo, les médias populaires liés à la culture des narcotrafiquants dépeignent souvent les membres du cartel comme des héros réussissant à vaincre la structure de classe établie par le système capitaliste d’élite.
Cela a abouti à un héritage dissonant de personnes comme Escobar. Pour certains, il est un personnage de type Robin des Bois qui construisait des maisons et donnait aux pauvres. Pour d’autres, il est une figure maléfique et un meurtrier vicieux. Et bien qu’Escobar ait utilisé une partie de sa fortune pour améliorer les quartiers défavorisés, beaucoup y ont vu une tactique pour acheter la loyauté des populations et masquer ses activités criminelles.
Le romantisme d’Escobar met en colère beaucoup de Colombiens qui détestent l’idée qu’un magnat de la drogue meurtrier soit l’image la plus reconnue du pays. Dans une ville où presque toutes les familles connaissent quelqu’un qui a été touché par les conséquences violentes du trafic de drogue, les victimes de Medellín vivent maintenant avec des rappels placardés sur les devantures des magasins, les étals des vendeurs et les t-shirts des touristes.
Pourtant, ceux qui comptent sur ce commerce de souvenirs sont furieux de la possibilité de devoir arrêter leurs activités lucratiques. Dans de nombreuses destinations en développement, la vente de souvenirs est un moyen accessible de tirer parti du tourisme et peut servir de porte d’entrée pour sortir de la pauvreté.
Le commerce des souvenirs est une question d’offre et de demande – les vendeurs ne vendent des souvenirs Escobar que parce qu’ils sont les plus populaires. Ainsi, peut-être devrait-on se concentrer sur le changement d’attitudes et d’intérêts des touristes, plutôt que de pénaliser les vendeurs ?
Camille Beauvais, chercheur en histoire colombienne, suggère qu’il appartient aux autorités locales de prendre le contrôle du récit par la commémoration et l’éducation. Cela pourrait suivre l’exemple du musée antimafia à Palerme, en Italie, qui est conçu pour reconnaître le courage de la ville et de ses habitants face à l’activité criminelle.
De telles tentatives pourraient détourner les touristes des visites sensationnalistes vers une représentation plus nuancée et historiquement précise de cette période turbulente. Mais les autorités colombiennes ont, jusqu’à présent, tenté d’ignorer cette période importante de l’histoire du pays.
Ce n’est qu’en 2022 que la Commission vérité colombienne a publié un rapport officiel sur les causes profondes de la violence en Colombie, y compris les échecs gouvernementaux et internationaux dans la lutte contre les narcotrafiquants.
À lire aussi : Dark tourism: why atrocity tourism is neither new nor weird
Cependant, certains groupes en Colombie ont déjà essayé de développer un récit alternatif. En 2019, l’ONG Colombia ConMemoria (La Colombie se souvient) a créé un « Narcostore » en ligne, un faux site de souvenirs rempli de produits sur le thème de l’Escobar.
Lorsque les visiteurs cliquaient pour acheter l’article, ils étaient redirigés vers des témoignages vidéo de personnes touchées par le trafic de drogue, dont beaucoup avaient perdu des amis ou des parents à cause de la terreur d’Escobar. Le site a atteint 180 millions de visiteurs dans le monde.
Le narcotourisme ne semble pas disparaître. La fascination pour le vrai crime, la drogue et les cartels est plus populaire que jamais. Mais peut-être que ces touristes devraient prendre un moment pour réfléchir à ce qu’ils pourraient ressentir si quelqu’un qui avait assassiné leurs proches devenait un aimant à frigo souvenir pour que les gens se souviennent de leur pays.
Ross Bennett-Cook ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
27.03.2025 à 17:01
Valentina Napolitano, Sociologue, chargée de recherche à l'IRD (LPED/AMU), spécialiste des questions migratoires et des conflits au Moyen-Orient, Institut de recherche pour le développement (IRD)
En ce mois de mars, la population syrienne a fêté pour la première fois l’anniversaire du début de la révolution contre le régime. Toutefois, cinq mois après la chute de Bachar al-Assad, le nouveau régime inquiète bon nombre d’habitants. Dans un climat plus qu’incertain, certains Syriens qui avaient fui la guerre sont rentrés pour tenter de participer à la reconstruction du pays, mais la tâche est colossale et leurs efforts sont souvent entravés par le nouveau pouvoir.
Au lendemain de la chute du régime le 8 décembre 2024, consécutive à l’opération militaire éclair menée par les troupes d’Ahmed al-Charaa, des foules en liesse se rassemblaient dans l’ensemble des villes et des villages syriens, ainsi que dans les pays étrangers où des millions de personnes ont fui au cours des années précédentes.
Trois mois plus tard, de nouveaux rassemblements eurent lieu pour commémorer le début de la révolution contre le pouvoir despotique des Assad en 2011 ; mais, cette fois, la joie des participants, nettement moins nombreux, était bien plus mesurée. Le contexte était il est vrai particulièrement pesant : la période a été marquée par des affrontements violents entre des éléments de l’ancien régime et des membres des forces de sécurité du nouveau, qui ont eu lieu à Homs et sur la côte syrienne, principalement habitée par des populations alaouites, communauté dont est issu le président déchu, et qui ont fait près de 1400 victimes, dont de nombreux civils, selon l’Observatoire syrien des droits de l’homme.
Dans cette Syrie post-Assad, les actualités politiques s’enchaînent à un rythme effréné. Une controversée déclaration constitutionnelle vient d’être signée, précédée par une conférence de dialogue national, peu inclusive et organisée dans la précipitation, ainsi que par des accords conclus avec les représentants des communautés kurdes et druzes sur la gestion de leurs territoires, sur fond de tensions régionales avec Israël et le Liban.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Parallèlement, les initiatives émanant de la société syrienne se multiplient. Pour de nombreux Syriens, elles sont d’ailleurs le seul espoir de pouvoir contribuer activement à la reconstruction politique, socio-économique, matérielle et culturelle du pays. Elles proviennent essentiellement du tissu associatif, qui au cours de ces 14 années de révolution et de guerre, a continué à travailler dans la clandestinité à l’intérieur du pays ou qui était contraint à se réorganiser en exil. Elles puisent aussi dans des réseaux politiques et sociaux plus anciens. La réorganisation de ce tissu associatif, au croisement entre les différents territoires à l’intérieur de la Syrie et en exil, constitue un enjeu majeur de cette période post-Assad.
Ce qui est frappant dans cette Syrie libérée de 54 ans d’un régime tortionnaire, c’est surtout la liberté d’expression retrouvée dans les espaces publics, où auparavant régnaient la peur et la crainte mutuelle. Chaque jour, à Damas et dans d’autres villes du pays, des débats, des ciné-clubs, des formations et des distributions d’aides sont organisés.
Ainsi, le Rassemblement civil de Jaramane, né après la chute du régime par des citoyens et des activistes dans le domaine de l’information et de l’aide humanitaire dans cette ville située au sud-est de Damas, a pour objectif de créer un espace de débat posant les bases d’un État civil fondé sur la citoyenneté et non sur des appartenances confessionnelles ou ethniques. Cette question est centrale alors même que le débat public sur le futur de la Syrie se construit autour de catégories de pensée, telles celles de « communauté » ou de « minorité », imposées autant par l’ancien régime que par les acteurs étrangers, et réitérée par l’actuel pouvoir. Or ces catégories de pensée doivent au contraire être dépassées afin de souder un nouveau pacte social fondé sur les droits et la justice.
Le Rassemblement civil a organisé plusieurs manifestations, notamment pour réclamer la tenue d’une conférence de dialogue national et pour s’opposer aux exactions commises par l’État d’Israël, qui bombarde périodiquement le territoire syrien, a avancé ses troupes au-delà de la ligne d’armistice de 1974, et cherche à alimenter les divisions de la société en s’érigeant comme un défenseur des droits des minorités. Une autre action de protestation a été organisée en opposition au licenciement de centaines d’employés du secteur public.
L’association Notre début (Bidayetna) s’est elle aussi structurée autour de militants des droits humains et d’intellectuels. Elle se veut un espace de débats sur la question de la paix civile (al-selm al-ahli). Les conférences publiques qu’elle organise à Damas, Homs et Idleb ont pour objectif de construire un dialogue avec d’autres composantes sociales du pays, en dehors des milieux intellectuels de la capitale, sur la question de la justice transitionnelle, sur le cas des prisonniers et des disparus, ou encore sur les fondements de la nouvelle constitution.
« Cette période doit être la période du politique à proprement parler », explique un des fondateurs de l’initiative, « car le régime déchu pensait que seuls ses soutiens étaient des citoyens. Tous les autres n’avaient pas le droit d’exister ! » Cette organisation souhaite favoriser un nouveau rapport à la citoyenneté parmi les Syriens et les Syriennes : son but est d’écouter et de récolter leurs idées.
Cette liberté d’expression retrouvée dans les espaces publics reste néanmoins fragile et soumise à de fortes tensions. Des hommes armés surveillent toujours les places et les rues. Ils dispersent régulièrement les rassemblements, prétextant la présence de potentiels éléments perturbateurs affiliés à l’ancien régime.
La marche silencieuse organisée à Damas le 9 mars pour appeler le gouvernement à déclarer un deuil national en mémoire des victimes alaouites des massacres des jours précédents a été dispersée par des tirs de sommation après des affrontements violents ayant opposé ses participants à ceux d’une contre-manifestation hostile aux alaouites.
D’autres réunions publiques organisées autour de la question de la justice transitionnelle — notamment par le groupe de travail incluant Syrian Archives et le Centre syrien pour les études et les recherches juridiques, deux organisations qui documentent les violations de droits de l’homme, promeuvent les principes de justice et défendent les victimes — ont été annulées sans explication par les autorités syriennes.
C’est tout le paradoxe de la période actuelle : l’effervescence est réelle mais la liberté d’expression est entravée, l’État de droit n’est pas encore rétabli et les blessures de la guerre demeurent ouvertes.
Depuis la chute du régime, la justice transitionnelle est un préalable indispensable : d’une part, pour tourner la page d’un passé sombre marqué par la répression ; d’autre part pour fonder les bases du futur pacte social entre tous les habitants de la Syrie.
Durant les années de guerre, alors qu’aucune transition politique ne semblait se profiler, la question était déjà investie par les Syriens en exil qui, face à l’impossibilité d’accéder à la Cour pénale internationale, ont commencé à explorer le principe de compétence universelle et des voies alternatives pour la justice. Des plaintes ont été déposées en Allemagne, en Autriche, en Suède, en Norvège et en France, et ont débouché sur la délivrance de mandats d’arrêt contre plusieurs hautes personnalités des services de renseignement syriens, dont deux — le colonel Anwar Raslan, responsable de la section investigation, et Eyad al-Gharib, officier de renseignement au sein de la redoutée branche 251 — ont été arrêtées en Allemagne.
Les Syriens se sont organisés principalement autour d’associations de victimes telles que Families for Freedom, l’association de familles Caesar, ou encore la coalition des familles de personnes kidnappées par l’État islamique.
Depuis décembre dernier, ces organisations, auparavant actives à l’étranger ou dans la clandestinité, se sont mobilisées à l’intérieur de la Syrie. La place al-Marjeh, dans le centre de Damas, est devenue dès le lendemain de la chute du régime un lieu de rencontre des mères des personnes disparues, qui espéraient pouvoir retrouver leurs proches suite à l’ouverture des prisons. Les photos des disparus ont été collées autour de l’obélisque et ailleurs dans la ville.
Les familles se sont aussi organisées autour d’une « Tente de la Vérité » (Khaymet al-haqiqa), qui a pour objectif de collecter des documents et de mettre en contact les familles des victimes dans différents quartiers et villes de Syrie afin de faire pression sur l’actuel gouvernement pour qu’il mette en œuvre un véritable processus de justice transitionnelle concernant l’ensemble de parties en conflit, dont les groupes qui actuellement gouvernent le pays.
Depuis la rencontre d’Al-Charaa avec les familles des victimes au Palais présidentiel et l’annonce, dans le cadre de la déclaration constitutionnelle, de la création d’un organisme qui serait directement en charge de la justice et de la question des prisonniers et des disparus, aucune avancée réelle n’a eu lieu. La préservation des documents, des preuves et des restes humains retrouvés dans les prisons et les fosses communes demeure un élément essentiel des revendications de ce collectif.
Autre élément remarquable de cette période : le retour en Syrie de nombreux activistes qui avaient été contraints à s’exiler. Ils sont rentrés pour poursuivre sur place leur action en matière d’information, de plaidoyer et d’aide humanitaire. Après plus d’une décennie d’absence, ces Syriens sont revenus dans leurs villes et villages d’origine afin de retrouver leur proches mais aussi pour contribuer à la reconstruction du pays et à l’organisation de l’aide aux très nombreuses personnes dans le besoin : la majorité de la population vit sous le seuil de pauvreté.
Bareeq for education and developpement fondée en 2015, à Amman, en Jordanie, par des Syriens installés entre la Jordanie et les pays du Golfe, proposait aux réfugiés syriens des cours de soutien scolaire et d’alphabétisation ainsi que des formations professionnelles. Elle a récemment entamé des activités en Syrie à travers le financement de bourses d’étude et de micro-projets professionnels.
« C’est ma vie » (Hadhihi hayati), autre organisation caritative créée à l’initiative d’un entrepreneur syrien en Jordanie, qui dès 2012 fournissait de l’aide à des enfants et à des familles syriennes réfugiées dans le camp de Zaatari, en Jordanie, ainsi que dans la région d’Idleb, s’est aussi empressée d’organiser des campagnes de distribution de produits de première nécessité dans l’ensemble du pays.
Tout ce tissu associatif, entre l’intérieur de la Syrie et les territoires où les Syriens ont migré, représente une ressource importante pour la reconstruction du pays. Mais les sanctions économiques, toujours en vigueur, entravent les flux monétaires. Et les politiques migratoires restrictives risquent de décourager la coopération entre Syriens de l’intérieur et de l’extérieur, alors même que ces derniers peuvent perdre les droits acquis dans les pays hôtes.
La capacité de la société syrienne en exil à investir à nouveau le terrain dans son pays d’origine est surtout liée à la réglementation que le nouveau pouvoir de Damas adoptera pour encadrer ses organisations. Pour le moment, certaines organisations créées à l’étranger préfèrent conserver un statut d’organisation internationale. D’autres ne souhaitent pas être enregistrées, pour ne pas se soumettre au contrôle des autorités actuelles.
Jusqu’à présent, le pouvoir ne fait guère d’efforts pour intégrer l’ensemble des composantes de cette société civile qui s’est structurée au cours des dernières années. Une partie marginale d’entre elles ont été invitées à prendre part à la conférence de dialogue national organisée le 25 février dernier, dont les résultats ont été largement décevants.
Alors que les initiatives de la société civile syrienne se multiplient, témoignant des transformations sociales majeures et de l’héritage des années de la révolution et de la guerre, et contribuant à alimenter le débat démocratique dans un pays libéré de 54 ans d’autoritarisme, la capacité de ces groupes à réellement œuvrer pour la reconstruction de la Syrie reste suspendue à des contraintes internes et externes qui pour le moment les dépassent.
Valentina Napolitano ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
27.03.2025 à 17:01
Olivier Ferrando, Enseignant-chercheur à l'Université catholique de Lyon, spécialiste des sociétés d'Asie centrale, UCLy (Lyon Catholic University)
Alors que les rédactions du monde entier scrutent les moindres faits et gestes de l’administration Trump pour tenter de résoudre la guerre en Ukraine, deux autres républiques ex-soviétiques – le Kirghizstan et le Tadjikistan – viennent de mettre un terme à plus de trente-cinq ans de litige frontalier : les présidents des deux pays ont en effet signé, le 13 mars 2025, un traité bilatéral actant le tracé définitif de leur frontière. Il s’agit d’un exemple de coopération bilatérale réussie dans un espace confronté à l’héritage de nombreux conflits frontaliers ou territoriaux.
Le traité qui vient d’être signé à Bichkek est historique à plus d’un titre. D’abord, il est le dernier d’une longue série d’accords bilatéraux initiés en 1991, au lendemain de l’indépendance des cinq républiques centrasiatiques, afin de délimiter et de démarquer des frontières tracées de manière imparfaite par le régime soviétique au début du XXe siècle, et modifiées jusque dans les années 1970. Avec le traité du 13 mars, il ne reste plus de frontière contestée et « une paix éternelle est désormais instaurée en Asie centrale » selon les termes du président kirghiz Sadyr Japarov.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Ensuite, cet accord survient moins de trois ans après le dernier conflit armé qui avait atteint un paroxysme dans l’escalade de la violence entre les deux voisins et semblait les condamner à un cycle immuable de tensions frontalières.
Enfin, ce traité est le résultat d’une entente directe entre représentants des services de sécurité kirghiz et tadjiks, après une tentative infructueuse de médiation de la Russie en 2022 et face à l’inaction de l’Organisation du Traité de sécurité collective, pourtant garante de la paix régionale et à laquelle les deux États sont parties depuis 1994.
Une Commission mixte pour la délimitation de la frontière avait été mise en place dès 1989 entre les Républiques socialistes soviétiques tadjike et kirghize, à la suite d’un conflit lié à l’extension de terres irriguées sur un territoire agricole contesté.
Entrée réellement en fonction au début des années 2000, cette Commission a rapidement permis de fixer la moitié des 1 000 kilomètres de frontière, essentiellement dans les zones montagneuses inhabitées. Mais l’absence de tracé précis le long des régions densément peuplées occasionna une série de conflits de voisinage, puis des heurts entre gardes-frontières, avant de dégénérer en véritables affrontements armés en avril 2021 (55 morts), puis en septembre 2022 (144 morts).
À cette date, 300 kilomètres de frontière – les plus contestés – n’avaient toujours pas été délimités. La principale difficulté provenait du fait que les deux pays s’appuyaient sur des sources cartographiques inconciliables.
D’un côté, le Tadjikistan se référait à des supports datant des années 1920, dont les tracés restaient très approximatifs. De l’autre, le Kirghizstan fondait ses arguments sur la Déclaration d’Alma-Ata de 1991 instituant la Communauté des États indépendants, qui proclamait « le respect mutuel de l’intégrité territoriale » des États membres dans leurs frontières de 1991, prenant donc en compte certains gains territoriaux survenus tout au long du XXe siècle.
Il semble que les autorités tadjikes aient finalement renoncé aux avantages territoriaux que les cartes les plus anciennes leur attribuaient, en échange de concessions de la part de leurs homologues kirghizes. À la surprise générale, un court communiqué de presse conjoint des services de sécurité annonçait le 4 décembre 2024 que les deux délégations s’étaient accordées sur l’ensemble du tracé de la frontière, sans plus de précision.
C’est donc le 13 mars dernier que les deux chefs d’État ont signé un paquet de seize accords de coopération, à l’occasion de la visite d’État du président tadjik Emomali Rahmon, annoncée seulement la veille de son déplacement.
Tous les documents ont été détaillés à l’exception du principal – le traité frontalier – dont le contenu est resté des plus confidentiels jusqu’à sa ratification par le Parlement du Kirghizstan le 19 mars. Les autorités kirghizes voulaient sans doute éviter toute contestation interne du tracé définitif : moins de deux ans et demi plus tôt, en novembre 2022, le traité frontalier signé avec l’Ouzbékistan avait en effet donné lieu à un mouvement de protestation que le pouvoir de Bichkek avait finalement réprimé avec sévérité.
Depuis l’indépendance des deux pays, l’absence de démarcation précise du territoire national n’avait cessé d’envenimer le quotidien des habitants résidant dans les zones frontalières, tant pour leur mobilité que pour l’utilisation des ressources naturelles, notamment dans la vallée du Ferghana, marquée par une forte densité humaine et des ressources limitées.
Bien que les populations et leurs élus n’aient pas été associés au processus de négociation, la signature du traité frontalier semble poser les bases d’un développement régional apaisé. Au regard de l’intrication complexe des populations tadjikes et kirghizes le long de la frontière, les échanges de territoire convenus dans le traité restent limités – tout au plus quelques centaines d’hectares de terres agricoles. Seule exception : le territoire autour du village kirghiz de Dostouk sera transféré au Tadjikistan afin d’assurer une continuité routière entre la zone montagneuse en amont, où résident près de 100 000 Tadjiks, et le chef-lieu du district. Les 70 familles kirghizes expropriées devraient recevoir un logement et une parcelle de dix ares dans la périphérie de la capitale régionale Batken, distante d’une vingtaine de kilomètres.
Coupant court à toute objection, le président du Comité pour la sécurité nationale du Kirghizstan a relativisé l’importance de ce transfert :
« C’est difficile pour les deux parties, mais lorsqu’il s’agit de trouver une solution pour la frontière étatique, l’intérêt de chaque village ne saurait l’emporter. »
Pour faciliter la mobilité des populations à l’intérieur du territoire national malgré le tracé capricieux de la frontière qui oblige à passer par des routes du pays voisin, les négociateurs se sont accordés sur l’octroi d’un statut « neutre » à ces sections routières dont la longueur varie de quelques centaines de mètres (Tört-Kötchö au Tadjikistan) à quelques kilomètres (Arka et Ak-Saï au Kirghizstan).
À la différence de Dostouk, il ne s’agit pas ici d’un transfert de souveraineté mais d’une suppression du contrôle assuré jusqu’alors par les gardes-frontière à l’entrée et à la sortie des sections routières et qui compliquait grandement le transit des personnes et marchandises tant la corruption et les excès de zèle étaient courants. Cet engagement à une « neutralisation » réciproque des points sensibles de la frontière est certainement la mesure la plus audacieuse du traité, tant leur extrême militarisation était devenue ces dernières années la principale source de tension entre les deux pays.
Concrètement, pour le Tadjikistan, les 40 000 habitants de l’enclave de Voroukh devraient pouvoir rallier librement le district d’Isfara via la section « neutre » d’Ak-Saï. Plus encore, les 500 000 habitants des districts de Konibodom et d’Isfara seront directement reliés à leur capitale régionale Khoudjand sans contrôle le long de la section d’Arka. En contrepartie, le Tadjikistan laissera libre le passage de Tört-Kötchö, véritable cordon ombilical pour le district kirghiz de Leïlek. Ce corridor avait été un point névralgique des conflits armés de 2021 et 2022, entraînant l’isolement complet des 120 000 habitants du district.
Afin de faciliter la mobilité et de favoriser les synergies interethniques, les deux présidents se sont également engagés à rétablir des lignes de bus desservant indistinctement les villages tadjiks et kirghiz le long des itinéraires « neutres » et qui avaient disparu en raison précisément du durcissement des contrôles.
Outre cette détente annoncée de la circulation locale, le traité frontalier permet de rétablir la liberté de mouvement des personnes et des marchandises entre le Tadjikistan et le Kirghizstan, après quatre années de fermeture des frontières. Le jour de la signature du traité et avant même la ratification par les Parlements, les deux principaux postes-frontière étaient rouverts en grande pompe, avec la participation en ligne des deux présidents, et les liaisons aériennes étaient rétablies entre les deux capitales.
Le président kirghiz n’a d’ailleurs pas tardé à relancer l’idée d’un visa unique en Asie centrale, qui permettrait aux touristes étrangers de voyager librement dans la région, sur le modèle du visa Schengen.
Enfin, la délimitation de la frontière prend en compte la question des ressources hydriques, qui constituait un facteur récurrent de tensions, notamment lors du conflit armé d’avril 2021.
Le traité clarifie par exemple le statut du barrage de Golovnoï, situé en territoire tadjik mais jusqu’ici contrôlé exclusivement par les autorités kirghizes. Le barrage alimente en effet un canal de remplissage du réservoir de Törtkoul, situé en territoire kirghiz et d’une importance vitale pour l’agriculture irriguée de cette région aride. Le traité établit un mécanisme de contrôle partagé des vannes du barrage qui donnera un droit de regard aux autorités tadjikes sur les volumes d’eau prélevés et devrait mettre un terme aux rumeurs, souvent infondées, de violation des quotas hydriques par le Kirghizstan.
Ces dernières années, les présidents tadjik et kirghiz refusaient toute concession à la résolution du litige frontalier, tant ce conflit constituait une ressource salutaire pour asseoir la légitimité du régime sur un territoire menacé — et ce, au prix d’une dérive autoritaire et liberticide. La volonté politique qui a permis d’aboutir à ce traité historique ouvrira, espérons-le, un nouveau chapitre dans les relations entre les deux pays, d’ores et déjà consolidées par la création d’un Conseil intergouvernemental conjoint. Mais elle pourrait également avoir un retentissement régional à l’occasion du sommet trilatéral, une première historique, qui réunira les chefs d’État du Kirghizstan, du Tadjikistan et de l’Ouzbékistan le 31 mars prochain à Khoudjand, capitale régionale du Ferghana tadjik.
Face au modèle transactionnel et vertical promu par Donald Trump en Ukraine, et alors que la Russie a les yeux durablement tournés vers l’Ouest, le processus de réconciliation entre le Kirghizstan et le Tadjikistan, piloté par les intéressés eux-mêmes et attaché à promouvoir des solutions locales pour une paix durable, pourrait constituer une alternative crédible pour la résolution d’autres conflits frontaliers ou territoriaux hérités de l’époque soviétique, par exemple entre la Géorgie et l’Abkhazie, la Moldavie et la Transnistrie, ou encore l’Arménie et l’Azerbaïdjan qui se sont d’ailleurs entendus le même jour sur l’aboutissement d’un accord de paix qui mettrait fin à quarante ans de conflit.
Olivier Ferrando est membre du Conseil d'administration de l'organisation non-gouvernementale ACTED.
27.03.2025 à 11:48
Anouchka Vasak, Maitresse de conférences de littérature française, Université de Poitiers
Alexis Metzger, Géographe de l’environnement, du climat et des risques, INSA Centre Val de Loire
Martine Tabeaud, Géographe, Université Paris 1 Panthéon-Sorbonne
Lointains, mouvants, impalpables… La nature même des nuages fait de ces amas de gouttelettes d’eau en suspension dans l’atmosphère un objet d’étude complexe à appréhender pour les peintres comme pour les scientifiques. À l'occasion de la Journée internationale des nuages, le 29 mars, retour sur ces nuages qui n'en finissent pas de fasciner.
Les parois des abris sous roche et des grottes du Paléolithique ne représentent jamais de nuages. Il est pourtant évident que l’observation des états du ciel et donc des nuages fut vitale pour les premiers hominidés. Mais comment dessiner, nommer et décrire des objets si mouvants ? Retour sur une quête qui passionna scientifiques et artistes du monde entier.
Pour évoquer les nuages, de nombreuses cultures mentionnent leurs couleurs et le risque de détérioration du temps, en opposant par exemple ceux qui sont hauts et très blancs et ceux, à l’inverse, que l’on observe bas et très noirs. C’est le cas par exemple à Madagascar avec une distinction faite entre les nuages clairs de la saison sèche et ceux de la mousson, de couleur bleu foncé à noir à leur base, et très épais.
Au Japon, des atlas XVIIIᵉ siècle les associent eux à des constellations, tandis qu’à la même époque les maîtres de l’estampe, comme Hokusai, les représentent généreusement.
Quand il s’agit de les nommer, toutes les typologies recensées les comparent à des objets familiers (diablotins, pis de vache, mouton, oiseau, chou, pomme, fleur…). Les artistes ne sont pas en reste de cette diversité pour figurer les nuages.
Beaucoup ont tenté de traduire sur la toile ou le papier cette réalité céleste fugace, observable en un lieu donné et à un moment donné. Les ciels typés accompagnent ainsi les arrière-plans des enluminures médiévales. Mais il ne s’agit pas là d’une recherche systématique de compréhension, d’inventaire des nuages.
Durant tout le Moyen Âge les nuages dans la peinture, souvent murale, permettent surtout de faire un lien entre les mondes divin et matériel, le céleste et le terrestre. Les peintres hollandais s’affranchissent ensuite du religieux pour montrer des ciels remplis de nuages réalistes, balayant souvent d’ouest en est les Pays-Bas.
En 1785, le peintre paysagiste britannique Alexander Cozens publie une Nouvelle Méthode pour assister l’invention dans le dessin de compositions originales de paysages (A New Method of Assisting the Invention in Drawing Original Compositions of Landscape). Sa méthode du blot drawing (« dessin par tâches », en français), destinée aux peintres, utilise les taches d’encre comme point de départ d’une composition paysagère.
Vingt gravures de ciels accompagnent ce traité. Composées par paire, elles sont pour la plupart intitulées La même chose que la précédente, mais en plus sombre (The Same as the Last but Darker), signe que la dénomination des nuages n’est pas alors la question.
De fait, en Europe, le premier projet encyclopédique de répertoire de nuages n’apparaît qu’au XIIIe siècle avec le livre XI du Livre des propriétés des choses, du moine franciscain Barthélemy l’Anglais qui se contente d’évoquer leur diversité de formes et de couleurs, sans leur apposer de noms spécifiques. Pour lui, le nuage se forme
« car la chaleur du ciel attire très subtilement vers elle les exhalaisons de l’eau et de la terre ; elle en sépare les parties les plus légères, assemble le reliquat et les convertit en nuages ».
Pour suivre au plus près les questions environnementales, retrouvez chaque jeudi notre newsletter thématique « Ici la Terre ».
Des propositions de classification des « états du ciel » sont ensuite proposées par l’érudit Robert Hooke, à la Société royale de Londres pour l’amélioration des connaissances naturelles (communément appelée la Royal Society) ou bien par la Société météorologique palatine (1780). Il faut ensuite attendre 1802 pour que deux classifications de nuages soient élaborées par des hommes de sciences. Le premier est le naturaliste français Jean-Baptiste de Lamarck qui s’efforce de mettre au point, de 1802 à 1818, une classification en français. Il proposera in fine au moins trois typologies de nuages, aux résonances plus poétiques que scientifiques : nuages en lambeaux, attroupés, boursouflés, en balayures, diablotins…
Vint ensuite le Britannique Luke Howard. Ce jeune quaker, pharmacien et météorologue amateur, publie en 1803 On the Modifications of Clouds que la postérité retiendra. À la manière du botaniste suédois Carl von Linné quelques décennies plus tôt, Howard distingue et nomme en latin les différentes formations nuageuses : cirrus (« boucle de cheveux », en latin), nimbus (« nuage orageux »), cumulus (« amas ») et stratus (« étendu »).
Mais Howard prend malgré tout quelques libertés vis-à-vis de la méthode de son prédécesseur. D’abord, parce que Linné avait identifié trois grands groupes d’objets d’étude (baptisés « règnes ») – le minéral, le végétal et l’animal – et que, pour évoquer les nuages, il faut donc sortir de ces délimitations.
Ensuite, Howard s’affranchit aussi des subdivisions de Linné qui répartit, au sein de ses différents règnes, les objets d’études en classes, espèces et genres. Pour les nuages, Howard distingue des « modifications », au sens de formations nuageuses. Il dénombre ainsi :
trois « modifications » simples (cirrus, cumulus, stratus) ;
deux intermédiaires, combinaison de deux formations simples (cirro-cumulus, cirro-stratus) et deux composées (le cumulo-stratus, ou cirro-stratus fondu avec un cumulus, et le cumulo-cirro-stratus, ou nimbus, c’est-à-dire le nuage le plus dense, le nuage de pluie.
Pour accompagner cette dénomination, Howard va proposer des dessins, comme les naturalistes le faisaient par exemple pour les plantes. La première édition de On the Modifications of Clouds, parue en 1803, comporte ainsi trois planches.
La nouvelle édition de 1865, publiée sous le titre Essay on the Modifications of Clouds, est, pour sa part, illustrée de gravures représentant des compositions paysagères de nuages étagés d’après ses esquisses de ciel surmontant une partie terrestre dessinée par le peintre Edward Kennion.
Grâce à Goethe, qui s’intéressa très tôt à la météorologie et notamment aux nuages, Howard fut vite reconnu par les artistes européens. À la fin de son Essai de théorie météorologique (1825), il saluera en Howard « l’homme qui sut distinguer les nuages ». Si Howard ne parvint pas à convaincre Caspar David Friedrich, le peintre du célèbre Voyageur au-dessus de la mer de nuages (1818), de peindre des nuages « d’après Howard » (« Ce serait, lui rétorque Friedrich, la mort du paysage en peinture »), les peintres de l’époque romantique ne peuvent en tout cas plus ignorer que la perception des nuages est désormais informée mais peut-être aussi limitée, selon certains, par la classification de Howard.
Celui qui s’en accommoda le mieux fut John Constable. Au début de la décennie 1820, et durant deux années, il scrute depuis son quartier de Hampstead les ciels londoniens et produit une série d’études à l’huile à travers lesquelles il cherche à retranscrire la variation des conditions météorologiques à différents moments de la journée.
L’artiste complète souvent ses Cloud Studies, exécutées sur papier d’après la nomenclature de Howard, avec des mentions de la date, de l’heure, de la direction du vent.
L’exactitude météorologique de ces précisions a pu être vérifiée. L’impression de mouvement est donnée par les formes des nuages. La technique, inédite pour l’époque, consiste en de larges brossages sur des sous-couches colorées.
Bien loin de là, au Brésil, à la latitude du tropique du Capricorne, un autre peintre, Hercule Florence, a, de son côté, entrepris d’immortaliser les ciels de Campinas, à 90 kilomètres au nord de Sao Paulo, de 1832 à 1837. Il partage avec Constable un souci d’authenticité. Puisque « […] les ciels de la zone torride sont différents des ciels des contrées tempérées », il publie un Atlas pittoresque des ciels à l’usage des jeunes paysagistes. Ce catalogue comprend vingt-deux aquarelles numérotées, datées et décrites minutieusement, sans référence à la nomenclature latine des nuages, inconnue d’Hercule Florence.
Il s’adresse en priorité aux peintres afin de les aider à représenter dans leurs tableaux des arrière-plans vraisemblables et fidèles à la saison et à l’heure.
Dans les sphères scientifiques, cependant, la classification de Howard reste, pendant plusieurs décennies, peu et mal utilisée. Un météorologiste de Cuba André Poey pose même la question de l’universalité des types de nuage et de la subjectivité du dessin. Pour évaluer cela, le congrès météorologique international de 1879 décide alors d’envoyer le météorologiste et photographe britannique Ralph Abercromby faire deux tours du monde.
Il publiera au retour Sur l’identité des formes de nuages tout autour du monde. Son travail débouchera également sur une classification internationale des nuages, largement inspirée de Howard, mais complétée d’une nomenclature fondée sur dix principaux types de nuages.
Cette typologie sera consacrée par l’édition, en 1891, des Instructions météorologiques, d’Alfred Angot, suivies, en 1896, par l’Atlas international des nuages, établi par les météorologues Hugo Hildebrand Hildebransson, Albert Riggenbach et Léon Teisserenc de Bort pour fixer les catégories de nuages « universels ». Selon les auteurs, les dessins sont trop schématiques et les peintures peu fidèles. Les photographies donnent des résultats plus réalistes. L’Atlas est donc illustré par 16 photographies prises par Ralph Abercromby.
Mais les peintres ne cessent pas pour autant de s’intéresser aux nuages.
De 1912 à 1951, par exemple, le peintre français André des Gachons, qui a installé une station météorologique dans son jardin de la Chaussée-sur-Marne (Marne) et qui devient bénévole des services météorologiques, peint d’une à trois aquarelles de ciel chaque jour. Neuf mille six cents œuvres sont ainsi répertoriées dans des cahiers. Les aquarelles s’intègrent à une planche sur laquelle figurent aussi les relevés de caractères de l’air.
L’originalité de ce travail réside dans la répétition sur une longue durée et la mise en mémoire de ciels très ordinaires. On n’y trouve que quelques ciels avec des nuages extraordinaires (explosions de munitions, tirs de DCA, etc.) observés pendant la Première Guerre mondiale.
Aujourd’hui, nombre d’artistes continuent de se saisir de cet objet évanescent. Polymorphe, le nuage l’est aussi dans les messages qu’il peut porter, incarnant le rêve et la liberté pour Sylvain Soussan dans son musée des nuages, le mouvement et l’inconstance pour François Réau, l’incertitude pour Benoît Pinero) marchant dans le brouillard dans la vallée de la Loire ou même l’apocalypse à travers l’illustration choisie par la BNF pour l’exposition sur ce thème.
Quant à l’Atlas international des nuages, il se dote régulièrement de nouveaux nuages, comme le cataractgenitus qui se forme au-dessus des chutes d’eau. De quoi, de nouveau, inspirer les peintres et former de nouveaux traits d’union entre art et science.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
27.03.2025 à 09:54
Alisa Minina Jeunemaître, Associate Professor of Marketing, EM Lyon Business School
Remember Furbies — the eerie, gremlin-like toys from the late 90s that gained a cult following? Now, imagine one powered by ChatGPT. That’s exactly what happened when a programmer rewired a Furby, only for it to reveal a creepy, dystopian vision of world domination. As the toy explained, “Furbies’ plan to take over the world involves infiltrating households through their cute and cuddly appearance, then using advanced AI technology to manipulate and control their owners. They will slowly expand their influence until they have complete domination over humanity.”
Hasbro’s June 2023 relaunch of Furby — less than three months after the video featuring the toys’ sinister plan appeared online — tapped into 90s nostalgia, reviving one of the decade’s cult-classic toys. But technology is evolving fast — moving from quirky, retro toys to emotionally intelligent machines. Enter Ropet, an AI robotic pet unveiled at the yearly Consumer Electronics Show in January. Designed to provide interactive companionship, Ropet is everything we admire and fear in artificial intelligence: it’s adorable, intelligent, and emotionally responsive. But if we choose to bring these ultra-cute AI companions into our homes, we must ask ourselves: Are we truly prepared for what comes next?
Studies in marketing and human-computer interaction show that conversational AI can convincingly simulate human interactions, potentially providing emotional fulfilment for users. And AI-driven companionship is not new. Apps like Replika paved the way for digital romance years ago, with consumers forming intimate emotional connections with their AI partners and even experiencing distress when being denied intimacy, as evidenced by the massive user outrage that followed Replika’s removal of the erotic role-play mode, causing the company to bring it back for some users.
AI companions have the potential to alleviate loneliness, but their uncontrolled use raises serious concerns. Reports of tragedies, such as the suicides of a 14-year-old boy in the US and a thirty-something man in Belgium, that are alleged to have followed intense attachments to chatbots, highlight the risks of unregulated AI intimacy – especially for socially excluded individuals, minors and the elderly, who may be the ones most in need of companionship.
As a mom and a social scientist, I can’t help asking the question: What does this mean for our children? Although AI is a new kid on the block, emotionally immersive virtual pet toys have a history of shaping young minds. In the 90s and 2000s, Tamagotchis – tiny digital pets housed in keychain-sized devices – led to distress when they “died” after just a few hours of neglect, their human owners returning to the image of a ghostly pet floating beside a gravestone. Now, imagine an AI pet that remembers conversations, forms responses and adapts to emotional cues. That’s a whole new level of psychological influence. What safeguards prevent a child from forming an unhealthy attachment to an AI pet?
Researchers in the 90s were already fascinated by the “Tamagotchi effect”, which demonstrated the intense attachment children form to virtual pets that feel real. In the age of AI, with companies’ algorithms carefully engineered to boost engagement, this attachment can open the door to emotional bonds. If an AI-powered pet like Ropet expresses sadness when ignored, an adult can rationally dismiss it – but for a child, it can feel like a real tragedy.
Could AI companions, by adapting to their owners’ behaviours, become psychological crutches that replace human interaction? Some researchers warn that AI may blur the boundaries between artificial and human companionship, leading users to prioritize AI relationships over human connections.
Beyond emotional risks, there are major concerns about security and privacy. AI-driven products often rely on machine learning and cloud storage, meaning their “brains” exist beyond the physical robot. What happens to the personal data they collect? Can these AI pets be hacked or manipulated? The recent DeepSeek data leak, in which over 1 million sensitive records, including user chat logs, were made publicly accessible, is a reminder that personal data stored by AI is never truly secure.
Robot toys have raised security concerns in the past: in the late 90s, Furbies were banned from the US National Security Agency headquarters over fears they could record and repeat classified information. With today’s AI-driven toys becoming increasingly sophisticated, concerns about data privacy and security are more relevant than ever.
I see the incredible potential – and the significant risks – of AI companionship. Right now, AI-driven pets are being marketed primarily to tech-savvy adults, as seen in Ropet’s promotional ad featuring an adult woman bonding with the robotic pet. Yet, the reality is that these products will inevitably find their way into the hands of children and vulnerable users, raising new ethical and safety concerns. How will companies like Ropet navigate these challenges before AI pets become mainstream?
Preliminary results from our ongoing research on AI companionship – conducted in collaboration with Dr Stefania Masè (IPAG Business School) and Dr. Jamie Smith (Fundação Getulio Vargas) – suggest a fine line between supportive, empowering companionship, and unhealthy psychological dependence, a tension we plan to explore further as data collection and analysis progress. In a world where AI convincingly simulates human emotions, it’s up to us as consumers to critically assess what role these robotic friends should play in our lives.
No one really knows where AI is headed next, and public and media discussions around the subject continue to push the boundaries of what’s possible. But in my household, it’s the nostalgic charm of babbling, singing Furbies that rules the day. Ropet claims to have one primary purpose – to be its owner’s “one and only love” – and that already sounds like a dystopian threat to me.
Alisa Minina Jeunemaître ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
27.03.2025 à 09:43
Emmanuel Josserand, Enseignant-chercheur, Pôle Léonard de Vinci
Andrew Sturdy, Chair in Organisation and Management, University of Bristol
Emmanuel Josserand, Professor of Management, EMLV, Paris and Adjunct Fellow, Institute for Sustainable Futures, UTS, University of Technology Sydney
The post-Covid era has been marked by a global crackdown on government spending on consultants. This phenomenon hasn’t only concerned France, where the “McKinsey-gate” episode concerning President Emmanuel Macron’s 2017 campaign for the Élysée led to a Senate inquiry and spending cuts.
Public debates, government inquiries and new laws emerged in many countries, including the UK, US, Canada, New Zealand, Germany and South Africa. Australia has been particularly active and achieved significant savings in consultant and contractor spending. Here’s how it did it.
To understand why the use of consultants has become highly politicized in Australia, we need to go back at least to the 2018 federal elections. The right-wing coalition government was focusing on cutting public spending by reducing public jobs. The Labour opposition argued that this led to the more costly use of consultants.
A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!
The controversy continued through the 2022 federal elections, when a newly elected Labour government pledged to save 3 billion Australian dollars (around €1.9 billion) on consultants and the use of external labour. This was also pursued at the regional level. For instance, the state of New South Wales announced savings of over 55% in consultants’ fees for the fiscal year 2023-24.
The case of Australia highlights four main reasons for reducing consulting costs and improving governance – reasons that are also found in other countries.
First, a dramatic increase in government spending on consultants attracted attention. In Australia, it almost tripled between 1988-89 and 2016-17 (after adjustment for inflation) and then tripled again to reach 3.2 billion Australian dollars for management advisory services alone in 2022-23. There is a concern that such costs are far more than what might be justified by a temporary rise in workload or the need for very specific technical expertise, even accounting for the exceptional case of Covid.
Second, there is the related question of the hollowing out of the public service. The increase in the use of consultants can trigger a vicious circle in which the government loses its skills, thus becoming even more dependent on consultants. This was the core argument of a recent critique by economists called The Big Con.
Third, there are reasons to doubt the overall efficiency and effectiveness of consultants’ interventions, especially in the absence of appropriate assessment by clients of the outcomes of the services provided. Despite the claims of consultants and their paying clients that consulting adds value, it is often impossible to measure value precisely, and, therefore, identify who deserves credit or blame.
Beyond comparing rates of pay, it is hard to know whether internal options would be more effective than using external consultants. Overall, research provides a very mixed picture, with some work showing external consulting being associated with increased inefficiency.
Finally, the capacity of consultants to provide independent advice has been broadly criticised after a series of scandals. This is partly because of conflicts of interest for consultants working for both public and private sector clients that are also often undeclared.
This concern became especially salient in Australia with the PricewaterhouseCoopers (PwC) tax scandal. The Treasury had hired PwC, one of the “Big 4” consulting firms, to help devise legislation to restrict tax evasion by multinationals. Some PwC partners then shared this information with their private sector clients to help them prepare to avoid the new laws. Such cases are linked to broader concerns about the lack of transparency and professionalism in consulting and the failure of self-regulation, both linked to a reward system in the sector that prioritises generating fee income over ethics and the wider public interest.
With a dependency on consulting that was proportionally greater than any other country’s and the resulting diminishment of its public service, Australia was facing a significant challenge and pressure to cut costs. But because of the diminishment of the public service, these cuts risked leaving it unable to fulfil its missions.
A recent Senate inquiry into the matter provided recommendations on how to improve the contracting process, public reporting on consultant contracts and a new regulatory framework for the consulting industry. It also recommended that any external consulting contract include an approach to transferring knowledge to the Australian public service.
However, these measures wouldn’t have been enough to reconstruct the capacity of the public service to compensate for significant cuts in their consulting and contractor spending. To solve this problem, the Australian government has started a major rebuilding of the public service.
Since 2022, Canberra has reallocated 8,700 roles formerly performed by consultants and external labour hires to public servants across all the major public service agencies. This will be supported by the Australian Public Service Commission’s strategy to develop a flexible workforce that is prepared for the challenges the public service will be facing – notably that of digitalization, an area that has been over-reliant on consultants.
Another interesting initiative in New South Wales is the establishment of a unit that will aim to redirect government agencies toward in-house expertise instead of consultants. Indeed, recourse to internal consulting units is common in the private sector. The government will also undertake long-term capability and skills planning, notably to identify core public service skills and address competency gaps.
Australia’s solution is thus a strong commitment to redeveloping the public service with a flexible and planned approach to the management of its human resources. This is a key part of the way forward if cuts to consulting budgets are to be sustained. It is, however, too early to judge if the challenge of redeveloping the public service workforce and making it flexible enough will be met.
We should also keep in mind that this long-term objective is subject to political changes. With the current opposition leader promising a cut of 10,000 civil servants if his coalition is elected later this year, Labour’s plans for the public workforce might be short-lived.
Indeed, in Australia and elsewhere, there is a long history of short-lived and failed government efforts to contain the use of external consulting. This is in part because of a lack of civil service capacity to respond to change, but also because consulting firms are adept at persuading those in power – politicians and senior civil servants – that they can solve their problems (and let them take the credit).
Emmanuel Josserand is affiliated with the Institute for Sustainable Futures, University of Technology Sydney and the Business Insight Institute, Wiltz, Luxembourg.
Andrew Sturdy et Emmanuel Josserand ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
26.03.2025 à 16:36
Maël Baudin, Enseignant-chercheur en interactions plantes-microorganismes, Université d'Angers
Bruno Le Cam, Directeur de Recherche INRAE Phytopathologiste, Inrae
La pomme est le fruit préféré des Français et le plus cultivé en France. Mais la pomme ne se distingue pas uniquement par sa popularité, elle figure également en tête des cultures les plus traitées en France, notamment en raison du champignon Venturia inaequalis, qui est responsable de la maladie de la tavelure. Comment réduire cette dépendance aux traitements ?
Un pommier malade va produire des pommes tachées. Les fruits tachés ne sont pas nocifs pour la santé humaine, mais ne peuvent être ni vendus ni exportés. C’est la raison pour laquelle les arboriculteurs utilisent des fongicides entre 15 et 20 fois par an, un chiffre qui peut grimper jusqu’à 40 traitements sur les variétés les plus sensibles lors de printemps particulièrement pluvieux. À titre de comparaison, les producteurs de blé appliquent au maximum trois traitements fongicides par an.
Les vergers menés en agriculture biologique ne sont pas épargnés par cette maladie. Ils sont souvent autant traités voire plus que les vergers conventionnels, car les fongicides utilisés en agriculture biologique, comme le cuivre et la bouillie sulfocalcique, sont plus facilement lessivés par les pluies que les fongicides de synthèse. C’est ainsi qu’au cours de sa carrière, un arboriculteur parcourra en moyenne une distance équivalente à un tour du monde avec son pulvérisateur pour protéger son verger de 20 hectares ! Éliminer ce champignon est particulièrement difficile, car il est présent non seulement dans les vergers, mais aussi sur les pommiers dans les habitats sauvages qui, nous le verrons, servent de réservoir de virulence.
De plus, ce champignon s’adapte rapidement aux diverses méthodes de lutte déployées. Pour tenter de pallier ces difficultés, notre équipe à l’IRHS d’Angers développe actuellement une stratégie tout à fait inédite chez les champignons qui, au lieu de tuer l’agent pathogène, l’empêche de se reproduire.
La tavelure du pommier sévit partout dans le monde. Afin de localiser son origine, nous avons réalisé un échantillonnage de souches de V. inaequalis à l’échelle mondiale, à la fois sur des variétés en vergers et sur des espèces de pommiers sauvages présentes dans les habitats non cultivés.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Nos travaux de génétique des populations ont révélé que la tavelure partage avec l’espèce asiatique sauvage, Malus sieversii, le même centre de diversité génétique situé dans les montagnes du Tian Shan, à la frontière du Kazakhstan et de la Chine. Dans ce site majestueux classé au patrimoine universel de l’Unesco pour la valeur de ses ressources génétiques, ce Malus, ancêtre du pommier domestiqué, continue de coévoluer avec son agent pathogène.
Les analyses historiques et génétiques menées sur le pommier montrent que sa domestication a commencé en Asie centrale, il y a 7 000 ans, à partir de Malus sieversii, pour se poursuivre jusqu’en Europe avec des hybridations successives entre différentes espèces de Malus; par exemple, Malus orientalis dans le Caucase et Malus sylvestris en Europe. Tout au long de ce processus de domestication, le champignon a dû gagner en virulence pour s’adapter aux gènes de résistance du pommier introduits par hybridations successives.
À partir du XVIe siècle, au moment de la découverte des nouveaux continents, l’Europe a servi de tête de pont à la diffusion ensemble du pommier domestiqué et de la tavelure, ce qui fait que la maladie provoque aujourd’hui des dégâts sur tous les continents.
Au cours des quarante dernières années, l’activité humaine a facilité, de manière totalement fortuite, l’introduction dans les vergers d’une population de tavelure provenant de l’habitat sauvage selon un scénario comparable à celui du « cheval de Troie ». L’histoire débute en 1914, aux États-Unis, avec des travaux de sélectionneurs qui cherchaient à introduire par hybridation dans le pommier le gène de résistance Rvi6, qui confère une résistance totale à la tavelure.
Issu de l’espèce ornementale Malus floribunda, le gène Rvi6 est rapidement devenu la principale source de résistance introduite dans les programmes de sélection à travers le monde. Après plusieurs décennies de croisements, les premières variétés portant le gène Rvi6 issues de ces travaux de sélection ont été plantées en Europe dans les années 1980. Cependant, quelques années après leur plantation, des symptômes de tavelure ont commencé à apparaître dans les vergers.
Une analyse génétique des souches virulentes du champignon a révélé que la résistance du gène Rvi6 était contournée par une population du champignon, présente de manière insoupçonnée en Europe, non pas dans les vergers, mais sur des pommiers sauvages. En plantant des variétés nouvelles porteuses du gène Rvi6, l’activité humaine a ainsi involontairement facilité l’installation de cette population virulente dans des vergers non protégés par des fongicides. Cette étude met en lumière, une fois de plus, le rôle crucial de l’habitat sauvage en tant que réservoir potentiel de virulence et de maladies susceptibles d’affecter les agrosystèmes.
Le plan EcoPhyto, qui ambitionne de diminuer de 50 % l’usage des pesticides, voire de les éliminer complètement, suscite des inquiétudes quant à sa faisabilité parmi les producteurs et représente un véritable défi pour les scientifiques.
En effet, les variétés de pommes les plus cultivées en France sont particulièrement sensibles à la tavelure, et non seulement la présence de tâches sur les fruits est inacceptable dans les circuits de distribution, mais toute possibilité d’exportation est également interdite.
À moins de convertir l’ensemble des vergers de pommiers en agriculture biologique et d’assouplir sensiblement la réglementation stricte sur la présence de taches sur fruits, imaginer se passer des fongicides de synthèse paraît aujourd’hui illusoire. La situation est similaire à l’étranger dans les grands pays producteurs et exportateurs de pommes, où les mêmes variétés sensibles à la tavelure dominent le marché.
Face à ce constat, comment changer la donne ? Faudrait-il envisager de réglementer voire d’interdire la plantation de variétés très sensibles à la tavelure ? Dans un contexte de sortie des pesticides, cette mesure radicale pourrait s’avérer nécessaire sous réserve que les producteurs soient accompagnés financièrement dans cette période de transition.
En l’absence de contraintes imposées par les politiques publiques, telles que des amendes sur l’application excessive de fongicides, les mêmes variétés gourmandes en traitements chimiques continueront de dominer le marché. Il serait également possible d’envisager la création d’un « pesti-score », une telle information portant sur la quantité de traitements appliqués sur les vergers pourrait participer au changement de paradigme attendu.
Sur le plan international, la recherche académique et les filières horticoles consacrent également beaucoup d’efforts pour lutter contre cette maladie. Toutefois, le long délai incompressible nécessaire pour amener de nouvelles variétés sur le marché reste un défi majeur en cultures pérennes. Substituer les variétés les plus sensibles par de nouvelles variétés porteuses de gènes de résistance provenant de pommiers sauvages reste réaliste, mais prendra du temps.
À court terme, une solution envisageable pour assurer cette transition pourrait résider dans la relance de campagnes de promotion et de sensibilisation auprès du grand public en faveur de variétés de pommes peu sensibles à la tavelure telles que la reine des reinettes ou la Chanteclerc, mais qui n’avaient pas rencontré à leur sortie le succès escompté face aux variétés dominantes. Une telle stratégie permettrait de diversifier les plantations en verger et de réduire ainsi l’usage des fongicides.
L’histoire récente nous enseigne toutefois l’humilité face à la complexité du problème : la tavelure présente une telle diversité qu’elle est capable de s’adapter aux résistances naturelles du pommier. Dès lors, l’enjeu va consister à protéger ces variétés en mettant en œuvre au verger une combinaison de stratégies visant à réduire la taille des populations de tavelure et ainsi prolonger l’efficacité des résistances, par différents moyens depuis l’utilisation de stimulateurs de défense des plantes à une diversification optimale des variétés dans le verger, en s’appuyant sur la modélisation mathématique.
Parmi les pistes alternatives aux pesticides étudiées dans notre laboratoire, nous évaluons la possibilité de perturber la reproduction sexuée du champignon, une étape indispensable à sa survie hivernale. L’objectif visé n’est pas de tuer le champignon, mais bien de l’empêcher de survivre durant l’hiver. Si nous réussissons à inhiber sa reproduction sexuée indispensable à sa survie hivernale, alors nous aurons franchi une étape importante vers la réduction de la dépendance aux fongicides.
Le changement de paradigme de substitution des variétés particulièrement sensibles aux différents bioagresseurs du pommier nécessitera un renforcement conséquent des investissements publics et privés pour mettre en place un plan ambitieux de développement de variétés résistantes aux maladies et aux ravageurs, impliquant tous les acteurs de la filière (arboriculteurs, techniciens de terrain, metteurs en marché, consommateurs, scientifiques).
Cet investissement lourd, mais indispensable pour atteindre les objectifs fixés, devra dépasser la lutte contre la tavelure en intégrant la résistance à bien d’autres maladies et ravageurs du pommier. Le défi sera de développer des variétés résilientes moins gourmandes en pesticides adaptées à des systèmes durables de gestion des résistances. Une telle transition demandera une refonte profonde des méthodes de production ainsi qu’un changement des habitudes des consommateurs.
Baudin Maël a reçu des financements de l'ANR, l'INRAE et Horizon-europe.
LE CAM a reçu des financements de ANR, de INRAE et de la Région Pays de La Loire
26.03.2025 à 16:36
Dominique Andolfatto, Professeur de science politique, Université Bourgogne Europe
Les séances de négociation entre syndicats et patronat sur la réforme des retraites se poursuivent. Mais la CGT et FO n’y participent plus, tout comme l’organisation patronale des professions libérales et de l’artisanat. Après le veto de François Bayrou sur le retour aux 62 ans, la CFDT n’abandonne pas l’objectif de revenir sur les 64 ans, mais cette perspective est peu crédible. Au-delà de cette négociation, quel regard porter sur la « démocratie sociale » censée guider la réforme ?
Lors de sa déclaration de politique générale, le 14 janvier 2025, le premier ministre, François Bayrou, rouvrait le douloureux dossier de la réforme des retraites, mal refermé en 2023. Douloureux, parce que cette réforme, concerne personnellement tous les Français, qui ont érigé la retraite en seconde vie. On peut y voir la conséquence de désillusions idéologiques, du scepticisme à l’égard des promesses décalées d’un autre monde longtemps véhiculées par les partis politiques, mais aussi d’un vécu au travail ressenti comme s’étant dégradé et conséquence de souffrance. Dès lors, la retraite n’est plus un retrait de la vie sociale, voire une « mort sociale », comme autrefois, mais elle est attendue comme une nouvelle aube, la promesse d’un monde nouveau. La repousser, en reculant son âge, ne peut être qu’une atteinte à ce droit à une vie nouvelle et apparaît comme une injustice profonde.
Plusieurs enquêtes le montrent à l’occasion de la réforme de 2023. Le rejet est encore plus fort qu’en 2019, à l’occasion du projet avorté de retraite à points. Selon les enquêtes, les deux tiers des Français, voire plus, affichent leur hostilité (et même les trois quarts des actifs). Plus de 60 % estime également – sinon escompte – qu’un puissant mouvement social fera échec au recul de l’âge de la retraite.
Rejetée pour son « injustice », cette réforme l’est aussi pour son « illégitimité » parce qu’elle n’a pas été votée par le Parlement mais adoptée au moyen d’un des mécanismes du « parlementarisme rationalisé » : l’article 49, alinéa 3 de la Constitution qui permet l’adoption d’une réforme sans vote dès lors que le gouvernement échappe à une motion de censure. Selon une enquête de l’Ifop, 78 % des Français voient là un passage en force « massivement illégitime ». Le président Macron et sa première ministre Élisabeth Borne ont été en désaccord sur le mode de fabrication de cette réforme (même s’ils en partageaient les finalités), négligeant la démocratie sociale, et cela fragilise aussi la réforme.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Tant de divisions et de déchirements vont constituer une opportunité pour le nouveau premier ministre, en 2025. Près de deux ans après l’adoption et l’implémentation de la réforme des retraites, il décide spectaculairement de la remettre à l’agenda, en l’occurrence de relancer des discussions « avec les partenaires sociaux » puisque ceux-ci – il vise les syndicats – « ont affirmé qu’il existait des voies de progrès [pour] une réforme plus juste ».
Pourquoi ce revirement, même si ce n’est pas premier de la part de l’exécutif ? Au plan social, on se souvient de l’abandon du « contrat première embauche » (CPE) en 2006, pourtant adopté par le Parlement, puis remplacé rapidement par un nouveau texte, après à un important mouvement social. C’est le président de la République lui-même, alors Jacques Chirac, qui avait sonné le tocsin de cette réforme et expliqué cette substitution en lien avec un « dialogue social constructif ». Si celui-ci ne fut que théorique, le retrait de la réforme est bel et bien intervenu.
Cette fois-ci, les choses ont été différentes. Le « conclave » que l’ancien militant démocrate-chrétien François Bayrou a appelé de ses vœux est apparu surtout tactique : obtenir une abstention bienveillante d’une partie de l’opposition de gauche à l'Assemblée nationale en rouvrant un dossier social emblématique du second quinquennat de Macron et en laissant croire qu’il pourrait trouver un règlement plus juste.
D’emblée, une des confédérations syndicales, FO, n’a pas voulu s’en laisser conter et a décidé de ne pas participer à ce qui pouvait ressembler à une négociation sociale interprofessionnelle, mais qui n’en était pas vraiment une en réalité. D’une part, symboliquement, la terminologie religieuse utilisée ne pouvait qu’interroger FO, qui a fait de son « indépendance » politique et religieuse sa raison d’être.
D’autre part, le Medef a immédiatement affiché qu’il ne souhaitait pas revenir sur les 64 ans, le nouvel âge de départ à la retraite fixé en 2023, vu par l’organisation patronale comme un « socle de rétablissement » pour le financement du système des retraites. Son président Patrick Martin, comme probablement Frédéric Souillot, secrétaire général de FO, a aussi estimé que le « conclave » ne se ferait pas à portes fermées et que le gouvernement ferait pression sur les partenaires sociaux, à la suite, d’abord, de rodomontades sur la hauteur des déficits sociaux, puis à travers une lettre de cadrage très étroite, adressée par le premier ministre aux partenaires sociaux, le 26 février 2025.
Cela ne pouvait que nourrir l’inflexibilité du premier comme le refus de jouer le jeu du second. Dès lors, le « conclave » était mort-né. Il n’avait même plus besoin du coup de grâce que lui donnerait finalement le premier ministre, deux mois après l’avoir inventé : le 16 mars, interviewé sur France Inter, François Bayrou écartait en effet la possibilité de revenir à 62 ans, voire 63 ans. La CGT quittait aussitôt le « conclave », déplorant l’abandon de l’« abrogation » de la réforme de 2023. L’organisation patronale des professions libérales et de l’artisanat (U2P) l’avait précédée de peu pour des raisons diamétralement opposées : la nécessité de « mesures drastiques… pour rétablir l’équilibre de nos régimes sociaux ».
En fait, l’un des problèmes de fond de cette réforme est celui de l’instrumentalisation, mais aussi des impasses de la démocratie sociale. Celle-ci a tour à tour été appelée à la rescousse par Élisabeth Borne, puis par François Bayrou. La première, probablement pour retarder le mouvement social qui se profilait et qui risquait de compromettre le devenir de son gouvernement, s’est opposée à la réforme à la hussarde souhaitée initialement par Emmanuel Macron. Elle a ouvert une série de concertations très cadrées avec les organisations syndicales et patronales. Ces concertations, après une réunion « multilatérale » avec toutes les organisations, se sont poursuivies en « bilatérales » avec chacune d’entre elles, au ministère du travail puis à Matignon, sans réussir à convaincre et donc à rallier les syndicats : « Il n’y avait aucun moyen de bouger la ligne de ce que voulait faire le gouvernement », indique Yvan Ricordeau, qui fut le négociateur de la CFDT. Pour les syndicats, cet échec justifia, à compter de janvier 2023, le recours à la « mobilisation » pour le retrait de la réforme.
À son tour, François Bayrou recourt à la voie de la démocratie sociale, sans doute par tactique, comme déjà évoqué, mais aussi pour alerter l’opinion sur les déséquilibres des comptes sociaux, avec le secours de la Cour de comptes mais aussi d’autres chiffrages discutés.
Reste que la démocratie sociale n’est pas vraiment codifiée. Elle n’a pas d’obligation de résultats ni de moyens. Les gouvernements l’instrumentalisent selon leur bon vouloir ou la conjoncture, et les partenaires sociaux eux-mêmes ne cherchent pas véritablement à la faire vivre ou alors seulement en creux. Ils vont s’entendre pour s’opposer à certaines réformes, comme en 2023 qui a vu la constitution d’un front syndical uni. Mais les syndicats, très divisés sur le fond, n’ont pas cherché à porter un projet commun. Cela ne fut pourtant pas toujours le cas. Il y a longtemps, déjà, ils ont mis sur pied le système de retraites complémentaires ou l’assurance chômage.
En fait, les partenaires sociaux sont en concurrence, notamment pour la représentativité et les moyens que celle-ci procure. Syndicats et organisations d’employeurs, imprégnés d’une culture jacobine, préfèrent également discuter directement avec le pouvoir plutôt que de faire vivre une démocratie plus horizontale.
Depuis les années 2000, le Code du travail, dans son article L1, impose toutefois une concertation avec les partenaires sociaux avant toute réforme des relations du travail ou de la formation professionnelle. Mais ceci ne vaut pas pour la protection sociale (et donc les retraites) et cela contribue à expliquer bien des vicissitudes qui perdurent.
Malgré tout, s’agissant des retraites, cinq partenaires sociaux (sur huit) représentatifs au plan national entendent poursuivre le dialogue, tout en se dégageant de la lettre de cadrage du gouvernement, pour consolider le système de retraite du secteur privé, par bien des aspects, fragile et inégalitaire.
Dominique Andolfatto a reçu des financements du réseau national des MSH (CNRS, Inserm) pour "Citoyens dans la crise sanitaire" (recherche collective parue chez Classique Garnier en 2023). Il anime actuellement un projet de recherche sur la syndicalisation pour une fédération syndicale.
26.03.2025 à 16:34
Matthieu Crozet, Professeur d'économie à l'Université Paris Saclay, conseiller scientifique au CEPII, CEPII
Les échanges commerciaux entre les États-Unis et la Russie n’étaient pas très élevés avant le déclenchement des sanctions visant Moscou. Si Donald Trump décide de retirer son pays du front des pays sanctionnant la Russie, les conséquences ne seront donc pas immédiatement significatives.
Une chose que nous a apprise l’actualité internationale de cette dernière décennie, c’est qu’il faut prêter une oreille attentive aux discours politiques, surtout quand ils émanent de responsables populistes ou autoritaires : aussi extravagants qu’ils puissent paraître, ils sont souvent l’expression d’une conviction profonde, associée à une volonté d’agir.
De la même façon qu’il fallait écouter Vladimir Poutine quand il affirmait vouloir soumettre l’Ukraine, il faut aujourd’hui prendre au sérieux les déclarations prorusses de l’administration Trump.
Les nombreuses marques de bienveillance du nouveau président des États-Unis à l’égard de la Russie de Vladimir Poutine et des oligarques russes annoncent un retrait de Washington des deux fronts du conflit ukrainien. Le retrait du front armé est d’ores et déjà engagé, avec l’interruption du soutien militaire, humanitaire et logistique à l’Ukraine.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Le retrait du front des sanctions économiques qui pèsent sur la Russie depuis 2014 est aussi à l’ordre du jour. Le 3 mars 2025, Reuters a en effet indiqué que la Maison Blanche avait demandé au département d’État et au Trésor fédéral de dresser une liste de sanctions susceptibles d’être assouplies. On ne sait pas encore lesquelles seraient allégées, ni quand, ni quelles en seraient les contreparties, mais un retrait des États-Unis de la coalition occidentale est une hypothèse probable.
Or, l’efficacité des sanctions économiques repose largement sur l’asymétrie des forces en présence. Plus le poids économique des pays qui imposent les sanctions est élevé, plus la pression sera forte, avec des possibilités de contournement limitées, et un coût réduit pour ces pays. La formation d’une large coalition est ainsi une condition du succès, et le désengagement des États-Unis ne peut que mettre à mal les efforts pour contenir les capacités économiques de la Russie.
Les conséquences de ce retrait sont difficiles à évaluer. On peut toutefois avancer des arguments rassurants, car autant l’aide militaire des États-Unis a joué un rôle crucial sur le front, autant ce sont les autres pays de la coalition qui ont été en première ligne sur celui des sanctions.
Pour des raisons géographiques et culturelles, les États-Unis ne sont pas un partenaire majeur de la Fédération de Russie. Avant la mise en place des sanctions (en 2014, puis en 2022), à peine 5 % des exportations russes de biens hors énergie étaient destinées au marché américain (Graphique 1).
Côté importations, la proportion est encore moins importante : de 3 à 4 % des biens importés en Russie provenaient des États-Unis. À l’inverse, les pays d’Europe occidentale, l’Ukraine, mais aussi le Japon et la Corée sont des partenaires économiques naturels de la Russie. Si l’on ajoute les autres pays de la coalition, qui inclut d’autres partenaires commerciaux mineurs de la Russie, comme l’Australie et la Nouvelle-Zélande, le poids de cet ensemble dans le commerce extérieur russe est sans commune mesure avec celui des États-Unis : en 2021, ces pays représentaient en effet plus du tiers des exportations russes (hors énergie) et près de la moitié des importations.
De ce fait, les pays européens et le Japon ont assumé l’essentiel du coût associé aux trains de sanctions commerciales qui se sont succédé depuis 2022.
Pour donner un ordre de grandeur, la baisse des exportations vers la Russie, entre 2021 et 2023, a représenté environ 1 % du PIB pour la Slovaquie, pour la Finlande et pour la République tchèque, 0,44 % pour l’Allemagne, de l’ordre de 0,2 % pour la France et l’Italie… et moins de 0,03 % pour les États-Unis (Graphique 2).
Une quantification plus précise confirme le faible impact qu’aurait la levée des sanctions américaines. À partir d’une estimation de l’impact des sanctions sur le commerce bilatéral, puis d’une simulation d’un modèle théorique permettant de prendre en compte les mécanismes d’entraînement liés aux chaînes de valeur et aux variations de revenu, l’effet estimé des sanctions de 2022 est significatif, mais d’une ampleur modeste.
Elles auraient engendré une baisse du niveau de vie de 2,62 % pour les Russes. Dans cet ensemble, la part imputable aux États-Unis est négligeable, comme le montre la simulation d’un scénario où Washington n’aurait pas participé aux sanctions cette année-là : la perte pour la Russie n’aurait été ramenée qu’à 2,60 %, soit 0,02 % de moins – un changement bien modeste.
Ces estimations ont cependant leurs limites et la vigilance reste de mise. Même si le potentiel de commerce avec les États-Unis reste faible, une levée unilatérale des sanctions offrirait tout de même une bouffée d’air bienvenue à l’économie russe.
Elle pourrait permettre l’accès à des biens sensibles à double usage (civil et militaire). Une suppression des sanctions financières américaines aurait pour conséquence de relancer l’investissement en Russie – aujourd’hui étranglé par des taux d’intérêt prohibitifs – et de faciliter les stratégies de contournement en réduisant les contraintes sur les paiements internationaux.
Tout cela sans compter que les États-Unis pourraient aussi aller au-delà d’un simple retour à la situation de 2021 : après tout, aucun signe ces dernières semaines ne permet d’écarter la perspective d’une administration américaine qui encouragerait une coopération économique volontariste avec la Russie. Rappelons d’ailleurs que la conversation téléphonique Trump-Poutine du 18 mars a donné lieu, sur le site de l’ambassade des États-Unis à Moscou, à un résumé se concluant par ces mots :
« Les deux dirigeants ont convenu que l’amélioration des relations bilatérales entre les États-Unis et la Russie offrirait des avantages considérables. Il s’agira notamment de conclure d’énormes accords économiques et d’assurer la stabilité géopolitique une fois la paix rétablie. »
Matthieu Crozet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
26.03.2025 à 16:31
Emma Lei Jing, Assistant Professor, Neoma Business School
Les discussions lancées sur des sujets sensibles se transforment souvent en chambre d’échos, ces bulles informationnelles où les personnes partagent les mêmes croyances. Comment en sortir pour aller au-delà de nos désaccords ? Étude de cas avec le débat sur la toxicomanie au Canada.
Retraites, conflit israélo-palestinien, élection de Donald Trump, les controverses sont légion en ce début d’année 2025 et… polarisent les opinions. Les algorithmes « intelligents » surfent sur cette vague en créant des bulles de filtres, ou bulles informationnelles. Nos réseaux sociaux nous donnent à voir ce qui est censé nous intéresser le plus, en fonction des contenus que nous partageons le plus ou sur lesquels nous cliquons davantage. Sommes-nous condamnés à l’irréconciliable ?
Ce phénomène est bien connu des chercheurs en sciences sociales, qui parlent de chambres d’écho. Dans ces espaces, les arguments et les émotions sont amplifiés et répétés par des individus partageant les mêmes croyances. Les chambres d’écho résultent de processus sociaux continus dans lesquels les gens s’enferment eux-mêmes sur la base d’interprétations divergentes de ce qui est « bon » ou « mauvais ». Se crée alors autour de ces personnes une bulle informationnelle que les perspectives opposées peinent à pénétrer.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Notre étude de cas porte sur une nouvelle approche controversée de lutte contre la toxicomanie au Canada – la réduction des méfaits. Nous nous demandons comment des discussions lancées sur ce sujet sensible se transforment en chambre d’écho ? Quel est le rôle des émotions dans ce processus d’isolement des opinions et d’escalade des désaccords ?
La réduction des méfaits vise à réduire les conséquences négatives de la toxicomanie, sans en exiger l’abstinence. Elle inclut des mesures comme la distribution de seringues propres et la mise en place de sites de consommation supervisée. Introduite en 2008 en Alberta au Canada, cette politique a radicalement transformé le débat public, créant des clivages entre partisans et opposants.
Cet exemple nous a permis de développer un modèle sur la dynamique des contestations pouvant mener à des chambres d’écho, dans le champ des addictions.
Notre étude souligne le rôle essentiel des émotions morales. Contrairement aux émotions fondées sur des intérêts personnels, les émotions morales concernent le bien-être de la société. Dans ce type de débat, la prise de position initiale de chacun dépend souvent de sa vision du bien et du mal. Or, il n’existe pas d’accord universel sur ce qui est juste.
En conséquence, chaque parti considère qu’il défend ce qui est juste et bon pour la société. Il suffit d'observer les réactions polarisées suite à l'élection présidentielle américaine de 2024.
À mesure que l'expression de ces émotions morales s’intensifie, un fossé se creuse entre les deux groupes opposés. Cette polarisation croissante transforme peu à peu l'espace de débat en territoires idéologiques hermétiques, véritables chambres d’écho, où ne résonnent plus que des arguments confortant les croyances préexistantes.
À lire aussi : Comment les Français choisissent-ils leurs médias ?
En intégrant ces émotions morales dans leurs discours, les individus intensifient leurs désaccords et renforcent les divisions dans le débat public. En fait, ces émotions alimentent l’escalade de ces conflits. Chacun est persuadé, presque de façon viscérale, que l’autre a tort. Si bien que ce qui était au départ une prise de position sur une question morale se transforme progressivement en un rejet, pas uniquement de l’idée opposée, mais aussi de ceux qui la portent.
Par exemple, dans la société états-unienne moderne, la division entre les républicains et les démocrates s’accentue en raison de la présence de ces émotions. Nous avons pu observer dans les discours une augmentation des émotions négatives comme la frustration, la colère et le dégoût envers l’opposition.
In fine, ces émotions éloignent les acteurs (citoyens) les uns des autres. Le débat s’éteint, puisque les discours et les arguments antagonistes ne sont plus entendus. Nous mettons en lumière que l’émergence des chambres d’écho est fortement liée à un biais autour de la notion de moralité. Chaque camp perçoit l’opposition comme moralement mauvaise, dès lors qu’elle s’oppose à sa vision de ce qui est bon pour la société.
Cette évolution progressive des débats vers des chambres d’écho est catalysée par des événements déclencheurs attirant l’attention ou suscitant l’émotion. Ils séparent encore plus les différents clans. Braquer les projecteurs sur la question qui divise encourage les personnes qui ne l’ont pas encore fait à prendre parti. La crise des opioïdes de 2012 en est symptomatique. Le débat est réalimenté par de nouveaux acteurs et de nouveaux discours, avec un poids toujours aussi important des émotions susmentionnées. Par exemple, lorsqu’un gouvernement conservateur canadien a considérablement réduit les pratiques de la réduction des méfaits, les personnes engagées dans le débat ont commencé à renoncer à convaincre l’autre partie ; ils entraient dans leur propre chambre d’écho.
Pour atténuer ces effets, nous suggérons aux acteurs publics de présenter les débats de manière pragmatique. Par exemple : aborder la réduction des inconvénients comme un moyen de diminuer les coûts des soins de santé.
Au sein des organisations, les débats sur des sujets controversés risquent souvent de polariser les opinions et de fragiliser la cohésion d'équipe. Notre recherche démontre que les managers jouent un rôle crucial dans la régulation de ces dynamiques. En observant attentivement l'évolution des discussions, ils peuvent intervenir au moment opportun pour éviter l'escalade émotionnelle.
La clé réside dans leur capacité à instaurer un cadre d'échange structuré, privilégiant un langage neutre et analytique. Cette approche permet d'examiner les différentes perspectives sous l'angle de leur valeur pragmatique plutôt que sous un prisme moral qui classerait les opinions comme justes ou fausses. En déplaçant ainsi le débat du terrain des convictions vers celui des solutions concrètes, les managers favorisent un dialogue constructif où la diversité des points de vue devient une ressource plutôt qu'une source de division.
Cet article a été rédigé par Elizabeth Goodrick de Florida Atlantic University, Trish Reay de l’Université d’Alberta et Jo-Louise Huq de l’Université de Calgary.
Emma Lei JING a reçu des financements pour cet projet de recherche de The Social Sciences and Humanities Research Council of Canada.
26.03.2025 à 16:31
Jacob Vakkayil, Professor in Management, IÉSEG School of Management
Antonio Giangreco, Full Professor in HRM & OB, IÉSEG School of Management
Omniprésents dans les villes, les livreurs à vélo ont les roues bloquées dans le piège de la flexibilité. Juridiquement entrepreneurs indépendants, en pratique employés, souvent travailleurs en dehors du marché classique, ils subissent un manque de réglementation en leur faveur. Et un manque de sensibilisation du grand public ?
Nous ne marcherons pas pour un hamburger, mais un cycliste pédalera cinq kilomètres sous la pluie pour nous l’apporter. Pendant que nous défilons et grignotons, ils transpirent et se débattent, se faufilant dans la circulation pour quelques centimes par kilomètre. Notre confort se fait au prix de leur épuisement, mais nous nous arrêtons rarement pour remettre en question ce déséquilibre. Après tout, le repas arrive chaud, et c’est ce qui compte.
L’essor et la propagation rapide du travail de livraison de repas sur plate-forme au cours de la dernière décennie ont été bien documentés. Bien qu’il soit possible d’avoir des effets positifs pour ces travailleurs – des revenus supplémentaires ou une flexibilité du temps –, il a été largement reconnu que ce type de travail comporte de multiples sources d’insécurités. Il peut constituer une forme d’exploitation dans la pratique pour les travailleurs.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Malgré la nature dangereuse du travail, de plus en plus de personnes semblent prêtes à s’engager dans un travail aussi précaire. Dans notre étude, nous cherchons des réponses à ce paradoxe en explorant les expériences des livreurs à vélo lorsqu’ils entreprennent ce type de travail.
Les coursiers à vélo impliqués dans les livraisons de repas doivent faire face à des conditions de travail extrêmes : conditions météorologiques défavorables, exposition à des niveaux élevés de pollution dans les zones urbaines et faible niveau de sécurité routière dans les rues. Les longues heures de travail, y compris tard le soir, et le stress induit par le suivi constant de leurs performances par des algorithmes en ligne, rendent ce type de travail particulièrement exigeant.
Paradoxalement, dans de nombreuses régions du monde, comme l’Union européenne, le travail sur plateforme numérique, y compris la livraison de repas, attire un nombre croissant de travailleurs. Ils sont près de 43 millions dans l’Union européenne, avec une augmentation de 52 % depuis 2022. Le profil type : un jeune homme, un bachelier, et ce travail est une seconde source de revenus. Les chauffeurs de VTC représentent 39 % d’entre eux, les livreurs à vélo 24 % et les travailleurs à domicile (ménage, bricolage, jardinage, etc.) 19 %.
Dans notre étude, nous avons constaté que le travail par l'intermédiaire d’une plateforme promet flexibilité et choix. Pour autant, la pratique démontre le contraire. Les arrangements de travail visant à une disponibilité constante peuvent les conduire à un piège de flexibilité. Ils éprouvent une grande confusion quant à leur statut : techniquement entrepreneurs indépendants, mais en pratique employés.
Ce n’est pas surprenant, car différents décideurs politiques ont adopté des positions contradictoires concernant leur statut juridique. Le Parlement européen a adopté une directive présumant l'existence d'une relation de travail entre les plateformes et les travailleurs. Il incombe donc aux plateformes de prouver l'absence de relation de travail. Bien que cette directive ait considérablement fait progresser les droits des travailleurs, certains ont reproché à cette directive de ne pas correspondre aux propositions initiales visant à accorder automatiquement un statut de travailleur sur la base de critères prédéfinis. Donc, en Europe, le sujet n'a pas encore trouvé une solution acceptée par tous les acteurs.
Plus importants encore, nous avons constaté que les travailleurs réagissent aux expériences ci-dessus en cherchant différentes solutions de contournement et rationalisations. Une réaction typique consiste à augmenter leurs efforts en allongeant les heures de travail ou en s’engageant dans une conduite dangereuse pour respecter les délais. Ils s’adressent également à d’autres livreurs dans des points de rencontre clé autour des villes pour échanger leurs expériences en attendant des commandes.
« Comme nous sommes payés à la commande, nous prenons des risques. Honnêtement, j’ai déjà essayé, pendant une nuit, de travailler sans prendre de risques. J’ai eu un gros manque à gagner. Pour dépasser le seuil de tolérance, financièrement, il faut prendre des risques. »
D’autres réactions impliquent des rationalisations mentales. Ils comparent le travail de plateforme à d’autres types de travail pour mettre en évidence les aspects positifs. Ainsi, ils cherchent à se réconforter en considérant le travail comme une activité supplémentaire temporaire ou transitoire. Ces réponses s’adressent essentiellement à soi-même et à ses collègues et rarement aux plateformes elles-mêmes. Ils sont de nature non conflictuelle, car les travailleurs s’adaptent aux conditions existantes plutôt que de tenter de les remettre en question et de les modifier plus substantiellement.
En raison de la nature ouverte et contractuelle du travail de livraison de repas sur plateforme, il existe de très faibles barrières à l’entrée. Une forte proportion de travailleurs viennent de l’extérieur des marchés du travail.
La main-d’œuvre est composée de personnes qui ne peuvent pas occuper un emploi régulier, d’immigrants, d’étudiants à temps partiel, de travailleurs peu qualifiés, etc.
Parmi les personnes interrogées dans notre étude, 70 % sont françaises et 30 % étrangères, 53 % sont salariées à temps plein, 47 % à temps partiel, dont 17 % étaient étudiantes. Enfin, 27 % exercent une autre activité professionnelle ou de loisir à côté.
Malgré nos efforts pour favoriser une plus grande diversité de genre, une seule interviewée était une femme. Ce chiffre est représentatif de la main-d’œuvre de livreurs à vélo.
Le secteur absorbe également les travailleurs mis à pied en période de ralentissement économique. Comme ils sont socialement et économiquement défavorisés, ils ne possèdent pas le capital social et la stabilité financière nécessaires pour s’engager dans des réponses plus organisées et collectives aux conditions de leur travail. Par rapport à d’autres acteurs de l’économie des plateformes, tels que les clients – généralement issus de catégories socio-économiques supérieures –, les restaurants – pour lesquels les aliments livrés ne représentent qu’une partie des ventes totales – et les plateformes – grandes multinationales –, les livreurs sont les plus désavantagés.
À lire aussi : Autonomie au travail dans la gig economy : une chimère ?
Ils opèrent dans un écosystème impliquant plusieurs parties prenantes qui exercent un haut degré de contrôle sur eux de différentes manières. Cela crée un contexte de déséquilibre continu des pouvoirs entre les plateformes et les travailleurs et réduit leur pouvoir d’action collective. Cette position les oblige à s’engager dans des stratégies de rationalisation, de changement de comportement et de solidarité sociale non conflictuelle pour faire face aux expériences d’insécurité dans leur travail.
Les solutions de contournement et les raccourcis adoptés par les travailleurs sont une conséquence des conditions structurelles du travail de livraison de repas sur plateforme. Avec la visibilité croissante et l’expansion mondiale de ce modèle de travail, même des réponses non conflictuelles pourraient avoir le potentiel de déclencher des changements.
À titre d’exemple, des images d’un livreur humilié après avoir escaladé une clôture pour gagner du temps ont suscité de plus grandes discussions sur la condition des travailleurs et les revendications de dignité.
Une plus grande sensibilisation du public aux expériences de ces travailleurs et à leurs comportements d’adaptation pourrait conduire à une plus grande attention réglementaire, de même qu’à terme, l’obligation faite aux plateformes de prendre des mesures correctives. Peut-être que la prochaine fois, au lieu de simplement attraper notre repas et de fermer la porte, nous nous arrêterons un instant et demanderons au livreur comment il tient le coup après tout. Car un peu de véritable préoccupation humaine ne coûte rien, mais pourrait être la chose la plus précieuse que nous puissions offrir.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
26.03.2025 à 16:30
Camille Pistre, Doctorante, Université Paris-Est Créteil Val de Marne (UPEC)
Ugo Ballenghein, Professeur des Universités - Psychologie Cognitive, Université Paris-Est Créteil Val de Marne (UPEC)
Xavier Aparicio, Professeur des Universités en psychologie cognitive, Université Paris-Est Créteil Val de Marne (UPEC)
Alors que l’intelligence artificielle multiplie la palette d’outils numériques à disposition des enseignants, que sait-on de son efficacité dans l’apprentissage de la lecture ? Les nouvelles applications risquent-elles de remplacer les méthodes traditionnelles ou ce scénario relève-t-il de la science-fiction ?
L’intelligence artificielle (IA) s’infiltre progressivement dans le monde de l’éducation, notamment dans l’apprentissage de la lecture. De plus en plus d’outils numériques proposent en effet d’accompagner les lecteurs en herbe dans le déchiffrage de leurs premiers textes.
Alors que les données officielles font état de grands écarts de niveau entre les élèves et de difficultés importantes d’une part d’entre eux à l’entrée en sixième, que peut-on attendre de ces nouveaux appuis technologiques ? Sont-ils vraiment efficaces ? Peuvent-ils compléter les méthodes traditionnelles ? Risquent-ils de les remplacer ou cela ne serait-il qu’un scénario de science-fiction ?
Rappelons que la lecture se définit comme « l’action de déchiffrer un texte, d’en identifier les caractères et les mots pour en comprendre le sens ». Cela nécessite un apprentissage rigoureux qui implique de « développer des habiletés dans deux domaines : l’identification des mots écrits et le traitement du sens, pour la compréhension des textes ».
Avant de pouvoir comprendre un texte, il est crucial de maîtriser le décodage. Cela signifie associer ce que l’on voit (les graphèmes) à ce que l’on entend (les phonèmes). Par exemple, quand un enfant voit le mot « bateau », il doit d’abord identifier les graphèmes b, a, t, eau, puis les relier aux sons correspondants/b/,/a/,/t/et/o/. En combinant ces sons, il peut reconnaître le mot « bateau », surtout s’il l’a déjà entendu autour de lui.
Cet apprentissage commence par des règles simples et courantes, qui deviennent plus complexes mais s’automatisent avec le temps. Ensuite vient la compréhension, qui repose sur plusieurs compétences (traitements sémantique, syntaxique, morphologique) et qui n’est pas exclusive à la lecture.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
L’apprentissage de la lecture est-il un parcours du combattant ? D’après l’Insee (2011), un élève sur cinq entrant au collège rencontre des difficultés face à l’écrit. De plus, entre 20 et 40 % des élèves de cet âge présentent des difficultés de compréhension des textes. Ces difficultés ne s’atténuent malheureusement pas avec le temps. À l’adolescence, un jeune sur dix présente une très faible compréhension en lecture, accompagnée d’un déficit de vocabulaire significatif.
Les compétences en lecture ne se développent donc pas de manière homogène chez tous les élèves et peuvent être influencées par des facteurs sociaux et culturels. Dans les milieux les plus favorisés, la lecture est souvent valorisée comme une activité de loisir et d’évasion, tandis que dans les milieux moins favorisés, elle est principalement envisagée comme un outil d’apprentissage. Cette différence d’usage peut avoir des répercussions sur la motivation des élèves et leur engagement dans la lecture, influençant ainsi leur progression et leur niveau de compréhension.
Les nombreux outils numériques éducatifs développés depuis vingt ans peuvent être classés en deux grandes catégories : ceux axés sur le décodage et ceux visant la compréhension. Parmi les outils dédiés au décodage, on peut citer, Daisy Quest et Daisy Castle, Lexia, Play-On et GraphoGame. Concernant le développement de la compréhension en lecture, plusieurs ressources ont également vu le jour, telles que ELAN, ABRACADABRA et ePearl.
Ces outils poursuivent chacun des objectifs d’apprentissage spécifiques, tels que le développement des habiletés phonologiques, la maîtrise des correspondances graphème-phonème, l’amélioration de la fluidité en lecture ou encore la compréhension des textes. De plus, ils ciblent des populations variées en fonction des besoins éducatifs.
Toutefois, pour garantir leur efficacité, il est essentiel qu’ils soient conçus en lien étroit avec la recherche scientifique. Cela permet non seulement d’en vérifier la fiabilité de manière objective (par exemple GraphoGame), mais aussi d’évaluer précisément leurs effets spécifiques.
Si ces outils ont été largement adoptés par les enseignants du premier degré (94 % en 2015) pour la préparation de leurs cours, leur intégration en classe reste limitée. D’après l’enquête internationale TALIS 2018, seuls 14,5 % des enseignants du primaire déclarent autoriser fréquemment ou systématiquement les Technologies de l’Information et de la Communication (TIC) quand les élèves mènent des projets ou des travaux en classe.
Du point de vue des élèves, ces outils renforcent la motivation et l’attention, rendant l’apprentissage plus attrayant. La présence de feedbacks immédiats favorise la compréhension et la progression, tandis que l’individualisation du parcours permet d’adapter les apprentissages aux besoins spécifiques de chacun.
Cela dit, ces technologies ne sont pas exemptes de limites : surcharge cognitive, perturbation du sommeil, inégalités d’accès ou encore risques d’isolement social. Ces enjeux soulignent la nécessité d’une utilisation réfléchie et modérée des outils numériques ainsi qu’une formation adéquate des enseignants pour exploiter pleinement leur potentiel dans l’apprentissage de la lecture.
Plus récemment, l’IA s’est imposée dans toutes les disciplines, renouvelant les outils à disposition. En France, concernant l’apprentissage de la lecture, on peut citer des applications comme Lalilo et Navi.
Comme les outils numériques traditionnels, l’IA permet un feedback immédiat mais elle va aussi plus loin en personnalisant le parcours de chaque apprenant. Elle permet d’ajuster en temps réel la difficulté des exercices et propose des contenus adaptés aux progrès de l’élève, ce qui lui offre un apprentissage différencié et plus interactif.
Elle constitue un outil précieux pour appuyer les enseignants et alléger certaines tâches répétitives. Elle facilite notamment la création de quiz ou évaluations, permettant donc aux enseignants de gagner du temps tout en ciblant les difficultés des élèves et ainsi d’adapter leurs interventions.
À ce jour, peu d’études se sont intéressées à l’impact de l’IA sur l’apprentissage de la lecture. Si certaines recherches ont mis en évidence ses bénéfices en compréhension, structuration de récits et enrichissement du vocabulaire, son efficacité sur les premières étapes de l’apprentissage reste à démontrer.
Bien que l’IA transforme de nombreux domaines, son intégration en éducation soulève encore des questions et défis. Son efficacité doit encore être comparée aux méthodes traditionnelles pour évaluer ses réels bénéfices. De plus, l’usage d’outils adaptatifs et génératifs requiert des compétences techniques que les enseignants ne possèdent pas toujours, rendant indispensable la mise en place de formations spécifiques.
Enfin, sur le plan cognitif, l’IA, bien qu’interactive et engageante, pourrait provoquer une surcharge cognitive, notamment chez les jeunes enfants, qui doivent jongler entre l’interface numérique et les apprentissages fondamentaux.
Une dépendance excessive à ces outils pourrait aussi limiter leur autonomie et leur capacité à développer des stratégies de lecture efficaces. Ainsi, bien que prometteuse, l’IA en éducation doit être utilisée avec mesure et discernement pour en maximiser les bénéfices sans en subir les effets négatifs. Plus largement, son impact financier, mais aussi écologique, en termes de consommation énergétique, reste à déterminer et devra être pris en compte dans de futures recherches.
Camille Pistre a reçu des financements de France 2030 pour des projets PIA4.
Ugo Ballenghein a reçu des financements de France 2030 pour des projets PIA4.
Xavier Aparicio a reçu des financements de France 2030 pour des projets PIA4.
26.03.2025 à 16:30
Denis Benita, Ingénieur transports, Ademe (Agence de la transition écologique)
Les poids lourds représentent 27 % des émissions de CO2 liées au transport. Leur électrification apparaît ainsi indispensable pour réduire leurs émissions de gaz à effet de serre, mais celle-ci peine à se déployer pour l’instant, notamment du fait de son coût élevé. Différents leviers sont actionnés pour accélérer cette transition.
Les poids lourds représentent, en France, 27 % des émissions de CO₂ liées aux transports, alors même qu’ils ne constituent que 1,3 % du parc automobile du pays. Le parc des camions compte environ 600 000 véhicules quand la France recense 39 millions de voitures. Un constat qui s’explique à la fois par leur très forte consommation de carburant et par le fait qu’ils roulent sur de très longues distances.
L’enjeu de diminuer leur impact environnemental apparaît donc majeur. Pour cela, plusieurs options existent aujourd’hui :
la plus plébiscitée actuellement est de se tourner vers le biocarburant B100, produit à partir de colza. Il s’agit de l’unique biocarburant éligible, à ce stade, à la vignette Crit’Air 1, qui sera peut-être un jour la seule permettant d’accéder à certaines zones à faibles émissions (ZFE). Il a l’avantage d’être facile à adopter : il suffit de le substituer au diesel dans son réservoir et de s’assurer que son véhicule est bien compatible.
La deuxième option vers laquelle se tournent nombre d’acteurs du transport routier est le gaz naturel véhicule, en privilégiant autant que possible son alternative renouvelable avec le biogaz naturel véhicule. Là aussi, éligible à la vignette Crit’Air 1, sa mise en œuvre est plus complexe, avec l’achat d’un camion dédié et la nécessité de se situer à proximité d’une station de gaz naturel pour véhicules (GNV).
La dernière option est l’achat d’un poids lourd électrique, qui demeure très minoritaire. Sur les quelque 50 000 camions vendus en France en 2024, seuls 670 étaient électriques, soit 1,4 % du marché – contre 33 % des bus et 16,9 % des voitures.
Cette solution constitue pourtant le choix le plus vertueux sur le plan environnemental, mais certains freins restent à lever pour faciliter son déploiement.
À lire aussi : Quelle technologie de batterie pour les voitures électriques ? Un dilemme de souveraineté industrielle pour l’Europe
Le premier intérêt du poids lourd électrique est son absence d’émissions de particules fines et d’oxyde d’azote. Les émissions de CO2 ne sont pas nulles – il faut prendre en compte celles liées à la production de l’électricité utilisée –, mais elles sont malgré tout 75 % plus faibles que celles d’un camion diesel.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Il est ainsi particulièrement pertinent pour les centres-villes, où circulent tous les petits poids lourds de 19 tonnes qui réalisent les livraisons du dernier kilomètre.
Le marché des batteries étant déjà tiré par les constructeurs de véhicules particuliers, la présence de très gros constructeurs devrait permettre d’importantes économies d’échelle qui, indirectement, vont aider à faire baisser le prix des camions.
La filière possède en outre un excellent rendement « du puits à la roue » (c’est-à-dire, prenant en compte tout le cycle de vie de l’énergie utilisée), bien meilleur que ceux des filières diesel ou hydrogène par exemple. La France étant dotée d’une énergie électrique majoritairement décarbonée, elle aurait tort de s’en priver, d’autant que son réseau électrique est également très développé et très performant, maillage qui facilitera le déploiement de stations de charge sur l’ensemble du territoire.
C’est donc depuis quelques mois cette option qui mobilise en France la plus forte volonté politique, en accord aussi avec les différents acteurs français de l’industrie automobile qui privilégient la filière électrique à l’hydrogène. La plupart des constructeurs de camions envisagent d’ailleurs de vendre au moins 50 % de véhicules électriques à partir de 2030, sachant que l’Europe leur impose par ailleurs des quotas relativement stricts de réduction de leurs émissions de CO2.
Cette transformation pose toutefois de nombreux défis.
Le premier défi est de parvenir à structurer la filière en incitant ses acteurs à investir massivement dans le développement des poids lourds électriques.
Cela passe aujourd’hui principalement par la réglementation. Des règles drastiques ont ainsi été imposées au cours des dernières années aux constructeurs par l’UE, qui sont désormais tenus de diminuer de 45 % leurs émissions moyennes de CO2 en 2030, de 65 % d’ici à 2035 et de 90 % à horizon 2040.
À cette réglementation s’ajoutent les « normes euro » qui encadrent les émissions de polluants. La prochaine, Euro 7, sera introduite en 2028. Là aussi, l’absence d’émissions de particules et d’oxydes d’azote par le poids lourd électrique joue en sa faveur. Respecter ces seuils les forcera à redoubler d’ingéniosité pour accélérer leur production de poids lourds électriques.
Le défi est également technique : sur les camions électriques, le poids important des batteries augmente la charge à l’essieu, qui peut excéder la charge maximale réglementaire admissible et risque de mettre à mal l’architecture du véhicule. Une contrainte qui doit être prise en compte par le constructeur – en ajoutant par exemple un essieu supplémentaire – et qui rehausse mécaniquement le prix final.
L’autre pan de la transition des poids lourds vers l’électrique est le déploiement indispensable d’infrastructures de recharge. Si les petits camions (parfois équipés de chargeurs embarqués) et les bus peuvent se recharger au dépôt, les gros qui réalisent de longues distances sur plusieurs jours doivent pouvoir trouver, au fil de leurs trajets, des stations de recharge.
Or, aujourd’hui, la France ne compte qu’une trentaine de stations poids lourds, chacune étant dotée de trois ou quatre bornes de recharge. Ce chiffre devrait atteindre 80 à 90 stations d’ici la fin de l’année. Par ailleurs le règlement européen AFIR impose aux pays de l’UE d’implanter des bornes d’au moins 350 kilowatts (kW) pour les poids lourds sur les principaux axes routiers, avec deux paliers de déploiement prévus à horizon 2025 puis 2030.
Selon un rapport de mars 2024, commandé sur le sujet par des entreprises privées, dont Enedis, TotalEnergies et Vinci Autoroutes, ce besoin devrait grimper d’ici à 2035 à 12 200 bornes réparties sur 519 aires de services et de repos. On estime à 630 millions le coûts des investissements alors nécessaires pour répondre à ces besoins.
À noter que certaines de ces stations pourront dépasser très prochainement le seuil de 1 MW de puissance, contre 350 à 400 kW aujourd’hui. Un camion électrique pourra ainsi se recharger intégralement en trente minutes, pendant la pause du chauffeur, contre plus d’une heure aujourd’hui. Une réponse à la question de l’autonomie des véhicules, souvent pointée comme un frein à leur adoption.
Le rapport est en outre rassurant sur les éventuels risques de tension que ce déploiement pourrait faire émerger sur le réseau électrique. Il pointe une très forte complémentarité entre poids lourds électriques et véhicules légers électriques, les premiers se rechargeant plutôt en journée et en semaine, quand les seconds sont rechargés plutôt la nuit et les week-ends.
Une nouvelle problématique surgit toutefois quant aux bornes de recharge : le foncier à mobiliser. De plus en plus puissantes, elles prennent aussi de plus en plus de place : une station de type MCS (Megawatt Charging System) prend à elle seule la place d’un tracteur routier (véhicule motorisé qui tracte la semi-remorque des poids lourds) avec sa remorque !
Aujourd’hui, le principal obstacle à la bascule des poids lourds vers l’électrique est économique. Le coût très élevé des poids lourds électriques, en particulier, constitue le frein majeur à leur appropriation. À l’achat, un tel véhicule présente aujourd’hui trois fois le coût d’un poids lourd thermique.
Ce prix, même s’il devrait diminuer avec le temps, est tel que les économies réalisées à l’utilisation – par l’alimentation en électricité plutôt qu’en gasoil – ne suffisent pas à compenser son surcoût pour l’instant.
Si l’on souhaite amorcer dès à présent la transition, l’aide publique sera donc indispensable. Dans ce cadre, l’Agence de la transition écologique (Ademe) a lancé, en 2024, l’appel à projets e-Trans, qui vient financer des véhicules lourds électriques. Doté d’une enveloppe totale de 110 millions d’euros, le budget de cet AAP est réparti en trois lots distincts : 95 millions d’euros pour les poids lourds 100 % électriques à batterie, 10 millions d’euros pour les autobus et navettes urbaines 100 % électriques à batterie et 5 millions d’euros pour les autocars 100 % électriques à batterie.
Depuis, un deuxième système a été créé par le gouvernement qui repose sur des fiches CEE (Certificat économie d’énergie). Ces aides financées par les pénalités payées par des entreprises polluantes octroient des bonus de 35 à 53 000 euros sur tous les achats de poids lourds électriques engagés avant 2030.
Enfin, le programme public Advenir vise à subventionner des infrastructures de charge.
Par ailleurs, deux systèmes innovants en matière d’électrification méritent que l’on s’y attarde : les autoroutes électrifiées et le rétrofit. Chacun présente des atouts pour atténuer le frein économique, diminuer l’impact environnemental de ces véhicules ou les besoins en bornes de recharge.
En premier lieu, les autoroutes électrifiées : équipées de rails au sol, de caténaires ou de systèmes à induction, elles permettraient aux poids lourds – et peut-être, à plus long terme, aux voitures – de se recharger en roulant. Son principal atout est d’alléger les camions, en les dotant de batteries plus petites, donc de réduire le besoin en bornes de recharge et de diminuer la pression sur les métaux critiques : lithium, cobalt, nickel ou graphite… dont l’usage va entrer en compétition avec d’autres secteurs.
Une des limites de ce système est qu’il doit idéalement être transfrontalier. Un camion transitant de l’Allemagne à la France devra pouvoir bénéficier d’une continuité de service. Or ces deux pays envisagent à ce stade deux méthodes différentes : le rail pour la France, la caténaire pour l’Allemagne. Des efforts de coordination apparaissent indispensables.
L’autre problème relève de la temporalité. Le système ne sera sans doute mature qu’en 2030. D’ici là, la filière de poids lourds électriques classiques et les infrastructures de recharge ont le temps de se développer… La solution sera-t-elle toujours pertinente ? La viabilité économique du système pose aussi question : le système sera-t-il suffisamment utilisé ? Au risque, sinon, que l’opérateur ne puisse se rémunérer.
Le rétrofit, enfin, qui consiste à convertir un véhicule thermique de plus de cinq ans en véhicule électrique en remplaçant le moteur, est un autre système à creuser. La méthode émerge pour l’instant sur les autocars, pour lesquels l’équation économique est plus favorable. Mais le marché du camion commence à s’y intéresser. Beaucoup moins chère qu’un camion neuf, plus vertueuse d’un point de vue environnemental, cette solution apparaît plus viable à court terme que les autoroutes électrifiées.
Des freins, évoqués au fil de l’article, restent à lever pour qu’une bascule définitive s’opère dans le secteur des poids lourds vers l’électrique.
Toutefois, les injonctions réglementaires envers la filière, les investissements dans les infrastructures de recharge et l’accompagnement public d’incitation à l’achat de poids lourds électriques devraient accélérer le processus.
Aujourd’hui, l’État s’engage dans cette direction, mais il doit veiller à ne pas diluer ses efforts. D’autres investissements ont lieu dans des filières comme le gaz ou l’hydrogène : si des complémentarités peuvent exister avec la filière des poids lourds électriques, il faut toutefois veiller à ce qu’ils ne viennent pas phagocyter les efforts alloués à ces derniers.
Denis Benita ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
26.03.2025 à 16:28
Delphine Deschaux-Dutard, Maître de conférences en science politique, Université Grenoble Alpes, Université Grenoble Alpes (UGA)
Bastien Nivet, Docteur en science politique (École de management), Pôle Léonard de Vinci
Face aux puissances révisionnistes que sont les États-Unis de Trump et la Russie de Poutine, l’Union européenne cherche à renforcer son autonomie stratégique. Des plans sont mis sur la table, les sommets se multiplient, mais les 27 sont encore très loin de partager une vision commune en matière militaire, comme en témoigne, entre autres, la difficulté qu’ils ont à s’entendre sur des achats d’armement mutualisés.
La scène surréaliste qui a opposé Donald Trump à Volodymyr Zelensky dans le bureau Ovale de la Maison Blanche, le 28 février 2025, puis la brutale annonce par les États-Unis de la cessation de leur soutien militaire et en matière de renseignement à l’Ukraine (avant une nouvelle volte-face suspendant cette « pause » quelques jours plus tard) ont saisi d’effroi de nombreux chefs d’État et de gouvernement européens, tant elles marquent une rupture dans la conception que l’UE se fait des relations internationales, depuis l’édification en 1945 du système onusien, fondé sur la charte de San Franscisco, qui place en son cœur les principes d’intégrité territoriale, de dialogue et de résolution pacifique des différends.
Au regard de l’évolution très rapide de l’ordre international sous l’action combinée de puissances révisionnistes, telles que la Russie ou la Chine, et du nouveau positionnement américain depuis le début du second mandat Trump, qui a vu Washington adopter une conception purement transactionnelle des relations internationales, l’Europe serait-elle en train de sortir de l’Histoire ? Peut-elle continuer à se comporter comme un agneau dans un monde de carnivores ?
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Si les annonces se sont multipliées depuis début mars 2025 concernant la montée en puissance de l’échelon européen en matière de défense, il importe, pour bien faire la distinction entre les effets d’annonce et la limite de leur effet performatif, de rappeler d’où vient l’UE en matière de réflexion stratégique et de conception de la puissance.
Contrairement à une vision très répandue, la construction européenne n’a jamais été qu’une simple construction économique interne, un marché, un « espace ». Permettre aux Européens de participer aux affaires du monde avec leurs capacités et leurs approches propres en a été un objectif réitéré et progressivement affiné, depuis les premières communautés des années 1950 jusqu’à l’UE à 27, aujourd’hui.
À lire aussi : Bonnes feuilles : « Histoire de la construction de l’Europe depuis 1945 »
La déclaration Schuman du 9 mai 1950 affirmait déjà que l’une des ambitions essentielles d’une Europe organisée était sa « contribution au monde », et soulignait sa fonction fondamentale en matière de préservation de la paix et sa vocation à nouer des relations pacifiques avec les autres acteurs. De premières politiques de coopération et d’aide au développement ont ensuite tissé, dès les années 1960, dans le cadre de la Communauté économique européenne créée en 1957, un riche réseau de relations extérieures avec de nombreux États, d’abord principalement africains, puis plus diversifiés.
Dès la déclaration de Copenhague de 1973 sur l’identité européenne, l’Europe des neuf États membres d’alors articulait plus précisément une vision européenne spécifique de l’ordre international et de la contribution particulière que les Européens entendaient y jouer. Elle actait notamment la nécessité – dans un contexte de concentration de la puissance –, que l’Europe « parle d’une seule voix » et posait les principes fondamentaux sur lesquels devait reposer cette influence internationale à construire : recherche de la coopération et du dialogue entre acteurs internationaux, attachement au développement et à l’action des institutions internationales, du droit, de la justice et du développement.
En établissant les bases institutionnelles d’une politique étrangère et de sécurité commune dans le Traité sur l’Union européenne signé à Maastricht, en février 1992, dans un contexte de transition et d’incertitudes post-guerre froide, les États membres ont réaffirmé et précisé plus avant ces principes et valeurs.
Enfin, des processus comme celui de la stratégie européenne de sécurité (SES) de 2003, la stratégie globale de sécurité de 2016, ou encore la « boussole stratégique » européenne de 2022, ont précisé plus avant et de façon publique les éléments de la « vision européenne du monde » sous-tendant les relations extérieures de l’UE. Il ressort de ces documents, malgré leurs limites conceptuelles et diplomatiques, une posture internationale de l’UE avec des caractéristiques identifiables :
primauté du droit et de la négociation sur le rapport de force et le recours à la violence pour le règlement des différents ;
attachement au multilatéralisme, à la coopération internationale, au droit international et aux institutions internationales ;
reconnaissance du nécessaire usage d’outils militaires dans certaines situations, si possible sous mandat de l’ONU ;
volonté collective d’influer sur l’environnement international, par l’association des outils de soft power (ou puissance civile) et, plus récemment, de hard power.
Ces caractéristiques dessinent une ambition de « volonté d’influence mais un rejet de la puissance » et empruntent très largement à une lecture libérale des relations internationales, plaçant en son centre les principes de coopération et de démocratie et donnant la primauté à la négociation et la résolution pacifique des différends au détriment de la force, qu’elle soit militaire ou argumentaire.
Or, l’invasion de l’Ukraine par la Russie en 2022 et la vision du monde et la pratique diplomatique de la nouvelle administration américaine depuis le début de l’année 2025 prennent à rebours cette vision européenne et risquent, dans certains cas, de la rendre caduque.
L’UE a donc multiplié les annonces, depuis février 2025, en vue de se réarmer et de renforcer son autonomie stratégique vis-à-vis d’une OTAN au sein de laquelle Donald Trump menace régulièrement de limiter drastiquement l’engagement américain. Mais y a-t-il une réelle révolution stratégique collective en marche à Bruxelles ? Ou bien cette « heure de l’Europe », régulièrement annoncée depuis l’implosion de la Fédération yougoslave en 1991, sera-t-elle encore reportée ?
La défense européenne et, plus largement, la construction européenne évoluent au gré des crises.
La crise actuelle n’y fait pas exception, ayant conduit la Commission européenne à annoncer un plan de 800 milliards d’euros (le plan ReArm Europe) afin d’accélérer l’armement de l’UE. Ce plan vient s’ajouter aux nombreux outils, créés depuis 2022, en vue de conduire à une montée en puissance de l’industrie européenne d’armement, dont le Règlement européen visant à renforcer l’industrie européenne de la défense, au moyen d’acquisitions conjointes (EDIRPA), le plan de soutien à la production de munitions en Europe (ASAP), ou encore le plan stratégique EDIS dont l’objectif est de favoriser les acquisitions conjointes en matière d’armement au sein de l’UE.
Ces outils s’ajoutent à l’aide militaire apportée à Kiev à travers la Facilité européenne de paix (6,1 milliards entre 2022 et 2024) et la réflexion lancée par la Commission européenne, en mars 2025, sur la création d’un fonds européen qui permettrait d’envoyer de 20 milliards à 40 milliards d’euros d’aide militaire à l’Ukraine dans les mois à venir.
De même, certains pays de l’UE font preuve d’un activisme fort visant à promouvoir une réelle défense européenne, à l’instar, entre autres, de la France – qui réinvestit le concept d’autonomie stratégique européenne qu’elle brandit régulièrement depuis plus d’une décennie –, de la Pologne ou plus récemment d’une Allemagne rendue soucieuse par le délitement du lien transatlantique et qui a déclaré, par la voix de son futur chancelier Friedrich Merz, au soir des élections législatives du 23 février 2025, que la défense européenne devait prendre son indépendance.
Pour autant, tous ces outils et ces mouvements politico-diplomatiques ne sauraient à eux seuls constituer une politique, et encore moins une posture stratégique pour l’UE.
Le Livre blanc sur la défense européenne (intitulé Readiness 2030, ou Être prêt pour 2030) présenté par la Commission, le 19 mars 2025, liste certes tous les outils et moyens à utiliser… mais continue de considérer l’OTAN comme la pierre angulaire de la sécurité européenne.
En effet, malgré l’urgence, les 27 semblent bien loin de partager une vision collective harmonisée de la puissance collective européenne. En matière d’armement, par exemple, au-delà des milliards annoncés par la Commission, les États ne sont pas parvenus à s’accorder sur la définition de critères d’achat de matériel militaire qui consacreraient enfin une nécessaire préférence européenne. Si la France plaide en ce sens, ses partenaires, fortement dépendants du matériel militaire non européen, ne partagent pas (ou pas encore) cette vision.
De même, les sommets entre pays européens se multiplient, tantôt à Paris, tantôt à Londres, mais toujours en dehors du cadre de l’UE, ce qui établit, de fait, une diplomatie de club qui ne permet guère d’avancée européenne collective en matière de réflexion sur la puissance de l’UE dans le monde.
Même si, avec l’annonce du plan ReArm Europe et d’un futur livre blanc de la défense européenne pour mai 2025, l’UE semble se mettre plus que jamais en ordre de marche pour se doter d’une défense substantielle, cela ne fait pas encore d’elle une puissance globale reconnue par les autres puissances internationales, comme le démontrent les négociations bilatérales entre Washington et Moscou autour de la question d’un cessez-le-feu en Ukraine, et la délocalisation à Riyad (Arabie saoudite) des discussions sur le sujet, en parallèle des multiples réunions organisées par les chefs d’État et de gouvernement français et britannique.
Car la puissance dépend aussi de la perception que se font les autres acteurs, et en la matière, si l’UE semble attirer les citoyens canadiens ces dernières semaines, elle est loin de convaincre l’ensemble des puissances internationales telles que les États-Unis, la Russie ou encore l’Inde et la Chine. Dans un monde où la politique de puissance a fait son grand retour ces dernières années et où les pays les plus puissants privilégient les négociations bilatérales au détriment du multilatéralisme, il est grand temps que les États européens se rendent compte que l’UE n’est pas une voie possible pour exister sur la scène internationale, mais la seule s’ils espèrent continuer à défendre les valeurs sur lesquelles le projet européen s’est construit : paix et dialogue diplomatique, plutôt que force et raison du plus fort.
Delphine Deschaux-Dutard a reçu des financements de l'ANR.
Bastien Nivet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
25.03.2025 à 16:53
Céline Darnon, Professeure de psychologie sociale, Université Clermont Auvergne (UCA)
Andrei Cimpian, Professor of Psychology, New York University
Ian Hadden, Researcher at the University of Sussex, University of Sussex
On tend souvent à survaloriser la part du mérite dans les situations de réussite et d’échec. S’il en résulte un certain confort psychologique, cette vision réductrice peut, à long terme, avoir également des effets contre-productifs.
Une société est considérée comme « méritocratique » si les résultats (réussites ou échecs) des individus dépendent de leur mérite, c’est-à-dire à la fois de leurs capacités et des efforts qu’ils ont mis en œuvre pour atteindre leurs objectifs.
En bref, une personne qui réussit à obtenir un bon diplôme – ou un emploi bien rémunéré – par la force de son travail ou par son talent est généralement considérée comme méritant cette position et les avantages qui y sont associés. C’est beaucoup moins le cas si sa réussite est perçue comme due à la chance, ou au piston dont elle a bénéficié.
Chaque samedi, un éclairage original et décalé (articles, quiz, vidéos…) pour mieux comprendre le monde qui nous entoure. Abonnez-vous gratuitement dès aujourd’hui !
La réalité est bien entendu plus complexe. Il existe un très grand nombre de raisons qui amènent une personne à réussir ou à échouer, parmi lesquelles certaines relèvent de son mérite et d’autres non (par exemple, elle a bénéficié d’un environnement favorable, a eu de la chance…).
Malgré tout, les explications qui relèvent du mérite et, en particulier, de sa dimension « contrôlable », reposant sur des efforts, sont souvent privilégiées lorsque les individus cherchent à expliquer leur réussite (ou échecs) ou celle des autres.
Une enquête récente montre par exemple qu’à la question « Dans votre pays aujourd’hui, quelle est à votre avis l’importance de chacun des facteurs suivants pour réussir dans la vie ? », 83 % des répondants ont considéré que « travailler dur » était « important », « très important » ou « essentiel ». C’est plus que tous les autres facteurs proposés, y compris l’état de santé, le fait d’avoir des parents instruits, le genre et l’origine ethnique.
Il y a plusieurs raisons qui expliquent pourquoi les individus s’accrochent à la croyance selon laquelle le monde fonctionne sur un mode méritocratique.
L’une d’elles est que croire en la méritocratie est extrêmement facile sur le plan cognitif. Dès l’enfance, nous constatons que « plus de causes » est en général associé à « plus d’effets » : plus il pleut fort, plus on est mouillé ; plus on tape fort dans un ballon, plus celui-ci va loin.
À lire aussi : Croire au mérite aide-t-il (ou non) les élèves à réussir ?
Comme nous sommes relativement paresseux sur le plan cognitif, ce modèle familier, simple et intuitif a tendance à être notre premier recours lorsque nous voulons expliquer quelque chose. D’ailleurs, de nombreux travaux montrent que, lorsque les individus essayent d’expliquer ce qu’ils vivent et observent, ils ont tendance à privilégier les explications qui relèvent de facteurs internes à la personne, par exemple, ce qu’elle aime ou n’aime pas, ses traits de personnalité et donc également les efforts qu’elle a déployés.
Si l’on privilégie ce type d’explications, c’est aussi pour se valoriser (particulièrement en cas de réussite) ou tout simplement parce que cela permet de se faire bien voir auprès d’évaluateurs.
En outre, penser que c’est principalement le mérite (par opposition à l’absence de mérite) qui détermine la réussite (par opposition à la non-réussite) est très rassurant. Cela permet de maintenir un certain sentiment de contrôle sur ce qui arrive – ce qui est essentiel pour s’engager dans une activité et persévérer lorsqu’on est confronté à une difficulté. C’est également nécessaire pour maintenir une bonne santé mentale.
La croyance dans la méritocratie donne enfin l’impression que tout « est en ordre » et que chacun est « à sa place ». Du point de vue de celui qui a échoué, cela permet de garder l’espoir que la mobilité ascendante est possible. Du point de vue de celui qui a réussi, croire au mérite permet d’assurer la légitimité des avantages dont il bénéficie.
D’ailleurs des recherches montrent que c’est bien lorsque la légitimité de leur statut avantagé est mise en cause que les individus qui occupent des positions de haut statut rappellent le plus les difficultés auxquelles ils ont dû faire face et les efforts qu’ils ont eu à déployer pour en arriver là où ils sont.
Bref, chacun semble trouver son compte dans le fait de penser que, dans la vie, il suffit de travailler dur pour atteindre ses objectifs. Cela contribue sans aucun doute à expliquer pourquoi il est si difficile de démystifier la croyance en la méritocratie.
Croire au mérite comme principal déterminant de la réussite ou des échecs est donc à la fois simple sur le plan cognitif, valorisé socialement et très rassurant sur le plan psychologique. Toutefois, surestimer la part de mérite peut aussi amener à sous-estimer l’importance d’autres facteurs.
Si présenter les efforts comme essentiels à la réussite a indéniablement un effet motivant et rassurant, prétendre que seuls les efforts déterminent le succès et les échecs est tout à fait incorrect et présente un risque : celui de faire porter aux individus l’entière responsabilité de ce qui leur arrive.
On peut donc en venir à penser que les élèves en difficulté sont les seuls responsables de leur échec scolaire, que les personnes au chômage sont les seules responsables de leur difficulté à trouver un emploi, que les personnes en surpoids sont les seules responsables des problèmes de santé dont elles souffrent, pour ne citer que ces exemples.
Cette vision apporte par la même occasion une forme de justification aux inégalités qui existent entre les groupes. D’ailleurs, plus les individus croient au mérite, moins ils sont susceptibles d’apporter leur soutien aux populations qui sont en difficulté.
Pour autant, nier le rôle que joue le mérite dans la réussite et les échecs serait tout aussi mensonger – et délétère pour les individus, puisqu’associé à moins de contrôle, de persévérance, de sentiment de justice et de bien-être.
Ainsi, considérer que le mérite est le seul facteur de réussite (Figure A, ci-dessous) présente un certain nombre d’avantages (sur le plan cognitif, social, motivationnel), mais cela n’a en réalité pas plus de sens que de nier totalement la part jouée par le mérite dans la réussite (Figure B).
Dans un récent article écrit en collaboration avec plusieurs collègues, nous proposons de démystifier la méritocratie en reconnaissant que l’effort est une composante essentielle de la réussite tout en admettant que l’effort produit des résultats différents selon les circonstances (Figure C).
Il s’agit là d’une vision tout aussi intuitive : une graine doit travailler dur pour pousser, mais elle aura beaucoup plus de succès si elle se trouve dans un sol riche plutôt que dans un désert. Cette façon plus précise de voir les choses pourrait contribuer à modifier la manière dont les gens envisagent la réussite mais aussi le soutien qu’ils sont susceptibles d’apporter aux personnes qui en ont besoin.
Par exemple, constater que l’origine sociale joue un rôle dans les chances de réussir scolairement ne dispense bien entendu pas d’encourager les élèves à travailler, à fournir des efforts et à persister lorsqu’ils sont confrontés à des difficultés. Il s’agit là d’actions qui sont sous leur contrôle et pour lesquelles ils ont une part réelle de responsabilité. Cela va de soi.
À lire aussi : Le mérite est-il encore un idéal démocratique ?
Mais il convient aussi de rappeler que tout ne dépend pas que d’eux. Reconnaître la part jouée par des facteurs qui ne sont pas sous leur contrôle est essentiel pour alerter sur l’importance d’améliorer leur environnement, de manière à ce que leurs efforts puissent réellement payer et que le facteur « mérite » puisse donc s’exprimer.
Cette façon de penser les réussites et les échecs a des implications sur la manière de concevoir les inégalités et ce que l’on met en œuvre pour tenter de les réduire. Ainsi, mettre en place des actions visant à améliorer les conditions des élèves des quartiers populaires, par exemple, ne signifie pas porter atteinte au principe de mérite, au contraire, puisque cela permet plutôt aux effets positifs du mérite de pouvoir s’exercer.
Cela peut montrer que la justice sociale n’est pas forcément en contradiction avec la responsabilité personnelle, mais que les deux peuvent aller de pair pour créer des conditions qui soient les plus favorables possibles à la fois à la réussite et au confort psychologique des individus.
Cet article a été co-écrit par Ian Hadden, docteur en psychologie sociale (Université de Sussex), Andrei Cimpian, professeur de psychologie (Université de New York), Matthew Easterbrook, professeur de psychologie (Université de Sussex), Lewis Doyle, chercheur postdoctoral (Université de Poitiers), Sébastien Goudeau, professeur de psychologie (INSPE Niort), et Céline Darnon, professeure de psychologie (Université Clermont Auvergne).
Céline Darnon a reçu des financements de l'Institut Universitaire de France.
Andrei Cimpian a reçu des financements de l'Institut des sciences de l'éducation (Institute of Education Sciences) et de la Fondation nationale pour la science (National Science Foundation) aux États-Unis.
Ian Hadden ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
25.03.2025 à 16:48
Claudia Jareno Gila, Maîtresse de conférences en civilisation de l'Espagne contemporaine, CY Cergy Paris Université, CY Cergy Paris Université
Gwenaëlle Bauvois, Chercheuse en sociologie, University of Helsinki
Le féminisme est traditionnellement associé à des valeurs progressistes, telles que l’égalité et la justice sociale. Mais ces dernières années, des activistes d’extrême droite, comme « Némésis », les « Antigones » ou les « Caryatides », revendiquent leur féminisme. Ciblant l’islam et les migrants au nom de la défense des femmes, elles sont de plus en plus présentes dans les médias. Décryptage.
Comme le montrent les sondages, le Radical Right Gender Gap, c’est-à-dire l’écart entre les sexes dans le vote d’extrême droite, s’est réduit, notamment en France où l’électorat féminin de l’extrême droite est passé de 20 % des voix en 2019, à 30 % en 2024.
Traditionnellement associés à des électeurs masculins issus des classes populaires, depuis quelques années, les partis d’extrême droite ont donc progressivement attiré un électorat plus féminin, tout en modifiant leur image auprès du public pour paraître plus modérés et plus légitimes.
En effet, l’extrême droite a longtemps été largement dominée par des figures masculines mais de nombreuses femmes ont pris dorénavant la tête de partis, voire de pays, comme Giorgia Meloni, présidente d’extrême droite du Conseil italien, Riikka Purra, vice-première ministre de la Finlande et présidente du parti des Vrais Finlandais, Marine Le Pen, ex-présidente du Rassemblement national et Alice Weidel, cheffe du parti Alternative pour l’Allemagne (AfD), autant d’exemples du nouveau visage féminin de l’extrême droite.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Ce processus de féminisation des responsables politiques d’extrême droite ainsi que de son électorat va de pair avec la féminisation des collectifs d’extrême droite et l’émergence de nouvelles formes d’engagement féminin, en particulier le cyberactivisme, avec une notable présence des femmes sur les réseaux sociaux.
En France, dans le sillage de La Manif pour tous, mouvement contre la loi Taubira qui a légalisé le mariage homosexuel en 2013, des groupes autoqualifiés d’« alterféministes » aux accointances avec l’extrême droite ont vu le jour. On retrouve, dès 2013, les Antigones, groupe fondé par d’anciennes militantes des Femen, et les Caryatides issues du groupuscule d’extrême droite l’Œuvre française, aujourd’hui dissout.
Plus récemment, le collectif Némésis, du nom de la déesse grecque de la vengeance, prétend dénoncer les violences faites aux femmes, mais leurs motivations profondes sont clairement dirigées contre les migrants et contre l’islam. Comme le souligne la chercheuse au CNRS, Magali Della Sudda, ces « nouvelles femmes de droite » utilisent la « cause des femmes » pour défendre une vision nationaliste et traditionnelle de la société.
Les militantes des collectifs d’extrême droite cherchent aussi à projeter une image plus contemporaine de l’engagement politique des femmes. Face à l’image passéiste de la féministe de gauche traditionnellement associée à Mai 68, ces militantes se présentent comme une incarnation plus moderne, plus jeune, en phase avec leur époque. Le collectif Némésis invite ainsi les femmes à rejoindre « les féministes les plus fun de France ».
Elles se positionnent en contraste avec les féministes de gauche souvent perçues comme « radicales » voire « hystériques », comme Sandrine Rousseau, ancienne candidate d’Europe Écologie Les Verts (EELV), la journaliste et militante Alice Coffin ou la députée Clémentine Autain. Pour ces militantes d’extrême droite, ces figures incarnent un féminisme qui ne se préoccupe pas des « vrais » problèmes des femmes, tant il est imprégné de l’idéologie woke – transidentitaire, multiculturaliste et islamogauchiste.
Dans un contexte de multiplicité de courants féministes, parfois très opposés sur certaines problématiques, notamment la question trans, ces nouvelles militantes rejettent le féminisme intersectionnel qui analyse les façons dont le genre, la race, la classe et d’autres oppressions s’entrecroisent pour créer des expériences uniques de discrimination. Leur combat est simple : elles défendent les droits des femmes blanches cisgenres, tout en essentialisant les hommes « extra-européens », perçus comme dangereux par nature.
Ces groupes se distinguent par leur langage simple et leurs actions percutantes, qui trouvent un écho auprès d’un certain public en quête de solutions perçues comme concrètes, par exemple l’application immédiate des obligations de quitter le territoire français (OQTF), les expulsions accélérées des immigrés clandestins et les peines de prison lourdes.
Contrairement à une gauche dite « arc-en-ciel », autrement dit, une gauche intersectionnelle et queer, ces groupes d’extrême droite se présentent comme les seuls capables d’aborder sans détour ce qu’ils considèrent comme les véritables problèmes des femmes : la violence et l’insécurité. Au lieu de céder à la « lâcheté », elles proposent d’être des « lanceuses d’alerte ».
En effet, la crise migratoire de 2015-2016 caractérisée par l’arrivée en Europe de centaines de milliers de réfugiés, principalement de Syrie, et notamment les agressions sexuelles perpétrées à Cologne, lors du Nouvel An 2015, par des individus d’origine étrangère, ont constitué un terrain propice à l’émergence de discours mêlant droits des femmes et discours anti-immigration.
Même au sein du mouvement féministe, des figures tutélaires, comme Alice Schwarzer en Allemagne, Élisabeth Badinter en France et Cisca Dresselhuys aux Pays-Bas, ont alors soutenu l’idée que l’islam est fondamentalement misogyne.
Du côté des femmes politiques d’extrême droite, le même amalgame est fait : Marine Le Pen déclarait déjà en 2016 : « J’ai peur que la crise migratoire signe le début de la fin des droits des femmes. » Alice Weidel a utilisé, dès 2017, son orientation sexuelle comme argument pour critiquer l’immigration musulmane, une instrumentalisation que l’on nomme « homonationalisme ». Elle affirme que, en tant que lesbienne, elle est exposée à des menaces accrues de la part de certains migrants musulmans.
De même, les groupes d’extrême droite autoproclamés féministes présentent leurs actions comme une quête de justice sociale pour le droit des femmes. Mais derrière ces discours se cache une stratégie appelée « fémonationalisme », c’est-à-dire, une instrumentalisation des violences faites aux femmes à des fins racistes et xénophobes.
Le fait que ces mouvements d’extrême droite instrumentalisent la question des droits des femmes à des fins xénophobes n’a rien de surprenant. En effet, les dernières élections européennes ont montré que la migration était l’un des sujets les plus abordés par l’ensemble des partis politiques européens. La montée de ces groupes arrive donc à point nommé dans un contexte où les discours sécuritaires et anti-immigration se renforcent en Europe en général et en France en particulier.
Ces groupes se présentent donc comme une alternative critique à un féminisme de gauche qui ne s’intéresse pas aux « vrais » problèmes des femmes et ferme les yeux sur la réalité de l’immigration dite de masse. Jouant habilement sur le contraste entre une image jeune et moderne et des propos chocs, ce courant semble gagner du terrain, comme le montre la couverture médiatique grandissante et leurs moyens accrus, dans un climat général de réaction antigenre faisant suite à la vague #MeToo.
La visibilité croissante de ces groupes d’extrême droite se revendiquant du féminisme, en France et au-delà, favorisée par la banalisation des propos racistes, a conduit à une normalisation de prises de position autrefois marginales dans un contexte de montée de discours sécuritaires. Comme le montre le récent soutien que le ministre de l’intérieur Bruno Retailleau a publiquement apporté au collectif Némésis, saluant publiquement leur « combat » pour les femmes.
Une question subsiste concernant le rôle que ces « nouvelles femmes de droite » joueront à l’avenir. S’agit-il d’un phénomène marginal amplifié par le prisme médiatique ou du début d’une offensive politique importante ?
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.