17.09.2025 à 16:30
Fabrice Lollia, Docteur en sciences de l'information et de la communication, chercheur associé laboratoire DICEN Ile de France, Université Gustave Eiffel
Tutoriels de suicide, hashtags valorisant l’anorexie, vidéos de scarification… Le rapport parlementaire, publié le 11 septembre 2025, dresse un constat glaçant des effets psychologiques de TikTok sur les mineurs. L’application, loin d’être un simple divertissement, apparaît comme une véritable « fabrique du mal-être », structurée par une architecture algorithmique qui capte et qui exploite l’attention des adolescents pour maximiser sa rentabilité.
Si les députés proposent d’interdire l’accès aux réseaux sociaux avant 15 ans, l’enjeu va bien au-delà de la seule régulation juridique. Ce que révèle le rapport de la commission parlementaire d’enquête sur les effets psychologiques de TikTok sur les mineurs, publié le 11 septembre 2025, c’est l’émergence de nouvelles fragilités liées aux environnements numériques. Ce mélange de design addictif, de spirales algorithmiques et de logiques économiques tend à fragiliser les jeunes usagers.
Dès lors, la question centrale ne porte pas seulement sur l’âge d’accès aux plateformes, mais sur notre capacité collective à construire une régulation adaptée, capable de protéger les mineurs sans les exclure du monde numérique.
Comment protéger efficacement les mineurs face à la puissance des algorithmes sans les priver d’un espace numérique devenu incontournable dans leur socialisation et leur développement ?
Le rapport parlementaire décrit TikTok comme une « machine algorithmique » conçue pour capter l’attention des utilisateurs et pour les enfermer dans des spirales de contenus extrêmes. L’architecture du fil repose sur l’idée simple que plus un contenu retient le regard longtemps, plus il sera recommandé à d’autres utilisateurs. Ce mécanisme transforme la durée d’attention en indicateur de rentabilité, au détriment de la qualité ou de l’innocuité des contenus.
En quelques minutes, un adolescent peut passer d’une vidéo anodine à des tutoriels de scarification, des incitations à l’anorexie (#SkinnyTok) ou au suicide. Amnesty International a montré que, dès les douze premières minutes, plus de la moitié des contenus recommandés à un « profil dépressif » concernaient l’anxiété, l’automutilation ou le suicide. L’algorithme ne reflète donc pas seulement les préférences. Il construit également un environnement qui accentue les vulnérabilités psychiques.
Dans une perspective des sciences de l’information et de la communication (SIC), discipline qui étudie la manière dont les technologies et les dispositifs médiatiques structurent nos pratiques sociales et nos représentations, ce processus illustre une « fabrique de vulnérabilités communicationnelles ». Autrement dit, l’architecture technique de TikTok ne se contente pas de diffuser des contenus, elle façonne les conditions mêmes de réception et d’usage.
Il s’agit d’un design pensé pour exploiter l’économie de l’attention, reposant sur la gratification immédiate et la logique de la récompense aléatoire. Comme le souligne Ulrich Beck dans sa théorie de la « société du risque », les technologies produisent elles-mêmes les dangers qu’elles prétendent encadrer. TikTok illustre ce paradoxe avec un espace de divertissement qui se transforme en espace de mise en danger systémique.
En ce sens, la toxicité décrite dans le rapport n’est pas une dérive accidentelle, mais une conséquence structurelle du modèle économique de la plateforme. L’algorithme, optimisé pour maximiser le temps passé en ligne, tend mécaniquement à privilégier les contenus les plus radicaux ou perturbants, car ce sont ceux qui retiennent le plus l’attention.
L’un des constats majeurs de la commission d’enquête concerne l’opacité des algorithmes de TikTok. Malgré plus de sept heures d’audition des représentants de la plateforme, les députés soulignent le caractère insaisissable de son fonctionnement : absence d’accès aux données brutes, impossibilité de vérifier les critères de recommandation, communication limitée à des éléments généraux et souvent contradictoires. Autrement dit, le cœur technique de l’application algorithmique reste une boîte noire dont l’intelligibilité est encore questionnée.
Cette opacité n’est pas un simple détail technique puisqu’elle conditionne directement la capacité à protéger les mineurs. Si l’on ne sait pas précisément quels signaux (durée de visionnage, likes, pauses, interactions) déclenchent la recommandation d’un contenu, il devient impossible de comprendre pourquoi un adolescent vulnérable est exposé en priorité à des vidéos sur l’anorexie, sur le suicide ou sur l’automutilation. Le rapport qualifie ce manque de transparence d’« obstacle majeur à la régulation ».
Cette situation illustre la notion de gouvernance algorithmique. Il s’agit des dispositifs qui, tout en organisant nos environnements informationnels, échappent largement à l’intelligibilité publique. Cette asymétrie entre la puissance des plateformes et la faiblesse des institutions de contrôle génère ce que l’on peut qualifier de vulnérabilité communicationnelle systémique.
Le rapport insiste ainsi sur la nécessité d’outils européens d’audit des algorithmes, mais aussi sur l’importance d’une coopération renforcée entre chercheurs, autorités de régulation et acteurs de la société civile. L’enjeu n’est pas seulement de contraindre TikTok à être plus transparent, mais de créer les conditions d’une intelligibilité collective de ces dispositifs techniques. C’est à ce prix que la protection des mineurs pourra devenir effective et que l’Europe pourra affirmer une souveraineté numérique crédible.
Le rapport parlementaire souligne également que la toxicité de TikTok n’est pas accidentelle ni le fruit d’une intention malveillante, mais qu’elle découle de son modèle économique, d’une logique marchande où le mal-être est rentable.
Ce mécanisme illustre ce que les chercheurs appellent l’« économie de l’attention ». Sur TikTok, le temps de visionnage devient la ressource centrale. Plus un adolescent reste connecté, plus ses données alimentent le ciblage publicitaire et la valorisation financière de la plateforme. Or les émotions négatives (peur, sidération, fascination morbide) génèrent souvent une rétention plus forte que les contenus positifs. Les spirales algorithmiques ne sont donc pas de simples accidents, mais la conséquence directe d’une optimisation économique.
Cette dynamique s’inscrit dans un capitalisme de surveillance, où l’expérience intime des individus est extraite, analysée et transformée en valeur marchande. Dans le cas de TikTok, les comportements vulnérables des mineurs (hésitations, clics répétés, visionnages prolongés de contenus sensibles) deviennent autant de données monétisables.
Ainsi, il ne s’agit pas seulement de protéger les jeunes contre des contenus toxiques, mais de comprendre que la plateforme a intérêt à maintenir ces contenus en circulation. Le problème est donc structurel. TikTok n’est pas seulement un réseau social qui dérape, c’est aussi une industrie qui prospère sur la captation du mal-être.
En définitive, le rapport sur TikTok agit comme un miroir grossissant des mutations de nos environnements numériques. Il ne s’agit pas seulement de pointer les dangers d’une application. Il s’agit également de questionner les logiques économiques et algorithmiques qui façonnent désormais la socialisation des plus jeunes.
L’enjeu n’est pas de bannir un réseau social, mais plutôt de concevoir une régulation capable d’intégrer la complexité des usages, la diversité des publics et les impératifs de protection. La notion de sécurité communicationnelle fournit ici une clé de lecture en ce sens qu’elle invite à penser ensemble santé psychique, gouvernance algorithmique, souveraineté numérique et innovation responsable.
TikTok n’est donc pas une exception, mais le symptôme d’un modèle qu’il devient urgent de réformer. L’avenir de la régulation ne se jouera pas uniquement sur cette plateforme. Elle se jouera aussi dans la capacité des sociétés européennes à redéfinir les règles du numérique à la hauteur des enjeux générationnels qu’il engage.
Fabrice Lollia ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
17.09.2025 à 16:29
Atlas Thébault Guiochon, Ingénieur·e en neurosciences cognitives et Enseignant·e, Université Lumière Lyon 2
Vous êtes plutôt du genre à vous repérer partout dès la première fois, ou à encore sortir le GPS après plusieurs années dans le même quartier ? Ah ! le fameux « sens de l’orientation » ! On entend souvent que les femmes en manqueraient, tandis que les hommes posséderaient « un GPS intégré ». Mais la réalité est beaucoup plus subtile… Alors, d’où vient ce « sens de l’orientation », et pourquoi diffère-t-il tant d’une personne à l’autre ?
Vous marchez dans la rue à la recherche de l’adresse que votre amie vous a donnée… mais qu’est-ce qui se passe dans votre cerveau à ce moment-là ? La navigation spatiale mobilise un véritable orchestre de nombreuses fonctions cognitives.
D’un côté, des processus dits de « haut niveau » : localiser son corps dans l’espace, se représenter mentalement un environnement, utiliser sa mémoire, planifier un itinéraire ou encore maintenir un objectif. De l’autre, des processus plus automatiques prennent le relais : avancer, ralentir, tourner… sans même y penser.
En réalité, le « sens de l’orientation » n’est pas une capacité unique, mais un ensemble de tâches coordonnées, réparties entre différentes zones du cerveau, qui travaillent de concert pour que vous arriviez à bon port.
S’il existe bien une structure cérébrale particulièrement impliquée, c’est l’hippocampe. Cette structure jumelle, une par hémisphère, possède une forme allongée qui rappelle le poisson dont elle tire son nom.
Son rôle dans la navigation spatiale est souvent illustré par une étude devenue emblématique.
L’équipe de recherche s’intéressait à la plasticité cérébrale, cette capacité du cerveau à se réorganiser et à adapter ses connexions en fonction des apprentissages. Elle a alors remarqué que la partie postérieure de l’hippocampe des conducteurs et conductrices de taxi à Londres était plus développée que celle de personnes n’ayant pas à mémoriser le plan complexe de la ville et qui n’y naviguent pas au quotidien. Preuve, s’il en fallait, que notre cerveau s’adapte selon les expériences.
C’est une des questions qu’a voulu explorer Antoine Coutrot au sein d’une équipe internationale, en développant Sea Hero Quest, un jeu mobile conçu pour évaluer nos capacités de navigation. Le jeu a permis de collecter les données de plus de 2,5 millions de personnes à travers le monde, du jamais vu à cette échelle pour le domaine.
Les participant·e·s ne partageaient pas seulement leurs performances dans le jeu, mais fournissaient également des informations démographiques (âge, genre, niveau d’éducation, etc.), la ville dans laquelle iels avaient grandi, ou encore leurs habitudes de sommeil.
Alors, les hommes ont-ils vraiment « un GPS dans la tête » ? Pas tout à fait.
Les données révèlent bien une différence moyenne entre les sexes, mais cette différence est loin d’être universelle : elle varie en fonction du pays, et tend à disparaître dans ceux où l’égalité de genre est la plus forte. En Norvège ou en Finlande, l’écart est quasi nul, contrairement au Liban ou à l’Iran. Ce ne serait donc pas le sexe, mais les inégalités sociales et les stéréotypes culturels qui peuvent, à force, affecter la confiance des personnes en leur capacité à se repérer, et donc leurs performances réelles.
L’âge joue aussi un rôle : durant l’enfance, nous développons très tôt les compétences nécessaires à l’orientation et à la navigation spatiales. Après 60 ans, les capacités visuospatiales déclinent, tout comme le sens de l’orientation, qui repose, comme on l’a vu, sur de nombreuses fonctions cognitives.
À lire aussi : Proprioception et équilibre : notre « sixième sens » varie d’un individu à l’autre
L’endroit dans lequel on grandit semble également impliqué. Celles et ceux qui ont grandi dans de petits villages sont souvent plus à l’aise dans de grands espaces. À l’inverse, les citadin·e·s, habitué·e·s à tout avoir à quelques pas, se repèrent mieux dans les environnements denses et complexes.
La forme même de la ville, et plus précisément son niveau d’organisation (que l’on appelle parfois « entropie »), influence également nos capacités d’orientation. Certaines villes très organisées, aux rues bien alignées, comme de nombreuses villes états-uniennes, présentent une entropie faible. D’autres, comme Paris, Prague ou Rome, plus « désorganisées » à première vue, possèdent une entropie plus élevée. Et ce sont justement les personnes ayant grandi dans ces villes à forte entropie qui semblent développer un meilleur sens de l’orientation.
Même l’âge auquel on apprend à conduire peut jouer. Les adolescent·e·s qui prennent le volant avant 18 ans semblent mieux se repérer que celles et ceux qui s’y mettent plus tard. Une exposition plus précoce à la navigation en autonomie sans aide extérieure (adulte, GPS…) pourrait donc renforcer ces compétences.
En somme, ce qu’on appelle le sens de l’orientation n’est pas prédéfini. Il se construit au fil des expériences, de l’environnement, et des apprentissages.
Atlas Thébault Guiochon ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
17.09.2025 à 16:27
Sandra Bravo Durán, Socióloga y Doctora en Creatividad Aplicada, UDIT - Universidad de Diseño, Innovación y Tecnología
Popularisé par les réseaux sociaux et des stars internationales, comme Lisa du groupe de K-pop Blackpink, Rihanna ou Dua Lipa, le labubu, une petite peluche fabriquée en Chine, s’arrache aux quatre coins du monde. La labubumania incarne à elle seule la mécanique des tendances au XXIe siècle.
Il y quelques semaines, par curiosité, je suis entré dans un magasin Pop Mart dans un centre commercial de Kuala Lumpur (Malaisie). Je ne savais pas que j’étais sur le point d’assister à une scène sociologiquement fascinante : des adultes et des adolescents secouant des boîtes fermées, essayant de deviner quel personnage ils allaient obtenir en fonction du poids ou de la forme. Ils regardaient les vitrines, murmuraient des noms, comparaient les modèles avec l’excitation de ceux qui s’apprêtent à acheter bien plus qu’un simple jouet. Tous cherchaient la même chose : un labubu. Mais personne ne savait s’il obtiendrait celui qu’il désirait.
Cette petite figurine aux oreilles pointues, sourire espiègle et grands yeux hallucinés n’était pas seulement un jouet en vinyle. C’était un symbole. Un objet de désir. Et aussi une illustration parfaite pour comprendre comment fonctionnent les tendances au XXIe siècle.
Labubu est né en 2015 de l’imagination de l’artiste hongkongais Kasing Lung, dans l’univers de The Monsters. Pendant des années, il est resté un personnage marginal, apprécié par les fans de l’art toy et du design underground asiatique. Tout a changé lorsque Pop Mart a acquis les droits et l’a transformé en phénomène mondial : des centaines de versions, des collaborations avec des marques de luxe, éditions limitées et un système de vente en boîtes surprises (blind boxes) qui ne permettent pas de voir leur contenu, ont transformé l’achat de labubus en un petit rituel de hasard et de suspens.
Le véritable boom a eu lieu en avril 2025, lorsque la chanteuse thaïlandaise Lisa, qui compte plus de 100 millions d’abonnés sur Instagram et est membre du groupe féminin de k-pop Blackpink, a publié sur le réseau social une photo d’elle avec plusieurs labubus accrochés à son sac à main. Rihanna et Dua Lipa ont suivi, la photo est devenue virale sur TikTok et des millions de fans ont surgi dans le monde entier. Labubu est passé d’un produit de niche à un produit viral. D’une nouveauté à une mode. D’un objet à un phénomène.
Mais comment cela se produit-il ? Comment quelque chose d’aussi spécifique et rare peut-il devenir un objet de désir pour des millions de personnes à travers le monde ?
Dans ma thèse de doctorat, j’ai proposé une théorie interdisciplinaire inspirée de l’idée de modernité liquide développée par le philosophe polono-britannique Zygmunt Bauman et du comportement des liquides et des gaz, tant au repos qu’en mouvement (la mécanique des fluides). Je suggère que l’innovation est la matière dont est faite la mode. Et comme toute matière, elle peut se trouver dans trois états : solide, liquide et gazeux.
À son tour, l’innovation peut se trouver dans trois phases : nouveauté, tendance et mode. Ce parallélisme n’est pas métaphorique, mais structurel. Tout comme l’eau change d’état en fonction de la température et de la pression, les innovations se transforment également en fonction du contexte social, culturel et économique.
La nouveauté est l’état solide : elle a une forme, elle est dense, statique et circule entre quelques personnes. Selon la théorie de la diffusion des innovations, développée au milieu des années 60 par le sociologue américain Everett Rogers, cette étape correspond aux innovateurs. Il s’agit d’une proposition à forte valeur symbolique, mais sans diffusion massive.
Lorsqu’elle commence à se répandre, elle devient une tendance et se liquéfie : elle circule, s’adapte, relie les communautés. C’est à ce stade qu’apparaissent les « early adopters », une expression qui désigne les individus qui ont pour habitude d’acheter quasiment systématiquement les nouveaux produits dans une catégorie de produit donnée. C’est le moment où l’idée commence à faire l’objet de discussions.
Lorsqu’elle atteint le point de fusion, elle franchit le gouffre de Moore : la fracture critique dans le cycle d’adoption d’un produit innovant. Ses premiers utilisateurs sont généralement des fans de nouveautés, à l’affût de toute innovation pour la tester. En revanche, le marché de masse ne franchit le cap que lorsque l’innovation a déjà été testée et validée par d’autres.
Dans la viralité des modes ou l’adoption des dernières innovations, une fois le fossé franchi, il existe un point critique (tipping point) où la contagion est déjà très difficile à arrêter. Elle entre dans le mainstream ou le marché de masse et se transforme en mode : elle passe à l’état gazeux, se généralise, perd de sa densité, devient omniprésente… jusqu’à s’évaporer.
Ce processus est cyclique. De nombreuses innovations restent figées. D’autres ne se consolident jamais et ne circulent pas. Certaines s’évanouissent rapidement, presque aussitôt qu’elles apparaissent. Le désir et l’innovation, comme la matière, ont besoin de conditions pour se maintenir.
Le Labubu a traversé toutes ces phases. Il a commencé comme une figure marginale (solide), est devenu tendance en touchant de nouveaux publics (liquide) et a atteint l’état gazeux en devenant viral à l’échelle mondiale.
Les labubus sont sur TikTok, ornent des sacs à main de luxe et font l’objet d’articles de presse. Ce qui était au départ un symbole de distinction est en train de devenir un brouhaha visuel. Un signe que le cycle touche à sa fin. Et qu’un autre est peut-être sur le point de commencer.
Mais les tendances ne changent pas d’elles-mêmes. Tout comme l’eau a besoin de changement de températures et de pressions pour se transformer, les modes répondent également à des stimuli externes. Dans ce cas : les marques, les algorithmes, les consommateurs et les influenceurs.
La température culturelle est générée par les campagnes, les lancements, le contenu visuel. La pression symbolique provient du désir collectif : la communauté qui reproduit les gestes, les fans qui recherchent l’objet, l’envie d’appartenir.
Et puis, il y a des forces motrices, comme les influenceurs, qui agitent le système de l’intérieur, validant certaines tendances et en écartant d’autres.
Aujourd’hui, la visibilité ne dépend pas tant de ce que l’on est, mais du nombre de fois où l’on peut être partagé. C’est ainsi qu’émergent ce que j’appelle les micro-identités liquides : des façons rapides et flexibles de dire « Je suis comme ça » dans une culture où ce moi est mutable, partagé, esthétique et performatif.
Comme l’explique le sociologue britannique Anthony Giddens, dans la société actuelle, en modernité tardive, le moi devient un projet réflexif, construit à partir des images, des choix et des récits disponibles.
Et dans un monde qui, selon les termes du philosophe coréen et lauréat du prix Princesse des Asturies 2025 Byung-Chul Han, « récompense la visibilité et la performance constante », chaque tendance devient un masque provisoire. Un labubu n’est pas seulement un objet : il représente l’appartenance, l’affection partagée, voire un langage générationnel.
Dans cet écosystème volatile, nous sommes des corps flottant dans un fluide symbolique : nous nous poussons, nous nous heurtons, nous changeons de forme… au rythme du marché.
Le format de la boîte surprise (« blind box ») ajoute également une dimension émotionnelle : nous n’achetons pas seulement un objet, mais aussi l’expérience même de désirer, d’espérer, de tenter sa chance. Dans une culture saturée de prédictions algorithmiques, le hasard introduit une touche de mystère. Pour le philosophe français Roland Barthes, la mode est un langage. Aujourd’hui, nous pourrions dire que ce langage s’exprime avant tout sur le plan émotionnel.
Mais ce langage obéit également à des lois physiques. Le principe d’Archimède dit qu’un corps immergé dans un fluide déplace un volume équivalent. Il en va de même dans la mode : lorsqu’une tendance s’impose, une autre est évincée. Le marché symbolique n’est pas infini. Seul ce qui parvient à supplanter une autre esthétique peut flotter. En devenant populaires, les labubu ont remplacé les figures kawaii telles que Molly ou Sonny Angel.
Et comme tout gaz, la hype a tendance à se dissiper. La surexposition épuise le désir. Des copies apparaissent, le mystère disparaît, la saturation s’installe. Et alors, le cycle recommence : nouvelles versions, plus de pression, hausse de la température.
Wang Ning, fondateur et directeur général de Pop Mart, a su lire le point de fusion exact de ces objets. En 2025, après avoir ajouté 20 milliards de dollars à sa fortune grâce à la viralité de Labubu, il est apparu dans les classements comme le 79e homme le plus riche du monde. Car comprendre le quand, plutôt que le quoi, reste le véritable pouvoir.
Ce modèle de « mode liquide » ne cherche pas à expliquer les caprices esthétiques, mais à révéler le processus par lequel une innovation naît, se développe et finit par disparaître. Car les tendances, même si elles semblent imprévisibles, ont aussi une structure. Elles ne flottent pas au hasard : elles changent d’état en fonction de la pression du désir collectif et de la température culturelle qui les entoure.
Le véritable défi pour les marques n’est pas de détecter la nouveauté, mais de savoir à quel stade du cycle elle se trouve. Est-elle encore solide et marginale, avec un risque élevé de disparaître sans avoir transcendé ? Est-elle déjà en phase liquide, gagnant en popularité ? Ou est-elle déjà gazeuse, omniprésente mais sur le point de s’évaporer ?
Pour les consommateurs, leur position sur cette courbe dépend du risque qu’ils sont prêts à prendre. Certains adoptent ce qui deviendra une mode avant même qu’elle ait un nom. D’autres attendent qu’elle soit sûre, validée, presque obligatoire. Et entre les deux, des millions de micro-identités apparaissent et disparaissent comme une flamme.
Le labubu ne fait pas exception. C’est un cas parfait : né comme une curiosité, il s’est répandu comme une tendance et a explosé comme une mode. Aujourd’hui, il flotte partout. Mais il se peut aussi que sa présence commence bientôt à se dissiper.
Sandra Bravo Durán ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
17.09.2025 à 16:26
Danièle Henky, Maître de conférences habilité à diriger les recherches en langues et littérature française (9e section) émérite, Université de Strasbourg
Robert Laurent-Vibert, l’un des dirigeants emblématiques de l’entreprise Pétrole Hahn, disparu prématurément il y a cent ans, était un patron atypique. En intellectuel lettré, il considérait que la culture générale est utile à l’homme d’affaires.
Érudit, chef d’entreprise de Pétrole Hahn, Robert Laurent-Vibert (1884-1925), dont l’œuvre fut couronnée par la restauration du château de Lourmarin en Provence, semble appartenir à une époque lointaine.
Sa vie brève comme sa forte personnalité sont des modèles pour qui s’intéresse aux valeurs de l’humanisme en entreprise. Il a su discerner les différences entre travail intellectuel et travail d’affaires. Alors que le premier exige du temps, des recherches patientes et minutieuses, le second veut la rapidité dans l’étude et l’esprit de décision. Laurent-Vibert s’est ingénié à passer de l’un à l’autre domaine, grâce à son goût de l’action secondé par une belle capacité d’adaptation.
En humaniste, il accorde toute son attention à la qualité de vie de ses employés dont il améliore les conditions de travail et le quotidien. En philanthrope, il estime impérieux pour l’homme d’affaires de protéger la civilisation française par l’intermédiaire de ses artistes et de ses scientifiques, en leur procurant laboratoires, bibliothèques ou bourses d’études.
Orphelin à l’âge de 10 ans, Robert est adopté par la famille lyonnaise Vibert, proche de ses parents biologiques, les Laurent. François Vibert, son père adoptif, devient, en 1901, propriétaire-fabricant en France du « pétrole pour les cheveux », inventé par Charles Hahn : le fameux « Pétrole Hahn » ! En 1885, ce pharmacien créé une lotion capillaire à base de pétrole, solution aujourd’hui contestée comme le souligne l’article de Ouest-France. En 1896, François Vibert lance sa fabrication en France. C’est ici que s’est joué le destin de Robert Laurent-Vibert.
L’enrichissement rapide de son père adoptif permet à Robert d’acquérir une excellente éducation à l’école Ozanam puis au Lycée Ampère, à Lyon, où Édouard Herriot, son professeur, le pousse vers des études littéraires. À l’École normale supérieure de la rue d’Ulm (Paris), le jeune homme entreprend des études d’histoire. Il réussit l’agrégation et entre à l’École française de Rome. Mais il ne peut poursuivre sa carrière de professeur et de chercheur, car son père, malade, l’appelle pour le seconder dans l’entreprise. Il finit par en devenir le directeur en 1912 et par jouer un rôle prépondérant dans le développement de celle-ci grâce à son recours à la publicité et à son management moderne.
L’homme d’affaires a laissé des témoignages probants de son implication dans l’avenir des établissements Vibert, non seulement en tant que chef d’entreprise visionnaire, mais aussi par son humanisme. Devenu président du Syndicat de la parfumerie, s’inspirant des patrons avant-gardistes du XIXe siècle, il crée dans sa société un modèle social qui accorde à ses salariés congés payés et allocations familiales.
Pétrole Hahn lui doit également son statut de société anonyme. Après la Première Guerre mondiale, son succès est tel qu’on l’appelle au gouvernement pour devenir conseiller du Commerce extérieur. Dans les années 1920, le passage de la réclame à la publicité stimule les ventes. Un homme d’affaires aussi attentif et bien renseigné que Laurent-Vibert ne peut pas manquer de s’y intéresser. Il fait appel à des illustrateurs talentueux pour représenter, façon Art déco ou sur le modèle des affiches de cinéma, le précieux flacon et ses effets sur celles et ceux qui l’emploient pour leur bénéfice. Il fait ainsi la connaissance de Benjamin Rabier avec lequel il entreprend de moderniser la communication publicitaire des produits Pétrole Hahn.
On vante les qualités du produit non seulement dans la presse et les magazines, mais aussi sur des cartons publicitaires, des chromos, des buvards, des cartes postales, des timbres, des calendriers, des puzzles, des enseignes lumineuses… Et, si, dès 1905, sous l’égide de François Vibert, Petrole Hahn se fait connaître en Grande-Bretagne et en Allemagne, de 1920 à 1924, la Grèce et le Canada, la Chine, l’Australie et l’Amérique du Sud l’adoptent à leur tour. Laurent-Vibert n’hésite pas à voyager lui-même dans toute l’Europe et jusqu’en Amérique, curieux des innovations de ce pays, pour commercialiser ses produits.
Retour sur sa vie personnelle. Pendant la Première Guerre mondiale, il fait preuve de qualités humaines remarquables : aptitude à évaluer les situations, à prendre des décisions, esprit d’initiative… Ne reculant pas devant le danger, il participe activement aux combats et se montre soucieux de préserver la vie de ses hommes. Il laisse de nombreux carnets de notes et de croquis qui en témoignent.
Remis de graves blessures, il est envoyé à Salonique de 1916 à 1918, où il crée une société pour favoriser les échanges commerciaux entre la France et la Macédoine. Il s’intègre au cercle des amis cultivés de Jules Lecoq, proviseur du lycée français, en anime les échanges culturels littéraires et archéologiques et fait la connaissance de nombreux intellectuels dont Henri Bosco. Parallèlement, il fonde la Revue franco-macédonienne en 1916, mensuel dont les articles sont rédigés par des officiers, sous-officiers et soldats de l’armée d’Orient.
Il reste toute sa vie attaché à l’Orient où il revient très souvent, rendant compte de ses voyages dans des récits attachants.
Idéaliste, passionnément patriote, il croit en la mission civilisatrice de son pays. Dès 1910, il insiste sur les facteurs économiques portant en germe les futurs conflits. Après la guerre, il est attentif aux dangers résultant de la complaisance de la France à l’égard de l’Allemagne. Il écrit en ce sens à son ancien maître Herriot pour l’alerter. Son intérêt pour l’histoire lui insuffle la conviction que celle-ci ne doit jamais être rejetée au profit d’une nouvelle ère qui s’ouvre, censée balayer les erreurs du passé.
Cette attitude prend corps dans la restauration du château de Lourmarin (Vaucluse), qu’il découvre dans un grand état d’abandon en 1920 lors d’une excursion. Il en fait l’acquisition dans le but d’en entamer la reconstruction et de créer une fondation dont la mission serait de devenir un centre d’art et de culture. Dans son travail de restauration, l’architecte Henri Pacon – à qui le chantier fut confié – sut exploiter les solutions techniques apportées par la modernité, tout en respectant les recherches historiques de Robert.
Fréquenté par des visiteurs du monde entier, à la fois résidence d'artiste, lieu d'exposition, de concerts et de conférences, l’endroit est devenu aujourd’hui un lieu de visite incontournable du Lubéron, surnommé « la petite Villa Médicis de Provence ».
Tout au long de sa vie, Robert Laurent-Vibert publie des revues, écrit des pièces de théâtre et plus tard des livres de voyage. Il fréquente de nombreux érudits, a des relations proches avec l’éditeur Georges Crès ou le maître-imprimeur Maurice Audin dont il fréquente les ateliers et leurs machines, prétendant qu’il est nécessaire pour sa santé de respirer l’odeur de l’encre d’imprimerie.
Mu par la soif des connaissances, l’amour de la création, un attachement aux autres, et une détermination à transmettre savoir et découvertes, Robert Laurent-Vibert a déployé dans ses activités une énergie remarquable. Trop tôt disparu en 1925 dans un accident de la route, voyageur infatigable, lecteur, écrivain, collectionneur, il eut une vie aussi trépidante que riche. À la fois dirigeant d’entreprise talentueux et généreux humaniste, il reste aujourd’hui un exemple et une source de réflexion pour tous.
Danièle Henky ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
17.09.2025 à 16:25
Hela Hassen, Lecturer in Marketing, Kedge Business School
Matthew Higgins, Senior Lecturer in Marketing and Consumption
Precious Akponah, Associate Lecturer in Marketing
Pour que les devoirs sur table et les notes soient de réels outils de progression pour les étudiants, il ne suffit pas de rendre publiques les grilles d’évaluation. Encore faut-il s’assurer que les étudiants en comprennent bien les enjeux et la mise en œuvre. Explication à partir d’une recherche-action dans une université britannique.
« Travail superficiel », « manque de rigueur » ou encore « absence de pensée critique »… De telles observations, relevées sur des copies d’étudiants, restent floues et sont souvent perçues comme arbitraires.
Si l’enjeu d’une évaluation est de permettre aux étudiants de comprendre leurs lacunes pour progresser, ne faudrait-il pas envisager une autre orientation et privilégier le dialogue ?
Nombre d’universités tentent de mettre l’accent sur des modalités d’évaluation plus transparentes, incluant des grilles de critères à respecter afin d’obtenir la note attendue. La formulation des attendus demeure néanmoins souvent opaque et ces grilles restent mal comprises ou voire ignorées par les étudiants. Des expressions comme « démontrez une compréhension approfondie » ou « utilisez des sources pertinentes » peuvent sembler évidentes aux enseignants. Mais elles ne le sont pas toujours pour les étudiants, surtout s’il s’agit de les traduire en actions concrètes.
En France, un rapport du comité d’évaluation de l’enseignement supérieur souligne que l’évaluation reste bien souvent trop floue, disparate et peu en phase avec les compétences visées par les formations. Il appelle à un ciblage plus clair et collectif des pratiques d’examen par les universités.
Lorsque les évaluations sont multiples (dans des contextes de cours massifiés et de délais courts par exemple), les retours se transforment rapidement en simple procédure administrative, c’est-à-dire quelques lignes copiées-collées, et perdent leur fonction pédagogique.
Une recherche-action menée dans une université britannique a testé une alternative : organiser des temps de dialogue autour des grilles d’évaluation, en amont des rendus de devoirs des étudiants puis après la restitution des notes. Plutôt que de découvrir les attendus une fois leur copie notée, les étudiants ont pu poser leurs questions à l’avance, commenter les termes ambigus, et co-construire une compréhension de ce qui était attendu.
Les discussions entre étudiants et professeurs ont permis de clarifier des notions souvent floues : qu’est-ce qu’un raisonnement rigoureux ? Comment différencier un travail « bon » d’un travail « excellent » ? L’objectif de ces échanges n’était pas de simplifier les exigences, mais de traduire les attentes dans un langage clair, afin de placer les étudiants au centre du processus d’évaluation et en les rendant pleinement acteurs de leur apprentissage.
Les résultats ont été probants : les étudiants qui ont participé à ces dialogues ont obtenu de meilleures notes. Tous ont validé leurs modules, certains ont même obtenu suite à cette expérience les meilleurs résultats qu’ils aient eus depuis le début d’année. Mais au-delà des notes, le plus frappant a été le changement d’attitude des étudiants : ils ont manifesté moins d’anxiété, plus d’engagements, une meilleure compréhension des attentes.
Cette approche repose sur un principe simple, mais souvent oublié : le feedback est une conversation, non un verdict. Cela rejoint les travaux de chercheurs comme David Carless, qui défendent l’idée que l’évaluation doit être un pur moment d’apprentissage et non une fin en soi. Or, pour cela, encore faut-il encore que les étudiants puissent échanger avec l’enseignant. L’évaluation cesse alors d’être un outil de tri, pour devenir un levier de progression.
Au lieu d’envoyer des commentaires impersonnels, pourquoi ne pas organiser un atelier, une discussion collective, une relecture croisée ? Ce n’est pas une question de temps supplémentaire, mais de changement de posture : passer d’un modèle descendant à une relation co-constructive entre l’enseignant et l’étudiant.
Avec la montée en puissance des outils comme ChatGPT, une inquiétude s’installe et un nombre important d’universités s’interrogent : « Comment savoir qui a rédigé ce devoir ? », « Faut-il multiplier les contrôles, mieux les surveiller ou sanctionner ? » Une autre stratégie consiste à assortir toute évaluation d’un échange mutuel entre professeur et étudiant.
Des chercheurs stipulent qu’encadrer plutôt qu’interdire l’IA apparaît comme la solution la plus équilibrée pour préserver l’éthique tout en encourageant l’innovation pédagogique. Une évaluation ouverte ou un dialogue, où les critères sont explicités, discutés et interprétés mutuellement, s’inscrit parfaitement dans cette démarche : elle protège contre la tricherie, tout en valorisant l’autonomie de l’étudiant.
Quand l’étudiant sait qu’il devra expliquer sa démarche, discuter ses choix, relier son travail aux critères attendus, il devient plus difficile de simplement copier une production générée par une IA. Le dialogue devient alors un outil anti-triche naturel, parce qu’il repose sur une compréhension vivante du savoir, pas sur la restitution mécanique d’un résultat. L’évaluation ouverte ou dialogue n’est donc pas seulement plus juste, elle est aussi plus résistante aux dérives technologiques.
Le dialogue autour de l’évaluation peut être un rempart naturel contre les dérives de l’IA, à condition que ce dernier soit préparé en amont, ciblé sur les apprentissages et porteur d’objectifs pédagogiques clairs. Il doit offrir à chacun les mêmes chances de participation, dans un climat à la fois détendu et exigeant. L’enjeu n’est pas seulement de discuter des notes, mais de permettre à l’étudiant de comprendre, progresser, valoriser ses compétences et ainsi de capitaliser ses acquis.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
17.09.2025 à 16:25
Simon Goodman, Lecturer in Evolutionary Biology, University of Leeds
Le recul alarmant de la Caspienne, plus grande mer fermée du monde, entraîne des bouleversements écologiques, humains et géopolitiques dans toute cette zone aux confins de l’Europe. Les pays qui l’entourent semblent déterminés à agir, mais leur réaction risque d’être trop lente face à ce changement très rapide.
C’était autrefois un refuge pour les flamants, les esturgeons et des milliers de phoques. Mais les eaux qui reculent rapidement transforment la côte nord de la mer Caspienne en étendues arides de sable sec. Par endroits, la mer s’est retirée de plus de 50 km. Les zones humides deviennent des déserts, les ports de pêche se retrouvent à sec, et les compagnies pétrolières draguent des chenaux toujours plus longs pour atteindre leurs installations offshore.
Le changement climatique est à l’origine de ce déclin spectaculaire de la plus grande mer fermée du monde. Située à la frontière entre l’Europe et l’Asie centrale, la mer Caspienne est entourée par l’Azerbaïdjan, l’Iran, le Kazakhstan, la Russie et le Turkménistan, et fait vivre environ 15 millions de personnes.
La Caspienne est un centre de pêche, de navigation et de production de pétrole et de gaz, et son importance géopolitique est croissante, puisqu’elle se trouve à la croisée des intérêts des grandes puissances mondiales. À mesure que la mer s’appauvrit en profondeur, les gouvernements sont confrontés au défi crucial de maintenir les industries et leurs moyens de subsistance, tout en protégeant les écosystèmes uniques qui les soutiennent.
Je me rends sur la Caspienne depuis plus de vingt ans, pour collaborer avec des chercheurs locaux afin d’étudier le phoque de la Caspienne, une espèce unique et menacée, et soutenir sa conservation. Dans les années 2000, l’extrême nord-est de la mer formait une mosaïque de roselières, de vasières et de chenaux peu profonds grouillants de vie, offrant des habitats aux poissons en frai, aux oiseaux migrateurs et à des dizaines de milliers de phoques qui s’y rassemblaient au printemps pour muer.
Aujourd’hui, ces lieux sauvages et reculés où nous capturions des phoques pour des études de suivi par satellite sont devenus des terres sèches, en transition vers le désert à mesure que la mer se retire, et la même histoire se répète pour d’autres zones humides autour de la mer. Cette expérience fait écho à celle des communautés côtières, qui voient, année après année, l’eau s’éloigner de leurs villes, de leurs quais de pêche et de leurs ports, laissant les infrastructures échouées sur des terres nouvellement asséchées, et les habitants inquiets pour l’avenir.
Le niveau de la mer Caspienne a toujours fluctué, mais l’ampleur des changements récents est sans précédent. Depuis le début de ce siècle, le niveau de l’eau a baissé d’environ 6 cm par an, avec des chutes allant jusqu’à 30 cm par an depuis 2020. En juillet 2025, des scientifiques russes ont annoncé que la mer était descendue en dessous du niveau minimum précédent enregistré depuis le début des mesures instrumentales.
Au cours du XXe siècle, les variations étaient dues à une combinaison de facteurs naturels et de détournements d’eau par l’homme pour l’agriculture et l’industrie, mais aujourd’hui, le réchauffement climatique est le principal moteur du déclin. Il peut sembler inconcevable qu’une masse d’eau aussi vaste que la Caspienne soit menacée, mais dans un climat plus chaud, le débit d’eau entrant dans la mer par les rivières et les précipitations diminue, et il est désormais dépassé par l’augmentation de l’évaporation à la surface de la mer.
Même si le réchauffement climatique est limité à l’objectif de 2 °C fixé par l’accord de Paris, le niveau de l’eau devrait baisser jusqu’à dix mètres par rapport au littoral de 2010. Avec la trajectoire actuelle des émissions mondiales de gaz à effet de serre, le déclin pourrait atteindre 18 mètres, soit environ la hauteur d’un immeuble de six étages.
Comme le nord de la Caspienne est peu profond –, une grande partie n’atteint qu’environ cinq mètres de profondeur – de petites diminutions de niveau entraînent d’immenses pertes de surface. Dans une recherche récente, mes collègues et moi avons montré qu’un déclin optimiste de dix mètres mettrait à découvert 112 000 kilomètres carrés de fond marin – une superficie plus grande que l’Islande.
Les conséquences écologiques seraient dramatiques. Quatre des dix types d’écosystèmes uniques à la mer Caspienne disparaîtraient complètement. Le phoque de la Caspienne, une espèce menacée, pourrait perdre jusqu’à 81 % de son habitat de reproduction actuel, et l’esturgeon de la Caspienne perdrait l’accès à des zones de frai essentielles.
Comme lors de la catastrophe de la mer d’Aral, où un autre immense lac d’Asie centrale a presque totalement disparu, des poussières toxiques issues du fond marin exposé seraient libérées, avec de graves risques pour la santé.
Des millions de personnes risquent d’être déplacées à mesure que la mer se retire, ou de se retrouver confrontées à des conditions de vie fortement dégradées. Le seul lien de la mer avec le réseau maritime mondial passe par le delta de la Volga (qui se jette dans la Caspienne), puis par un canal en amont reliant le Don, offrant des connexions vers la mer Noire, la Méditerranée et d’autres systèmes fluviaux. Mais la Volga est déjà confrontée à une réduction de sa profondeur.
Des ports comme Aktau au Kazakhstan et Bakou en Azerbaïdjan doivent être dragués simplement pour pouvoir continuer à fonctionner. De même, les compagnies pétrolières et gazières doivent creuser de longs chenaux vers leurs installations offshore dans le nord de la Caspienne.
Les coûts déjà engagés pour protéger les intérêts humains se chiffrent en milliards de dollars, et ils ne feront qu’augmenter. La Caspienne est au cœur du « corridor médian », une route commerciale reliant la Chine à l’Europe. À mesure que le niveau de l’eau baisse, les cargaisons maritimes doivent être réduites, les coûts augmentent, et les villes comme les infrastructures risquent de se retrouver isolées, à des dizaines voire des centaines de kilomètres de la mer.
Les pays riverains de la Caspienne doivent s’adapter, en déplaçant des ports et en creusant de nouvelles voies de navigation. Mais ces mesures risquent d’entrer en conflit avec les objectifs de conservation. Par exemple, il est prévu de draguer un nouveau grand chenal de navigation à travers le « seuil de l’Oural » dans le nord de la Caspienne. Mais il s’agit d’une zone importante pour la reproduction des phoques, leur migration et leur alimentation, et ce sera une zone vitale pour l’adaptation des écosystèmes à mesure que la mer se retire.
Comme le rythme du changement est si rapide, les aires protégées aux frontières fixes risquent de devenir obsolètes. Ce qu’il faut, c’est une approche intégrée et prospective pour établir un plan à l’échelle de toute la région. Si les zones où les écosystèmes devront s’adapter au changement climatique sont cartographiées et protégées dès maintenant, les planificateurs et décideurs politiques seront mieux à même de faire en sorte que les projets d’infrastructures évitent ou minimisent de nouveaux dommages.
Pour ce faire, les pays de la Caspienne devront investir dans le suivi de la biodiversité et dans l’expertise en matière de planification, tout en coordonnant leurs actions entre cinq pays différents aux priorités diverses. Les pays de la Caspienne reconnaissent déjà les risques existentiels et ont commencé à conclure des accords intergouvernementaux pour faire face à la crise. Mais le rythme du déclin pourrait dépasser celui de la coopération politique.
L’importance écologique, climatique et géopolitique de la mer Caspienne fait que son sort dépasse largement ses rivages en recul. Elle constitue une étude de cas essentielle sur la manière dont le changement climatique transforme les grandes étendues d’eau intérieures à travers le monde, du lac Titicaca (entre le Pérou et la Bolivie) au lac Tchad (à la frontière entre le Niger, le Nigeria, le Cameroun et le Tchad). La question est de savoir si les gouvernements pourront agir assez vite pour protéger à la fois les populations et la nature de cette mer en mutation rapide.
Simon Goodman a conseillé le Programme des Nations unies pour l’environnement (PNUE) sur la conservation du phoque de la Caspienne et a par le passé mené des recherches et conseillé des entreprises pétrolières et gazières de la région sur la façon de réduire leur impact sur ces animaux. Ses travaux récents n’ont pas été financés par l’industrie ni liés à elle. Il est coprésident du groupe de spécialistes des pinnipèdes de l’Union internationale pour la conservation de la nature (UICN).
17.09.2025 à 16:24
Romain Busnel, Chargé de recherche en sciences sociales du politique, Centre national de la recherche scientifique (CNRS)
Le 5 août dernier, Luis García Villagrán, défenseur des personnes migrantes, a été arrêté à la frontière sud du Mexique. En marge des pressions diplomatiques états-uniennes, cette criminalisation du militantisme réactive les débats en cours autour de la définition des catégories du militant et du « passeur », de l’accompagnement humanitaire et du « trafic d’êtres d’humains ».
En juin 2025, Luis García Villagrán, 63 ans, avocat formé au droit en prison (il y a passé douze ans, de 1998 à 2000, à la suite d’un imbroglio judiciaire pour lequel il a finalement été innocenté), avait repris sa casquette d’activiste dans la ville de Tapachula (Chiapas, sud du Mexique, à une vingtaine de kilomètres du Guatemala) pour dénoncer les manquements des autorités mexicaines compétentes en matière migratoire. Il les accusait d’être corrompues et de freiner l’octroi de visas aux milliers de personnes bloquées dans cette ville de 350 000 habitants, désireuses de s’installer au Mexique ou, plus souvent, de traverser son territoire afin de rejoindre les États-Unis.
Face à l’absence de solutions, il a organisé une caravane. Ce mode d’action consiste à se déplacer vers le Nord à plusieurs centaines ou milliers de sans-papiers pour faire pression sur les autorités et se protéger des exactions aussi bien des forces de l’ordre que des groupes criminels.
Le 6 août 2025, cette première caravane de plus de 500 personnes depuis la prise de fonctions de Donald Trump est finalement partie sans le militant, arrêté la veille par les forces de l’ordre mexicaines et conduit au bureau du procureur fédéral (Fiscalía General de la República). Le lendemain, la présidente de la République Claudia Sheinbaum a justifié sa mise en détention :
« Ce n’est pas un militant. Il faisait l’objet d’un mandat d’arrêt et il est accusé de trafic d’êtres humains. »
Organisations de la société civile et universitaires mexicains se sont immédiatement alarmés de cette stigmatisation et de la violation de la présomption d’innocence de la part de la plus haute autorité du pays. Le 11 août, un juge fédéral a finalement ordonné la libération de l’activiste dans l’attente d’une enquête approfondie, faute de preuves solides. Le lendemain, le procureur fédéral a réagi en dénonçant la supposée mansuétude du juge à l’égard de Villagrán : « Quand on a fait comparaître cette personne devant le juge, celui-ci n’a pas même pas voulu analyser les 75 preuves que les autorités lui avaient présentées. […] Je n’ai jamais vu ça. »
Cette intromission des plus hautes sphères fédérales dans le cas d’un défenseur des droits des personnes migrantes a de quoi surprendre dans ce pays gouverné par la gauche depuis 2018 (année de la victoire d’Andrés Manuel López Obrador, à qui Claudia Sheinbaum a succédé en 2024).
Ces événements s’inscrivent dans le cadre d’une externalisation des frontières états-uniennes au Mexique, caractérisée par des politiques de mise en attente des personnes migrantes. Si la frontière du Mexique avec les États-Unis accapare une large part de l’attention médiatique, les dynamiques de la frontière Sud, en bordure du Guatemala, restent peu documentées.
Au cours des années 2010, cette zone de passage obligé pour les personnes désireuses de rejoindre les États-Unis a fait l’objet de politiques dites d’« endiguement migratoire » visant à ralentir les flux de personnes migrantes issues d’Amérique centrale (Honduras, Guatemala, Nicaragua, Salvador), des Caraïbes (Haïti, Cuba), d’Amérique du Sud (Venezuela, Équateur) mais aussi d’autres continents (Afrique, Moyen-Orient et Asie).
Face à la massification et à la diversification des mobilités internationales dans cette région, les politiques migratoires mexicaines sont progressivement devenues une marge d’ajustement des relations diplomatiques avec les États-Unis, notamment dans le contexte actuel de renégociation des droits de douane.
Déjà, en 2019, le gouvernement d’Andrés Manuel López Obrador avait négocié le maintien de droits de douane avantageux en échange de l’envoi à la frontière Sud du Mexique de la Garde nationale, un nouveau corps de police militarisée.
Les multiples contrôles sur les routes, ainsi que les pratiques d’allongement des délais d’obtention de papiers permettant de transiter légalement au Mexique ont fait de Tapachula une « prison à ciel ouvert », où plusieurs dizaines de milliers de personnes exilées restent bloquées dans l’attente d’une régularisation.
Cette situation encourage les versements de pots-de-vin aux agents de l’Institut national des migrations (INM) – déjà dénoncés par un ancien directeur de cette institution –, mais aussi la présence de réseaux de passeurs illicites, parfois en lien avec des groupes criminels.
En réponse à cette mise en attente dans le Chiapas, État le plus pauvre du Mexique, un nouveau mode d’action collective et migratoire a émergé dans les années 2010. Certains religieux et activistes issus d’organisations de défense du droit à la migration ont commencé à accompagner des groupes de personnes migrantes dans leur périple, pour les protéger en les rendant plus visibles.
C’est ainsi qu’ont émergé en 2018 des caravanes de plusieurs milliers de personnes sur les routes d’Amérique centrale et du sud du Mexique. À cette époque, leur importante médiatisation avait déclenché des réactions virulentes du président états-unien Donald Trump.
Depuis, ce type d’actions n’a pas cessé. Tous les ans, plusieurs caravanes partent de Tapachula. Luis García Villagrán a participé activement à plusieurs d’entre elles. Cela lui vaut, comme à d’autres, une stigmatisation régulière de la part de personnalités politiques (de droite comme de gauche, à l’instar de la présidente Sheinbaum) qui entretiennent l’amalgame entre « militant » et « passeur » (coyote ou pollero au Mexique), entre « accompagnement » et « trafic d’êtres humains ».
La poursuite en justice d’activistes s’inscrit en prolongement d’une répression de longue date par l’État mexicain du militantisme politique. Elle déborde aujourd’hui sur l’enjeu migratoire, un sujet sensible au niveau diplomatique, mais aussi au niveau national dans la mesure où les personnes migrantes sont des cibles facilement exploitables pour les groupes criminels.
Déjà en 2019, plusieurs activistes mexicains présents pour accompagner les caravanes avaient fait l’objet d’intimidations, d’arrestations et de menaces. Certains ont même été physiquement violentés lors des interrogatoires.
La répression se fait aussi à bas bruit, par des acteurs pas toujours bien identifiés. Les militants reçoivent souvent des menaces provenant de numéros inconnus sur leurs téléphones. Il arrive aussi que celles-ci soient mises à exécution, par exemple lorsque Luis García Villagrán s’est fait passer à tabac par un groupe armé en octobre 2023, peu après avoir annoncé vouloir accompagner une caravane organisée par un autre activiste.
La criminalisation du militantisme en soutien aux sans-papiers n’est pas sans rappeler des processus observés en Europe. Mais si les activistes disposent de relais médiatiques pour se défendre des accusations, les personnes migrantes restent celles qui pâtissent en premier de la répression.
Par le suivi de caravanes, mes recherches de terrain ont montré que la privation des soutiens sur le trajet expose les personnes migrantes aux exactions de groupes criminels ou des autorités policières. En outre, les personnes exilées qui s’impliquent dans l’organisation quotidienne pour négocier avec les autorités, assurer la logistique des repas ou prendre des décisions paient parfois cher cet engagement. Identifiées comme les moteurs de la mobilisation par les autorités mexicaines, beaucoup sont arrêtées dans une quasi-indifférence générale, et sont ensuite privées de visas d’entrée aux États-Unis et au Mexique.
Au Mexique, comme ailleurs, la criminalisation de tout acte de solidarité s’inscrit dans la construction d’un régime de mobilité restrictif. Aide aux personnes migrantes par leurs soutiens ou entraide entre personnes migrantes sont susceptibles d’être réprimées au nom d’un amalgame fallacieux entre accompagnement humanitaire et « trafic d’êtres humains », ou défenseur des personnes migrantes et « passeur ». Ces processus visent aussi à créer une démarcation entre, d’une part, les « bonnes » organisations de soutien financées par l’aide internationale qui assistent les exilés dans les lieux d’attente et, d’autre part, les « mauvaises » qui les accompagnent sur les routes ou qui protestent contre le sort qui leur est réservé.
C’est pourtant bien ce nouveau paradigme qui contribue à rendre les routes de l’exil beaucoup plus dangereuses pour les personnes qui les empruntent, mais aussi pour celles qui y vivent.
Romain Busnel ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
17.09.2025 à 13:36
Jean-Yves Marion, Professeur d'informatique, Université de Lorraine
Vous avez peut-être déjà été victime d’un virus informatique. Le terme date de 1984 et on le doit à Fred Cohen, un chercheur américain. Pourtant, la notion de virus est intrinsèquement liée à celle même de l’informatique, dès ses origines, avec les travaux d’Alan Turing dans les années 1930 et, par la suite, avec les programmes autoréplicants. Aujourd’hui, ce terme n’est plus vraiment utilisé, on parlera plutôt de logiciels malveillants. Jean-Yves Marion est responsable du projet DefMal du programme de recherche PEPR France 2030 Cybersécurité qui porte sur la lutte contre ce qu’on appelle aussi les « malwares ».
Il répond aux questions de Benoît Tonson, chef de rubrique Sciences et technologies à « The Conversation France », pour nous faire pénétrer les secrets des cybercriminels et comprendre comment ils arrivent à pénétrer des systèmes informatiques et à escroquer leurs victimes.
The Conversation : Comment vous êtes-vous intéressé au monde des logiciels malveillants ?
Jean-Yves Marion : J’ai fait une thèse à l’Université Paris 7 en 1992 (aujourd’hui, Paris Cité) sur un sujet d’informatique fondamental de logique et de complexité algorithmique. C’était assez éloigné de la cybersécurité, ce qui m’intéressait quand j’étais jeune, c’était de comprendre les limites de ce qui est calculable par ordinateur quand les ressources sont bornées.
Plus tard, on pourrait dire que j’ai fait une « crise de la quarantaine » mais version chercheur. J’ai eu envie de changement et de sujets plus appliqués, plus en prise avec les enjeux de société. J’avais besoin de sortir de la théorie pure. J’ai passé ce cap en 2004. Et j’ai commencé à m’intéresser à ce que l’on appelait, encore à l’époque, les virus ; en gros, des programmes capables de se reproduire, de se dupliquer. Dans le mot « virus », il y a toujours eu le côté malveillant, mais ce qui m’intéressait, c’était le côté théorique de la reproduction de programme.
Finalement, je me suis passionné pour le sujet. J’étais déjà au Loria (Laboratoire lorrain de recherche en informatique et ses applications) que j’ai dirigé à partir de 2012 pendant onze ans. J’ai commencé à étudier les virus et à travailler avec de vrais programmes malveillants. D’ailleurs, la direction du laboratoire de l’époque s’était inquiétée, je pense à juste titre, de nos activités. Elle avait peur qu’à force d’exécuter des programmes malveillants sur nos ordinateurs pour comprendre comment ils fonctionnaient, ils puissent passer sur le réseau national de télécommunications pour la technologie, l’enseignement et la recherche (Renater) et qu’on soit bannis de la recherche publique à vie ! J’exagère, bien sûr, mais on a tout de même eu l’idée de construire une plateforme de recherche qu’on appelle maintenant le laboratoire de haute sécurité (LHS) et qui est un lieu qui se trouve au sous-sol de notre bâtiment. Il permet d’analyser les virus en toute sécurité, car il a son propre réseau qui n’est connecté à aucun autre. Les travaux ont continué et ont pris petit à petit de l’ampleur, notamment en termes de financement de la recherche.
Aujourd’hui on n’utilise plus le terme de « virus », on parle plutôt de programmes « malveillants » (malware en anglais). On va également parler de « rançongiciels », d’infostealers (« voleurs d’information »), des logiciels créés dans le but de pénétrer les systèmes d’information et d’y voler des informations sensibles ; de « bots espions »… Il existe également des stalkerwares, des logiciels installés sur un smartphone par exemple, qui permettent de suivre l’activité de ce dernier et suivre à la trace les déplacements d’une personne.
Parlons plus en détail des « rançongiciels » : qu’est-ce que c’est ?
J.-Y. M. : Un « rançongiciel », c’est un programme malveillant qui va s’infiltrer à l’insu de la victime et dont l’objectif est soit d’exfiltrer des données, soit de les chiffrer de manière à demander une rançon, soit de faire les deux. On parle souvent des attaques avec chiffrement de données, car elles peuvent bloquer une organisation entière et empêcher le travail d’une entreprise ou d’une organisation publique. Il ne faut pas pour autant négliger la simple, si je peux dire, exfiltration qui est également beaucoup utilisée avec un levier de pression et un discours assez simple de la part de l’attaquant : « On a des informations personnelles, si tu ne payes pas, on divulgue. » La victime peut être une personne ou une entreprise ou un organisme comme un hôpital, une université, une administration, par exemple.
Les cibles sont donc multiples…
J.-Y. M. : Je pense que le premier élément à bien comprendre, c’est que la plupart des attaques sont extrêmement opportunistes, cela signifie que tout le monde est potentiellement une cible.
Les grosses entreprises peuvent être particulièrement visées parce que l’on peut espérer extorquer des rançons beaucoup plus grosses et gagner beaucoup plus d’argent que si l’on s’attaquait à une PME. C’est plus difficile et également plus risqué dans le sens où la police va très probablement intervenir.
L’exemple d’école, c’est l’attaque, en 2021, sur l’entreprise américaine Colonial Pipeline qui opère un réseau d’oléoducs à partir du Texas vers le sud-est des États-Unis. Il s’agissait de la plus grande cyberattaque contre une infrastructure pétrolière de l’histoire des États-Unis menée par le groupe DarkSide. L’entreprise avait payé une rançon de 75 bitcoins, soit à l'époque environ 4 millions de dollars. Somme en partie retrouvée par les autorités américaines. DarkSide a ensuite déclaré cesser toutes ses opérations sous les pressions américaines.
Plus généralement, les cibles dépendent des politiques des groupes de cybercriminels : certains vont se spécialiser dans des cibles visibles à gros revenus et d’autres vont plutôt attaquer des « petits poissons » à petit revenu.
Vous parlez de groupes, or, dans l’imaginaire collectif, le pirate informatique est plutôt seul dans sa cave, qu’en est-il dans la réalité ?
J.-Y. M. : C’est rarement une personne seule qui va mener une attaque. En général, ce sont des groupes. C’est un modèle que la police appelle « ransomware as a service ». Ces groupes offrent un service clé en main pour mener une attaque par rançongiciel. On parle plus généralement de « malware as a service » voire de « crime as a service ».
Il ne faut pas imaginer une organisation qui ressemblerait à une entreprise classique. Ce sont des groupes assez diffus, dont les membres ne se connaissent pas forcément de manière physique et qui vont offrir différents services qui peuvent être séparés :
uniquement l’accès initial à un ordinateur spécifique ;
acheter un rançongiciel ;
avoir un accès à des services de négociation qui vont faciliter la négociation de la rançon.
Il est également possible de s’offrir des services de stockage de données, car si une attaque a pour but d’exfiltrer de grosses quantités de données, il faut pouvoir les stocker et montrer à sa cible qu’on a réellement ces données. À ce propos, certains groupes utilisent ce qu’ils appellent des « murs de la honte » où ils vont afficher sur des sites des informations confidentielles d’une entreprise, par exemple, sur le dark web.
En bas de l’échelle, on trouve ce que l’on appelle des « affiliés », ce sont les petites mains. On parle même d’« ubérisation de la cybercriminalité ». Ce sont eux qui vont lancer les attaques en utilisant les services du groupe. Si l’attaque réussit et que la cible paye, la rançon est partagée entre le groupe et les affiliés.
Si on va à l’autre bout de l’échelle, on connaît quelques leaders comme celui de Conti, un groupe de pirates basé en Russie. Ce dernier est connu sous les pseudonymes de Stern ou Demon, et agit comme un PDG. Des travaux universitaires ont même montré son modèle de management. Il semble qu’il fasse du micromanagement, où il tente de régler tous les problèmes entre ses « employés » et de contrôler toutes les tâches qu’ils effectuent sans très grande anticipation.
Maintenant que l’on connaît mieux l’écosystème criminel, expliquez-nous comment, techniquement, on peut entrer dans un système ?
J.-Y. M. : On peut diviser ça en grandes étapes.
La première, c’est la plus diffuse, c’est la reconnaissance de la cible. Essayer d’avoir la meilleure connaissance possible des victimes potentielles, tenter de savoir s’il y a des vulnérabilités, donc des endroits où l’on pourrait attaquer. Un autre aspect est de bien connaître les revenus de la cible pour, in fine, adapter la rançon.
Une fois ce travail réalisé, il faut réussir à obtenir un premier accès dans le réseau. C’est souvent la partie la plus complexe et elle est faite, généralement par une personne physique derrière son ordinateur. Pas besoin d’être nombreux pour cette étape. Ce qui fonctionne le mieux, c’est l’ingénierie sociale. On va chercher à manipuler une personne pour obtenir une information en exploitant sa confiance, son ignorance ou sa crédulité.
Prenons un exemple, avec votre cas, imaginons que l’on cherche à infiltrer le réseau de The Conversation et que l’attaquant vous connaisse. Il sait que vous êtes journaliste scientifique et toujours à l’affût d’un bon sujet à traiter. Il va donc vous envoyer un mail qui va vous dire : « Regardez, je viens de publier un excellent article scientifique dans une grande revue, je pense que cela ferait un très bon sujet pour votre média, cliquez ici pour en prendre connaissance. »
À ce moment-là, vous cliquez et vous arrivez sur un site qu’il contrôle et qui va vous forcer à télécharger un logiciel malveillant. Ce type de technique peut fonctionner sur énormément de personnes à condition de connaître le bon moyen de pression.
Dans le cas que l’on vient de prendre, il s’agissait d’une attaque bien ciblée. On peut aussi prendre le cas inverse et envoyer un très grand nombre d’emails sans ciblage.
Le cas classique est ce mail, que vous avez peut-être déjà reçu, venant soi-disant de la police et qui vous indique que vous avez commis une infraction et que vous devez payer une amende. Le gros problème, c’est que c’est devenu plus facile de rédiger des mails sans faute d’orthographe ni de grammaire grâce aux outils d’IA. Détecter le vrai du faux est de plus en plus complexe.
Donc la meilleure manière est de s’attaquer à un humain ?
J.-Y. M. : Oui, ça marche bien, mais il y a d’autres manières d’attaquer. L’autre grand vecteur, c’est ce qu’on appelle les vulnérabilités : tous les bugs, donc les erreurs, que vont faire une application ou un système d’exploitation. On peut exploiter les bugs de Windows mais aussi les bugs d’applications comme Firefox, Safari ou Chrome. Trouver une vulnérabilité, c’est vraiment le Graal pour un attaquant parce que cela va être relativement silencieux, personne ne peut s’en rendre compte tout de suite. À la différence d’une personne piégée qui pourrait se rendre compte de la supercherie.
Concrètement, une vulnérabilité qu’est-ce que c’est et comment l’exploiter ?
J.-Y. M. : Une vulnérabilité, c’est un bug – je pense que tout le monde en a entendu parler. Un bug, c’est quand une application va faire une erreur ou avoir un comportement anormal.
Alors, comment ça marche ? L’idée est que l’attaquant va envoyer une donnée à un programme. Et, à cause de cette donnée, le programme va commettre une erreur. Il va interpréter cette donnée comme une donnée à exécuter. Et là, évidemment, l’attaquant contrôle ce qui est exécuté. L’exploitation de vulnérabilité est une illustration de la dualité donnée/programme qui est constitutive et au cœur de l’informatique, dès ses origines.
J’aimerais également citer une autre grande manière d’attaquer : une « attaque supply chain », en français « attaque de la chaîne d’approvisionnement , appelée aussi « attaque de tiers ». C’est une attaque absolument redoutable. Pour comprendre, il faut savoir que les programmes, aujourd’hui, sont extrêmement complexes. Une application d’une entreprise particulière va utiliser beaucoup de programmes tiers. Donc il est possible de réaliser des attaques indirectes.
Je reprends votre cas, imaginons que quelqu’un qui vous connaisse cherche à vous attaquer, il sait que vous êtes journaliste, il se dit que vous utilisez probablement Word, il peut donc étudier les dépendances de cette application à d’autres programmes et voir si ces derniers ont des failles. S’il arrive à installer une backdoor (une porte dérobée est une fonctionnalité inconnue de l’utilisateur légitime, qui donne un accès secret au logiciel) chez un fournisseur de Word pour y installer un logiciel malveillant, alors, à la prochaine mise à jour que vous allez effectuer, ce dernier arrivera dans votre logiciel et, donc, dans votre ordinateur.
La grande attaque de ce type que l’on peut donner en exemple est celle menée par Clop, un groupe russophone qui s’est attaqué à MoveIt, un logiciel de transfert de fichiers sécurisé. Ils ont compromis ce logiciel-là directement chez le fournisseur. Donc tous les clients, quand ils ont mis à jour leur logiciel, ont téléchargé les malwares. Il y a eu des dizaines de millions de victimes dans cette affaire. Si des criminels réussissent un coup pareil, c’est le véritable jackpot, ils peuvent partir vivre aux Bahamas… ou en prison.
Et une fois que l’attaquant est entré dans un ordinateur, que fait-il ?
J.-Y. M. : Une fois que l’on est dedans, on passe au début de l’attaque. On va essayer de ne pas être visible, donc de désactiver les systèmes de défense et de multiplier les backdoors, les points d’accès. Car, si l’un est repéré, on pourra en utiliser un autre. Typiquement, si un attaquant a piraté votre ordinateur, il peut créer un nouvel utilisateur. Il va ensuite créer une connexion sécurisée entre son ordinateur et le vôtre. Il a accès à l’ordinateur, et peut donc y installer les logiciels qu’il veut.
Ensuite, il va explorer et voir, si votre machine est connectée à un réseau d’entreprise et donc s’il peut se déployer et aller chercher des informations sensibles par exemple. Cela peut être la liste de tous vos clients, des résultats financiers, des documents de travail, dans le but de faire de l’exfiltration. S’il peut se déployer, l’attaque devient globale. Ici, on parle vraiment d’une personne qui explore le réseau en toute discrétion pendant des jours, des semaines voire des mois. Les données sont exfiltrées au compte-gouttes, car les systèmes de défense sont capables de détecter de gros flux de données et de comprendre qu’il y a une attaque.
Si l’idée du cybercriminel est plutôt de faire une attaque par chiffrement, qui va empêcher l’entreprise d’accéder à ses données, il doit éliminer les sauvegardes. Une fois que c’est fait, le chiffrement de toutes les données peut être lancé et la demande de rançon va être envoyée.
Et que se passe-t-il après cette demande ?
J.-Y. M. : Le groupe va contacter la cible en lui expliquant qu’il vient d’être attaqué et va lui demander de se connecter à un portefeuille numérique (wallet) pour payer ce qu’on lui demande, en général, en bitcoins. Souvent, à ce moment-là, une négociation va démarrer. Une hotline est, parfois, mise en place par les pirates pour communiquer. Les groupes organisés ont des services voués à cette opération.
L’attaquant tente de vendre la clé de déchiffrement – c’est la rançon –, ou bien menace de diffuser des données volées. Il y a d’ailleurs énormément de transcriptions d’échanges en ligne.
D’après les recherches que j’ai pu effectuer, il y aurait environ 60 % des gens qui paient, mais c’est très compliqué d’avoir les vrais chiffres.
La première chose à faire est de déclarer à la gendarmerie ou à la police la cyberattaque subie. En parallèle, il y a aujourd’hui dans chaque région des centres qui ont été mis en place d’aide aux victimes. Ainsi, il y a des choses à faire au moment de la négociation : demander au pirate de décrypter une partie des données, juste pour montrer qu’il est capable de le faire, parce qu’on a déjà vu des cas où les attaquants ne sont pas, disons, très professionnels et ils sont incapables de déchiffrer les données.
Il faut également s’assurer que si l’attaquant s’est servi d’une backdoor, il n’en a pas laissé une autre pour une future attaque. Cela s’est déjà vu et c’est au service informatique, lorsqu’il va tout réinstaller, de vérifier cela. Ensuite, si des données ont été exfiltrées, vous ne pouvez jamais savoir ce que va en faire l’attaquant. Les mots de passe qui sont exfiltrés peuvent être utilisés pour commettre une nouvelle cyberattaque, vous pouvez faire confiance à un cybercriminel pour cela. Personnellement, j’ai lu suffisamment de livres policiers pour ne pas avoir envie de faire confiance à un bandit.
On a finalement vu toute la chaîne de l’attaque, mais quel est votre rôle en tant qu’universitaire et responsable du projet DefMal du PEPR cybersécurité dans cet écosystème ?
J.-Y. M. : Il y a deux volets qui ont l’air d’être séparés, mais vous allez vite comprendre qu’ils s’articulent très facilement.
Il y a un volet que l’on pourrait qualifier de très informatique, qui consiste à construire des défenses : des systèmes de rétro-ingénierie et de détection. L’objectif est, par exemple, de déterminer si un programme est potentiellement malveillant.
Plusieurs approches sont explorées. L’une d’elles consiste à utiliser des méthodes d’apprentissage à partir d’exemples de malware et de goodware. Cela suppose d’être capable d’extraire, à partir du binaire, des caractéristiques précisant la sémantique du programme analysé. Pour cela, nous combinons des approches mêlant méthodes formelles, heuristiques et analyses dynamiques dans un sandbox (bac à sable, un environnement de test).
Une difficulté majeure est que les programmes sont protégés contre ces analyses par des techniques d’obfuscation qui visent à rendre leur fonctionnement délibérément difficile à comprendre.
L’un des enjeux scientifiques est donc de pouvoir dire ce que fait un programme, autrement dit, d’en retrouver la sémantique. Les questions soulevées par la défense contre les logiciels malveillants – par exemple, expliquer le comportement d’un programme – exigent une recherche fondamentale pour obtenir de réels progrès.
Au passage, on a un petit volet offensif. C’est-à-dire qu’on essaie aussi de construire des attaques, ce qui me paraît important parce que je pense qu’on ne peut bien concevoir une défense qu’à condition de savoir mener une attaque. Ces attaques nous servent également à évaluer les défenses.
Pour vous donner un exemple, je peux vous parler d’un travail en cours. C’est un système qui prend un programme normal, tout à fait bénin, et qui prend un programme malveillant, et qui va transformer le programme malveillant pour le faire ressembler au programme bénin ciblé afin de lui faire passer les défenses qui s’appuient sur l’IA.
J’ai donc parlé de la partie informatique, mais il y aussi tout le volet sur l’étude de l’écosystème actuel qui m’intéresse particulièrement, qui est un travail passionnant et interdisciplinaire. Comment les groupes sont-ils organisés, quel est le système économique, comment les groupes font-ils pour blanchir l’argent, quel type de management ? Une autre grande question que l’on se pose, c’est celle de savoir comment les cybercriminels vont s’approprier l’IA. Comment anticiper les prochains modes opératoires ?
On va aussi aller explorer le dark web pour récupérer des discussions entre criminels pour mieux comprendre leurs interactions.
Vous arrive-t-il d’aider la police sur des enquêtes en particulier ?
J.-Y. M. : On ne nous sollicite jamais sur des attaques concrètes. Une enquête doit être faite dans un cadre légal très strict.
Nous entretenons de bonnes relations avec tout l’environnement de lutte contre les cybercriminels (police, gendarmerie, armée, justice…). Ils suivent nos travaux, peuvent nous poser des questions scientifiques. On a des intérêts communs puisqu’une partie de nos travaux de recherche, c’est de comprendre l’écosystème de la cybercriminalité.
Je vous donne un exemple : sur le dark web, un forum qui permettait d’échanger des logiciels malveillants a été bloqué. Nous en tant que chercheurs, on va essayer de comprendre l’impact réel de cette action, car, d’ici plusieurs mois, il y aura sans doute un nouveau forum. Les relations entre les groupes cybercriminels et les services de certains États font partie aussi de nos questions actuelles.
Une autre question scientifique à laquelle on peut répondre, c’est lorsque l’on découvre un nouveau logiciel, savoir à quoi on peut le comparer, à quelle famille. Cela ne nous donnera pas le nom du développeur mais on pourra le rapprocher de tel ou tel groupe.
On commence également à travailler sur le blanchiment d’argent.
Pour aller plus loin, vous pouvez lire l’article de Jean-Yves Marion, « Ransomware : Extortion Is My Business », publié dans la revue Communications of the ACM.
Jean-Yves Marion a reçu des financements de l'ANR et de l'Europe. Il travaille détient des parts dans CyberDetect et Cyber4care.
17.09.2025 à 12:42
Elisa Cliquet Moreno, Chef de projet réutilisation, Centre national d’études spatiales (CNES)
Une nouvelle course à l’espace est en cours. Depuis 2013, Space-X, le principal concurrent d’Ariane, est capable de récupérer et réutiliser le premier étage de sa fusée Falcon 9 et travaille à rendre sa super fusée Starship entièrement réutilisable.
De nombreux acteurs cherchent à acquérir cette technologie, qui permet de réduire les coûts et d’améliorer la versatilité et la flexibilité d’un système de lancement. En effet, alors qu’un lanceur (ou fusée) est constitué de plusieurs étages, le premier étage — le plus puissant pour lutter contre la gravité et la traînée aérodynamique — est aussi le plus cher. Le récupérer et le remettre en état peut être moins cher que d’en fabriquer un neuf à chaque lancement.
La réutilisation est un indéniable atout de compétitivité à l’heure où la concurrence mondiale augmente dans le domaine des lanceurs.
Le CNES (Centre national d’études spatiales) a, depuis 2015, mis en place une feuille de route articulée autour de plusieurs prototypes de démonstration. Ceux-ci visent à maîtriser les différentes briques technologiques et les nouvelles « phases de vie » des lanceurs liées à la réutilisation : il faut pouvoir guider la phase de retour, atterrir verticalement, puis « remettre en sécurité » l’étage récupéré avec des robots, c’est-à-dire vidanger les fluides sous pression qu’il contient encore pour permettre l’accès à des opérateurs dans des conditions de sécurité optimales.
Après des essais au sol réussis en France en 2024, c’est un prototype d’étage à bas coût et réutilisable qui a rejoint au début de cet été son pas de tir à Kiruna, en Suède.
La première brique fondamentale est de disposer d’un moteur réallumable et dont la poussée peut s’adapter en cours du vol pour permettre à la fois un décollage « à fond », pour faire décoller le lanceur plein, mais également permettre un atterrissage tout en douceur du premier étage quasiment vide : il faut pour cela un moteur capable de fonctionner sur une large plage de poussée.
À lire aussi : Ariane 6 et les nouveaux lanceurs spatiaux, ou comment fabriquer une fusée aujourd'hui
Le démonstrateur (ou prototype) Prometheus® a donc naturellement fait l’objet de la première démonstration, initiée sous l’impulsion du CNES dès 2015. Fonctionnant à l’oxygène liquide et au biométhane liquide (plus propre et mieux adapté à la réutilisation que le kérosène ou l’hydrogène), capable de fournir une poussée allant de 30 à 110 % de son point de fonctionnement de référence à 1000 kilonewtons, il est le précurseur d’une nouvelle génération de moteurs réutilisables à bas coût. Grâce à l’impression 3D, il est composé de 50 % de pièce en moins qu’un moteur conventionnel. Le but est que Prometheus® soit réutilisable au minimum 5 fois (le nombre de réutilisations pour assurer l’intérêt économique de la récupération est une variable qui dépend de chaque système de lancement).
Testé avec succès courant 2024 chez ArianeGroup à Vernon, dans l’Eure, le premier exemplaire de Prometheus® a été monté sur le premier prototype européen d’étage réutilisable à oxygène et méthane liquides, Thémis T1H.
Ce démonstrateur n’est pas un lanceur complet mais juste un premier étage. Il a quitté le site d’ArianeGroup en France le 12 juin dernier pour rejoindre le pas de tir suédois. Là, Thémis T1H doit d’abord subir des essais combinés avec ses robots de remise en sécurité avant de réaliser un « hop » de quelques dizaines de mètres.
T1H, qui mesure plus de 30 mètres de haut pour environ 30 tonnes, va permettre de valider les grands principes des opérations liées à la réutilisation à une échelle représentative d’un petit lanceur. Seront en particulier scrutées les phases d’atterrissage et de remise en sécurité.
Un autre prototype Thémis, plus ambitieux, est en cours d’étude.
Le démonstrateur CALLISTO, fruit d’une coopération entre le CNES, les agences spatiales japonaise JAXA et allemande DLR, marque un saut en complexité.
Ce démonstrateur de 13 mètres de haut, tout juste plus d’un mètre de diamètre et environ 4 tonnes au décollage, malgré son échelle réduite, porte toutes les fonctions et la complexité d’un futur premier étage de lanceur réutilisable. Pour illustrer les défis technologiques à relever avec CALLISTO, citons par exemple la manœuvre de « retournement » parmi tant d’autres : après une phase de montée comme une fusée normale, l’étage doit rapidement changer d’orientation pour revenir vers son pas de tir ce qui « secoue » les ergols dans les réservoirs au point que, sans précaution particulière, le liquide se déplace, se mélange avec le gaz, se réchauffe, et pourrait ne plus alimenter le moteur qui doit pourtant être rallumé ensuite pour freiner l’étage.
CALLISTO est conçu pour voler dix fois, être capable de monter à plus de dix kilomètres d’altitude et effectuer une manœuvre complexe lui permettant de se retourner rapidement vers son pas d’atterrissage, situé juste à côté de son pas de tir sur l’Ensemble de Lancement Multi-Lanceurs (ELM — Diamant) au Centre Spatial Guyanais, à Kourou. Les vols de CALLISTO permettront ainsi de valider de nouveaux algorithmes pour le GNC (Guidage Navigation Pilotage), une autre brique cruciale pour la réutilisation.
De nombreux éléments de CALLISTO sont déjà fabriqués et en cours d’essai, notamment les pieds, certaines structures clés, et des équipements avioniques. Les trois partenaires du programme contribuent de manière égalitaire à sa réalisation : la JAXA fournit par exemple le moteur, le DLR les pieds, et le CNES réalise les études système et le segment sol.
Des essais à feu de l’ensemble propulsif sont prévus mi-2026 au centre d’essai de Noshiro au Japon avant l’envoi de CALLISTO au Centre Spatial Guyanais pour ses premiers essais au second semestre 2026.
Les vols de CALLISTO, qui commenceront par des petits « sauts » (hops) à basse altitude seront de plus en plus ambitieux : ils culmineront à plus de dix kilomètres d’altitude et franchiront Mach 1.
La dernière étape de la feuille de route consistera à démontrer la récupération puis un second vol de l’étage récupéré, directement sur un mini lanceur opérationnel, lors d’un de ses vols commerciaux. C’est ArianeGroup & MaiaSpace qui ont été retenus pour mener à bien ce projet, baptisé Skyhopper, qui sera testé en Guyane.
Une fois la mission principale du premier étage achevée, celui-ci sera séparé du deuxième étage à une altitude d’environ 50 kilomètres : il effectuera alors une manœuvre de ré-orientation, déploiera ses gouvernes aérodynamiques, rallumera ses moteurs pour un boost de freinage.
S’en suivra une phase planée, pendant laquelle l’étage sera dirigé grâce à ses gouvernes aérodynamiques, puis un dernier rallumage du moteur, le déploiement des pieds et enfin l’atterrissage vertical sur une barge maritime située à quelques centaines de kilomètres des côtes guyanaises.
L’étage sera alors stabilisé et remis en sécurité de façon autonome par des robots puis la barge sera tractée jusqu’au port de Pariacabo en Guyane. Une fois inspecté et remis en état, cet étage sera assemblé sur un autre lanceur qui décollera pour une nouvelle mission vers l’orbite achevant ainsi la démonstration avant la fin de la décennie.
À lire aussi : Adieu Ariane 5 ! Retour sur ses plus belles missions
Cette feuille de route, qui s’appuie à la fois sur des programmes de l’Agence Spatiale Européenne (ESA) (Prometheus® et Thémis ont été initié par le CNES puis sont entrés dans le périmètre du « Future Launcher Preparatory Programme » de l’ESA respectivement en 2016 et 2019) et des programmes nationaux (Skyhopper) ou dans une coopération multilatérale (CALLISTO), a bénéficié également d’un solide support de multiples activités de Recherche et Technologies menées au niveau national, permettant de valider en amont et à petite échelle des concepts peu matures comme l’impression 3D permettant ensuite d’optimiser la conception et la fabrication du moteur Prometheus®.
La France et ses partenaires sont donc en ordre de bataille pour relever les défis de la réutilisation du premier étage d’un lanceur.
Elisa Cliquet Moreno est membre de l'Association Aéronautique et Astronautique de France (présidente de la commission transport spatial)
17.09.2025 à 12:42
Mathieu Beraneck, Directeur de Recherche CNRS en Neurosciences, Centre national de la recherche scientifique (CNRS), Université Paris Cité, George Washington University
Avec 15 à 30 % de la population concernée en France, les vertiges et les troubles de l’équilibre sont un enjeu de santé publique qui nécessite d’investir dans l’enseignement et dans la recherche.
Perdre l’équilibre, sentir le sol se dérober, avoir la tête qui tourne, percevoir l’environnement comme instable et mouvant… les troubles de l’équilibre et les vertiges sont très fréquents : ils concerneraient 1 million de patients chaque année en France, touchent entre 15 et 30 % de la population générale avec une prévalence de 85 % chez les personnes âgées de plus de 80 ans, et constituent une source de dépense importante pour les systèmes de santé, estimée à 2 ou 3 % en France par les spécialistes du CNRS.
Que se passe-t-il dans notre cerveau lorsque l’on vacille sans raison apparente, et que même se tenir debout semble si difficile ? Derrière ces sensations se cache un système aussi précis que méconnu : le système vestibulaire, et les organes de l’équilibre nichés dans l’oreille interne. Le cerveau, sans cesse en alerte, utilise ces sensations vestibulaires avec la vision et la proprioception — ces sensations du corps provenant des muscles, tendons, de la peau — pour maintenir l’équilibre et nous orienter dans l’espace, même dans des situations extrêmes : obscurité, transports, apesanteur.
Comment fonctionne le sens de l’équilibre, et surtout que se passe-t-il quand on est pris de vertiges ?
Apparus très tôt dans l’évolution, avant même la cochlée, le système vestibulaire est très conservé chez les vertébrés. Chez l’homme, ses organes sont au nombre de dix : cinq dans chaque oreille !
Trois canaux semi-circulaires détectent les rotations de la tête, alors que deux organes otolithiques détectent les accélérations linéaires et, un peu à la manière d’un fil à plomb, l’orientation par rapport à la gravité. Lorsque nous bougeons la tête, le mouvement stimule des cellules ciliées qui, comme les algues dans la mer, se déplacent conjointement en activant le nerf vestibulaire (nerf VIII, vestibulo-cochléaire), transformant ainsi un mouvement en influx nerveux.
Cette information rejoint le cerveau au niveau du tronc cérébral (qui rassemble de nombreuses fonctions essentielles à la survie, comme la régulation de la respiration, du rythme cardiaque, du sommeil). Les informations issues de l’oreille interne sont importantes pour l’équilibre, mais aussi pour d’autres fonctions réflexes comme la stabilisation du regard et de la posture, et des fonctions plus cognitives comme l’orientation et la perception de son corps dans l’espace, ou encore la navigation, et de manière générale pour la capacité à habiter son corps et à se situer dans un environnement physique, mais aussi social.
Les neurones vestibulaires du tronc cérébral fusionnent les informations vestibulaires à d’autres informations sensorielles visuelles et proprioceptives. Le sens de l’équilibre est donc en fait une fonction « multi-sensorielle » : il est bien plus difficile de tenir debout les yeux fermés, ou pieds nus sur un tapis en mousse. D’autres informations en provenance du cortex, du cervelet, de la moelle épinière viennent également moduler l’activité des neurones vestibulaires et participent donc à créer la sensation de l’équilibre.
Il est aussi intéressant de noter que l’équilibre est un sens « caché ». En effet, l’oreille interne ne crée pas de sensation consciente : on a conscience de voir, d’entendre, de sentir, mais on ne se sent pas en équilibre. L’équilibre est une fonction si essentielle que le cerveau la traite en tâche de fond, de manière réflexe, afin de nous permettre de vaquer à nos occupations sans devoir constamment penser à tenir debout. C’est seulement dans des situations instables que nous prenons conscience de la précarité de notre bipédie : nous avons en fait un sens inconscient de l’équilibre qui devient — si nécessaire — une perception consciente du déséquilibre !
À lire aussi : Proprioception et équilibre : notre « sixième sens » varie d’un individu à l’autre
Les vertiges apparaissent quand le cerveau reçoit des informations discordantes, et n’arrive plus à correctement déterminer si le corps est stable, en mouvement, ou si c’est l’environnement qui bouge.
Au repos, les deux vestibules envoient en permanence au tronc cérébral des signaux équilibrés. Lors de mouvements dans une direction, un côté voit son activité augmentée, et l’autre diminuée. Le cerveau déduit la rotation de cette activation différentielle. Lorsque, du fait d’une pathologie, les vertiges surviennent, les signaux des deux complexes vestibulaires deviennent asymétriques même au repos : ce signal neural erroné conduit donc à une illusion de mouvement, et à des réflexes posturaux générés pour contrebalancer ces sensations vertigineuses.
En fonction des pathologies, les sensations vertigineuses peuvent se révéler très variables. Elles traduisent cependant toujours le fait qu’il existe un déséquilibre qui, provenant de l’oreille interne ou d’une autre partie du système nerveux central, empêche désormais le cerveau de correctement référencer la position et les mouvements du corps dans l’espace.
Avec l’âge, l’ensemble des systèmes impliqués dans l’équilibre perdent en précision : les acuités visuelles et proprioceptives diminuent, ainsi que la force musculaire, et souvent l’activité décroît. À partir de ces informations globalement moins précises, il devient plus difficile pour le cerveau de contrôler la position du corps dans l’espace. Les risques de chute, avec leurs conséquences potentiellement dramatiques, augmentent.
Pour les patients pris de vertiges, quel que soit leur âge, la perte de contrôle est angoissante : se tenir debout ou marcher devient une tâche dangereuse et épuisante.
Les causes des vertiges et des troubles de l’équilibre sont variées : pathologies neurologiques (traumatismes, AVC, sclérose en plaques), atteintes de l’oreille interne (vertige positionnel bénin, maladie de Ménière, labyrinthite), du nerf vestibulaire (névrite, neurinome), ou du cortex (migraine vestibulaire). Le diagnostic repose sur l’examen clinique et l’interrogatoire, mais la diversité des causes complique la prise en charge.
La rééducation vestibulaire menée par des kinésithérapeutes spécialisés aide le cerveau à compenser les signaux erronés en s’appuyant sur les informations sensorielles visuelles et proprioceptives (on parle de substitution sensorielle), et sur le contrôle moteur volontaire, restaurant ainsi la confiance dans le mouvement.
En effet, les recherches menées ces dernières années ont montré que lors de mouvements volontaires, le cerveau peut prédire, anticiper les conséquences du mouvement et ce faisant affiner le codage vestibulaire : continuer à bouger et solliciter son corps et son cerveau est donc essentiel pour aider à résoudre les vertiges.
Bien qu’il existe quelques ORL spécialisés et des kinésithérapeutes vestibulaires pour ce type de rééducation, les soignants sont globalement insuffisamment formés aux vertiges, et les centres d’explorations fonctionnelles et de prise en charge spécialisés sont trop peu nombreux, et géographiquement mal répartis. Cette situation conduit souvent à une longue errance diagnostique : plusieurs mois, voire des années, peuvent séparer les premiers symptômes et la prise en charge effective du patient.
À lire aussi : Chutes, rééducation… : la réalité virtuelle au service de l’équilibre ?
Autre difficulté, le vestibule est difficile à observer : les organes vestibulaires, de petite taille, sont logés dans l’os temporal et peu accessibles à l’examen. L’imagerie médicale progresse mais elle reste l’apanage des rares centres spécialisés. D’où un besoin urgent de mieux informer, former, structurer le parcours de soins, et investir dans la recherche et les traitements innovants.
Le groupement de recherches CNRS « Vertiges » a réuni pendant dix ans ORL, neurologues, radiologues, kinésithérapeutes et chercheurs pour améliorer la compréhension des pathologies et ainsi la prise en charge des patients. Cette amélioration passera par une meilleure description des mécanismes physiopathologiques : dans la majorité des cas, les causes initiales de la maladie restent en effet inconnues.
Les chercheurs travaillent à la mise au point de modèles comme les organoïdes, des cellules en culture reproduisant certains aspects d’un organe (ici les organes de l’oreille interne) pour des tests pharmacologiques. Ils développent également des modèles animaux qui permettent de comprendre les mécanismes cellulaires et multisensoriels de la compensation vestibulaire, ou de reproduire les maladies génétiques à l’origine de surdités congénitales et de troubles de l’équilibre chez l’enfant, afin de mettre au point de nouvelles options thérapeutiques comme la thérapie génique.
Des initiatives sont également en cours pour pérenniser ces recherches via des regroupements régionaux, comme en Île-de-France le pôle « Paris Vestibulaire », et la mise en place prochaine au niveau national d’un Institut de Recherche sur l’Équilibre et les Vertiges qui poursuivra la dynamique créée au sein de la communauté des soignants, chercheurs et enseignants-chercheurs en otoneurologie vestibulaire.
La « Semaine de l’équilibre et du vertige » (14-21 septembre 2025) sensibilise aux États-Unis, en Europe et au Maghreb à ces pathologies vestibulaires, sous l’impulsion en France d’un Groupement de Recherche du CNRS. L’objectif de cette communauté : mieux soutenir les patients, faire connaître les enjeux scientifiques et médicaux et structurer l’enseignement et la recherche sur le sujet.
Mathieu Béraneck participera à un échange sur le thème « Vertiges, quand le cerveau perd l’équilibre » le samedi 27 septembre, dans le cadre de l’événement scientifique Sur les épaules des géants qui se tient du 25 au 27 septembre au Havre.
Mathieu Beraneck est Directeur de recherche au Centre National de la Recherche Scientifique. Il est responsable d'équipe à l'université Paris Cité, et professeur associé à la George Washington University. Il a reçu pour ses recherches des financements de l'Agence National de la Recherche (ANR), du Centre National d'Etudes Spatiales (CNES), et de l'Université Paris Cité.
17.09.2025 à 12:22
Zuzanna Staniszewska, Assistant Professor in the Management Department at Kozminski University; Research Associate, ESCP Business School
Géraldine Galindo, Professeur, ESCP Business School
Nowadays, media often celebrate the “girlboss” – the entrepreneur who works 80-hour weeks to build her brand and success – while corporate campaigns show women who “lean in” in the boardroom and maintain flawless family lives. These cultural ideals create the illusion that women in leadership are more empowered than ever. However, our research shows that some of them feel exhausted, constrained by expectations, and pressured to embody an ideal that leaves little space for vulnerability. This tension is linked to a relatively new form of feminism that may not be as empowering as it purports to be.
The term neoliberal feminism was first introduced by media and cultural studies scholar Catherine Rottenberg in 2013. Rottenberg used it to describe the growing fusion between a form of feminism focused on individual empowerment and the logic of neoliberal rationality, which holds, according to political theorist Wendy Brown, that “all aspects of life should be understood in economic terms”.
This strand of feminism acknowledges the persistence of gender inequalities, particularly in the masculine-dominated world of leadership, but places the responsibility for overcoming them on individual women, urging them to self-optimize and constantly assert their value. But beneath this responsibility lies a new kind of pressure – to not only assert their value to men, but to other women. This pressure doesn’t come from traditional patriarchy, but from internalized bias among women. It fuels what we, combining terms from popular and academic literature, call “superwoman impostor phenomenon” – a sense of not being enough that is caused by conflicting and unrealistic expectations.
To explore this phenomenon, we conducted 20 in-depth interviews between 2022 and 2023 with women in executive roles in France’s luxury sector, a setting that embodies the core expectations of neoliberal femininity: that women should lead, inspire, and look perfect – all within a male-dominated leadership context. We asked our subjects about how they build their personal brands, their daily leadership routines, the kinds of pressures they face, and how they balance professional and personal expectations.
To analyse subjects’ responses, we took a qualitative approach that combined thematic and discourse analysis, using an abductive logic that moved back and forth between data and theory. Thematic analysis helped us identify recurring patterns in participants’ accounts. Discourse analysis placed these narratives in a broader social context. It showed how cultural ideals of femininity and leadership shape the ways women talk about their experiences.
In the preliminary findings of our study, which is currently under peer review, some respondents describe feelings of pride and achievement. Others point instead to fatigue, a sense of isolation, and the pressure to live up to an impossible ideal.
Impostor phenomenon refers to a persistent feeling of self-doubt: the belief that you don’t really deserve your success. You might attribute your achievements to luck, good timing or the help of others, rather than your own competence.
The term was coined in the late 1970s by psychologists Pauline Clance and Suzanne Imes, based on their work with high-achieving women. Many of the women Clance and Imes interviewed had earned PhDs and held high positions, yet still felt like frauds. They feared they’d been admitted into graduate programmes by mistake, or that their colleagues had somehow overestimated them.
Since then, impostor phenomenon has been widely recognized (and often called “impostor syndrome”). Especially common among women, it typically comes with three parts: feeling like a fraud, fearing discovery, and struggling to believe in personal success, even while working hard to maintain it.
But something has changed. Today, the struggles and fears of women in leadership roles are no longer just about deserving their place, but about being everything at once: a visionary leader, a perfect mother, a supportive partner, an inspiring mentor, a health-conscious marathon runner, a team player who still stands out. What’s striking is that the pressure doesn’t always come from men. More often, women told us, they feared judgement from other women.
Behind what we see as a new version of impostor phenomenon is a growing body of research showing that women’s self-doubt is shaped by intra-gender competition. For instance, academic studies on the idea of the “queen bee phenomenon”, female misogyny, and micro-violence among elite women reveal how women in leadership roles may distance themselves from other women or enforce masculine norms. This is particularly relevant when considering how the internalization of neoliberal femininity transforms impostor phenomenon into something more complex. Promoted in works such as “Lean In. Women, Work, and the Will to Lead”, the 2013 book by former Facebook executive Sheryl Sandberg, neoliberal feminism frames inequality as a problem to be solved through individual empowerment, confidence and self-discipline. As a result, women fear not just being incompetent, but failing to embody the superwoman – ever-competent, ever-ambitious, and ever-in-control – and feel pressure from other women who are also performing and policing the same ideals.
What makes neoliberal feminism, along with superwoman impostor phenomenon, particularly insidious is that it disguises itself as empowerment. On the surface, “having it all” appears aspirational. But underneath lies chronic exhaustion. Several women we spoke with told us they work late into the night not because it’s expected, but because they feel they have to just to prove themselves. One executive described her early leadership experience in this way: “I didn’t ask for resources, because I wanted to prove I can do it by myself… which was a huge mistake.” This is how the superwoman ideal operates: as a self-imposed manager residing in the mind. One that tells you not only to succeed, but to do so effortlessly, without complaining, asking for help or showing vulnerability.
With regard to internalized intra-gender policing, a key tension we observed concerned motherhood: women returning from maternal leave were judged not by men, but by female managers who questioned their ambition and commitment. One woman said: “I suffered from a kind of discrimination after coming back from maternity leave, but it was with a woman, it was my female manager who said, ‘I came back in three months. If you’re serious, you’ll catch up.’ I felt judged for not bouncing back fast enough.”
The women we spoke with described feeling unsupported by female colleagues, witnessing competition instead of solidarity, and struggling with the weight of doing it all without ever showing vulnerability. As one woman put it: “Women don’t support other women because they are scared… they might lose their position to someone younger or smarter.” Borrowing a term from popular discourse, this is what we are calling the sisterhood dilemma: the internal conflict between wanting to see more women rise to leadership and feeling threatened when they do. It’s not just a failure of solidarity. It’s the byproduct of a scarcity of seats at the top, perfectionism, and the pressure to perform.
We can’t fix superwoman impostor phenomenon by teaching women to be more confident, because the issue isn’t a lack of confidence – it’s the impossible standard of always being competent and continually proving one’s value. What needs rethinking is the culture that makes women feel like impostors in the first place. That means recognising we don’t need perfect role models. We need authentic ones.
The conversation needs to shift from “how can women be more confident?” to “why is confidence required in the first place – and who gets to decide what it looks like?” We need workplaces where women can be vulnerable, authentic and visible all at once. As one executive told us, “there is a need for some kind of mask. But what if I want to take it off?”
It’s time we let her.
A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!
Zuzanna Staniszewska is affiliated with Kozminski University and ESCP Business School.
Géraldine Galindo ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
16.09.2025 à 16:45
Marlène Dulaurans, Maître de conférences en sciences de l’information et de la communication, spécialisée en criminologie appliquée au numérique, Université Bordeaux Montaigne
La mort en direct du streamer Jean Pormanove, en août 2025, illustre un système où la cruauté humaine est convertie en spectacle et se transforme en source de profit. La plateforme Kick, qui hébergeait son émission, n’est pas une exception dans le paysage du « trash streaming ».
Le 18 août 2025, Raphaël Graven, influenceur français connu sous le pseudonyme de Jean Pormanove, est mort en direct après 298 heures de diffusion ininterrompue. Sa chaîne, le Lokal, hébergée sur la plateforme Kick rassemblait près de 193 000 abonnés. Pendant douze jours, ce quadragénaire a enduré des sévices infligés par ses partenaires de live stream devant une audience massive. Bien que l’autopsie ait conclu à une cause médicale, ce drame dépasse le fait divers. Il illustre surtout un système où la cruauté humaine est convertie en spectacle et chaque instant de souffrance se transforme en source de profit.
Les circonstances de la mort de Jean Pormanove, si extrêmes soient-elles, s’inscrivent dans une histoire déjà longue de la violence médiatisée. Dès les années 2000, le phénomène du happy slapping, qui vise à filmer le passage à tabac d’une personne pour l’exhiber ensuite sur les réseaux sociaux, met en scène une véritable théâtralisation de l’agression en ligne (Marlène Dulaurans, 2024). L’acte violent cesse d’être un simple débordement pour devenir une performance destinée à un public.
Comme l’analyse Umberto Eco (2004) à propos de la « carnavalisation » des mœurs, les frontières entre spectacle et réalité s’effacent et les limites de l’outrage sont constamment repoussées. Là où le happy slapping restait à l’époque ponctuel, impulsif et plutôt confiné à des cercles adolescents, le cas Pormanove marque une bascule vers un dispositif beaucoup plus construit et planifié. Cette évolution fait écho à Zygmunt Bauman (2010), pour qui l’exposition répétée à des images de violence conduit à une désensibilisation progressive face à la cruauté. Son stream de 298 heures en constitue l’aboutissement : la violence n’est plus improvisée, mais devient un flux continu de souffrance exploité en contenus médiatiques.
Cette affaire révèle surtout la naissance d’un marché de la cruauté en ligne, où chaque coup et insulte se traduit par un don, un abonnement ou un « tip », transformant la douleur en revenus. Plus de 36 000 euros ont été récoltés au cours du dernier live stream de Jean Pormanove. Une véritable économie du sadisme numérique s’est enclenchée, reposant essentiellement sur trois piliers : la marchandisation de la vulnérabilité (Jean Pormanove devient un produit), la gamification de la violence (les dons déclenchent des sévices), et la fidélisation de l’audience par l’escalade permanente des sévices infligés.
Les spectateurs ne sont plus de simples voyeurs, mais deviennent dans ce contexte des investisseurs actifs dans la production du morbide. Jacqueline Barus-Michel (2011) soulignait que ces pratiques mêlent « violence, jouissance, voyeurisme et exhibitionnisme ». Dans l’affaire Pormanove, cette combinaison devient ici un modèle d’affaires structuré où chaque émotion négative génère de la valeur marchande et alimente un circuit économique fondé sur la souffrance.
Les deux principaux instigateurs des sévices, identifiés comme « Narutovie » et « Safine », affirment que Jean Pormanove aurait consenti à ces violences, qualifiant leur implication de participation à « une pièce de théâtre géante », avec du « contenu très trash » (RTL, 2025) mais totalement assumé. Cependant son isolement social, sa dépendance financière et la manière dont la culpabilité pouvait lui être imputée (trois éléments caractéristiques de l’emprise, selon Marie-France Hirigoyen [2003]) mettent en lumière un écosystème qui semblait exploiter ces vulnérabilités.
Dans l’affaire Pormanove, ces trois mécanismes se combinent : l’isolement progressif par des streams répétés coupant tout lien avec le monde extérieur ; la dépendance renforcée par des revenus cumulés constituant une part importante des ressources du groupe ; l’inversion de la culpabilité, où les sévices présentés comme du divertissement macabre mais consenti, transfère la responsabilité sur la victime, qui devient « complice » de sa propre exploitation.
Cette dynamique transforme le prétendu consentement en une façade légale qui semble masquer une autre réalité. Dans ce contexte, la victime apparaît comme instrumentalisée. Ses choix et sa dignité semblent conditionnés par la dynamique de groupe, la pression des pairs et l’intérêt économique. L’illusion de libre arbitre peut alors servir de justification aux auteurs des faits pour se déresponsabiliser.
Cette économie du sadisme prospère grâce à la distanciation que le numérique instaure entre l’acte violent et ses témoins. L’écran fonctionne ici comme un filtre moral qui transforme la souffrance réelle en un divertissement consommable, sans confrontation directe au visage de la victime (Christine Delory-Momberger, 2022).
Cette absence de contact, cette impossibilité de croiser le regard, voire de percevoir la vulnérabilité physique, opèrent une forme de déshumanisation. D’un côté, la victime se trouve réduite à une image sur un écran, privée de sa réalité corporelle et émotionnelle. De l’autre, le spectateur peut exercer sa cruauté par procuration sans assumer la responsabilité morale qu’imposerait une présence physique.
Le voyeurisme se trouve ainsi décomplexé par le dispositif technique. On ne torture plus une personne, on participe à un stream, on ne finance pas des sévices, on soutient un créateur de contenu. Le numérique permet ainsi à des individus ordinaires de devenir les financiers d’actes qu’ils n’oseraient jamais commettre en personne, une nouvelle forme de banalité du mal (Hannah Arendt, 1963).
La plateforme Kick incarne ce marché de la souffrance en ligne. Fondée en 2022 par les propriétaires de Stake, l’un des sites les plus importants des casinos et jeux d’argent en ligne, elle s’est positionnée comme l’anti-Twitch, misant sur l’absence de modération pour capturer les contenus interdits.
Ses dispositifs techniques (dons directs, compteurs d’audience, mécaniques de surenchères) transforment chaque interaction en incitation à intensifier la violence. Kick encourage ainsi une course vers le fond, cherchant à attirer les créateurs en abaissant ses standards éthiques, et propose des rémunérations plus avantageuses que ses concurrents, parce qu’elle accepte de monétiser ce que les autres refusent de faire.
Kick n’est toutefois pas une exception dans ce paysage de trash streaming. DLive, BitChute, ou encore Rumble, aujourd’hui inaccessible en France, sont autant de plateformes permissives accueillant des contenus tout aussi controversés. Leurs dispositifs monétisés (cryptomonnaie, financements participatifs externes, etc.) transforment également à leur manière les spectateurs en complices économiques de cette violence devenue produit.
L’inaction apparente des autorités révèle les limites du Digital Service Act face à cette économie du sadisme numérique. Avec seulement 3,5 millions d’utilisateurs en Europe, Kick reste une plateforme de taille intermédiaire qui échappe aux obligations renforcées imposées aux Very Large Online Plateformes (VLOP) fixées à partir de 45 millions d’utilisateurs. Elle aurait toutefois dû, depuis février 2024, désigner un représentant légal dans l’Union européenne, comme l’exige le DSA pour toutes les plateformes opérant sur le territoire européen. En réalité, nombre d’acteurs de taille moyenne ont longtemps tardé à se conformer à cette règle, profitant d’une zone grise de la régulation.
À cette faille juridique s’ajoutent la complexité technique et la dilution des responsabilités, qui empêchent le système pénal de traiter efficacement un modèle qui marchandise la souffrance. La régulation reste limitée, faute d’avoir conceptualisé cette économie comme un secteur d’activité spécifique nécessitant un cadre juridique plus adapté.
Cette économie repose sur un cercle vicieux : les plateformes fournissent l’infrastructure technique et prélèvent leur commission, les organisateurs produisent du contenu sadique et en captent les revenus directs, tandis que l’audience finance le spectacle et alimente la surenchère par ses dons et par ses abonnements. Chaque acteur peut se déresponsabiliser, invoquant son rôle limité dans ce mécanisme pervers, alors que tous participent à sa perpétuation.
À la lumière de ces éléments, la mort en direct de Jean Pormanove ne peut être considérée comme un accident. Elle illustre l’aboutissement logique d’un modèle qui transforme méthodiquement la dignité humaine en marchandise. Cette économie du sadisme numérique n’existe que par notre participation. Jean Pormanove est mort pour notre divertissement, dans un système que nous avons collectivement contribué à créer et à entretenir.
Marlène Dulaurans ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
16.09.2025 à 16:44
Christian de Perthuis, Professeur d’économie, fondateur de la chaire « Économie du climat », Université Paris Dauphine – PSL
L’utilisation du vent pour déplacer les navires est un levier sous-estimé de décarbonation du transport maritime. Malgré des débuts prometteurs en Europe, l’émergence de cette nouvelle industrie risque d’être contrariée par les menaces américaines qui pèsent sur les projets de régulation de l’Organisation maritime internationale.
L’usage du vent comme énergie d’appoint est une piste prometteuse pour accélérer la décarbonation du transport maritime sans attendre la mise au point de carburants alternatifs aux énergies fossiles, coûteux à produire. C’est pourquoi le marché de la propulsion vélique assistée connaît actuellement un renouveau.
On pourrait aller plus loin, avec la propulsion vélique principale, où le moteur du navire n’est plus utilisé que pour les manœuvres dans les ports ou pour raison de sécurité ou de ponctualité. Les gains de CO2 changent alors d’échelle, atteignant de 80 à 90 %. La neutralité carbone peut alors être atteinte si le moteur annexe utilise une énergie décarbonée.
Cette approche a d’autres avantages : d’autres nuisances, comme le bruit sous-marin et les dégâts provoqués par le mouvement des hélices, sont également réduites ou éliminées. Les cargos à voile de l’ère moderne sont ainsi susceptibles de contribuer à une mue en profondeur des transports maritimes.
L’Organisation maritime internationale (OMI) doit, à l’occasion d’une réunion qui se tient du 14 au 17 octobre 2025 à Londres, entériner un projet d’accord de décarbonation des flottes et de tarification carbone. Mais les États-Unis s’opposent à cette décision et menacent de représailles commerciales les pays qui appliqueraient ces régulations aux navires de commerce.
À lire aussi : Le vent, un allié pour décarboner le transport maritime
Les pionniers du cargo à voile ont démarré petit, d’abord à l’échelle artisanale. Dans des années 2010, les fondateurs de la société TOWT ont affrété de vieux gréements pour faire traverser l’Atlantique à des denrées coûteuses (rhums, épices…). Le Grain de Sail 1, lancé en 2020 par l’entreprise du même nom, a une capacité d’emport de 50 tonnes.
Cela reste limité, quand certains porte-conteneurs peuvent déplacer jusqu’à 300 000 tonnes. La filière est toutefois en train de basculer à l’échelle industrielle. Les cargos de la flotte de TOWT peuvent emporter aujourd’hui de 1 000 à 1 100 tonnes de marchandises.
Le Grain de Sail 3 – dont le lancement est prévu pour 2027 – aura une capacité de 2 800 tonnes. Le roulier (navire capable de charger et décharger sa cargaison par roulage de véhicules) Neoliner Origine, en cours de test par la société Neoline, pourra en transporter près du double. L’OceanBird, développé par des opérateurs suédois, promet de son côté d’embarquer 7 000 véhicules.
Le secteur n’est pourtant pas à l’aube d’une course au gigantisme, similaire à celle menée par les porte-conteneurs, vraquiers et autres tankers géants. L’industrialisation de la navigation à voile repose avant tout sur une myriade d’innovations qui préfigurent une reconfiguration de l’activité.
Au plan technique, il s’agit d’abord de capter au mieux l’énergie du vent. De nombreuses innovations sont issues du monde de la compétition, à l’image de la flotte de trimarans cargos que la compagnie Vela compte déployer à partir de 2026.
L’efficacité des cargos à voile doit également beaucoup aux progrès de la science du routage, qui optimise les routes au gré des caprices des vents.
Autre innovation cruciale : le couplage du vent à une autre source d’énergie décarbonée, à l’instar du projet de porte-conteneurs de la société Veer, qui associe la voile à de l’électricité fournie par de l’hydrogène vert.
Les cargos à voile ne visent pas la vitesse, mais la ponctualité. La vitesse de croisière en propulsion vélique principale est moitié moindre que celle des géants actuels des mers. La taille plus modeste des navires permet cependant d’utiliser des ports secondaires plus proches des destinations. Ces trajets dits « point à point » réduisent les temps d’attente devant les ports, le nombre des transbordements nécessaires ainsi que l’empreinte carbone totale des opérations de fret.
Les cargos à voile permettent d’ailleurs d’exploiter des lignes difficiles à exploiter à l’heure actuelle par les flottes actuelles. La compagnie Windcoop ambitionne ainsi d’ouvrir la première ligne régulière de fret entre l’Europe et Madagascar, libérant l’île des contraintes de transbordement. L’usage du vent pourrait également donner une seconde vie au cabotage (transport sur de courtes distances), à l’image du projet le Caboteur des îles à Belle-Île-en-Mer (Morbihan).
L’industrialisation du transport vélique génère enfin nombre d’innovations socioéconomiques. Activité hautement capitalistique, le transport vélique exige des apports élevés en capital. Pour des sociétés comme Windcoop ou TOWT, le recours au financement participatif a facilité les levées de fonds et renforcé l’adhésion citoyenne.
Enfin, l’usage de la voile est attractif. Cela facilite le recrutement d’équipages qualifiés et peut séduire les croisiéristes d’un nouveau type. En effet, bon nombre de cargos à voile disposent de cabines pour faire partager à des touristes d’un nouveau genre l’expérience du voyage.
À lire aussi : Des voiliers-cargos pour réimaginer le transport de marchandises
La propulsion vélique est une industrie naissante : on décompte aujourd’hui 36 équipementiers recensés par l’association Wind Ship et 90 armateurs engagés et l’exploitation ou la construction de plus de 100 navires dans le monde.
L’Europe y occupe une place prépondérante, avec quelques concurrents asiatiques progressant rapidement. Fort bien positionnée, la France aligne 14 équipementiers, trois usines sur son territoire et la première flotte de cargos véliques au monde.
Mais le chemin de l’industrie du transport vélique n’en demeure pas moins semé d’embûches. Cette industrie aborde un tournant décisif, baptisé « vallée de la mort » par les économistes. Il s’agit de passer de l’innovation visionnaire à l’échelle industrielle.
Pour traverser cette vallée, il faut parvenir à baisser les coûts. Cela implique d’investir dans un changement d’échelle de production et d’élargir les débouchés commerciaux. Or, cette transition s’opère rarement de façon spontanée, car ce passage remet en cause les positions des acteurs historiques.
Ainsi, une cause récurrente de mortalité des innovations est l’inadéquation des soutiens publics lors des premières étapes du parcours, comme l’a illustré l’élimination des leaders européens et japonais du photovoltaïque.
C’est donc maintenant que se joue l’avenir du transport vélique. Il repose avant tout sur l’écosystème des acteurs qui y croient et investissent dans son avenir. Il dépend également des choix politiques, dans un contexte incertain.
À lire aussi : D’où viennent les innovations ?
À l’échelle européenne, l’inclusion du transport maritime dans le système d’échanges de quotas est un levier important pour l'équilibre économique de la propulsion vélique qui repose sur la gratuité du vent. Cette inclusion, encore partielle, doit être menée à son terme.
Deux leviers supplémentaires pourraient accélérer son déploiement :
flécher une partie du produit des enchères du système de quotas de CO₂ vers un fonds consacré au transport vélique,
ou encore, utiliser la commande publique pour favoriser les produits utilisant ce mode de transport.
En France, l’utilisation de la commande publique, figurant dans le Pacte vélique cosigné par l’État et par les acteurs de la filière en 2024, est restée embryonnaire, avec une seule opération au profit de la voile gonflable développée par Michelin.
Par ailleurs, le dispositif de suramortissement fiscal pour faciliter les investissements est fragilisé par le contexte budgétaire du pays, de même que l’utilisation de garanties publiques. Une loi transpartisane – ce n’est pas vraiment dans l’air du temps – serait l’outil approprié pour sécuriser le dispositif, au moment où l’Organisation maritime internationale (OMI) subit une offensive américaine.
En octobre 2025, le comité spécialisé de l’OMI doit entériner le projet d’accord sur la décarbonation des flottes et la tarification carbone. Les États-Unis s’opposent à cette décision et menacent de représailles commerciales les pays qui appliqueraient ces régulations aux navires de commerce. Un tel retour au statu quo antérieur serait un mauvais coup porté à la décarbonation du transport maritime.
Les États-Unis parviendront-ils à leur fin en mobilisant les forces politiques et économiques hostiles à la transition bas carbone ? Réponse le 17 octobre prochain, au siège de l’OMI, à Londres.
Christian de Perthuis ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
16.09.2025 à 16:43
Jean-Samuel Beuscart, Professeur de sociologie, Sciences Po
Romuald Jamet, professeur agrégé en sociologie de la culture (économie, politique), Institut national de la recherche scientifique (INRS)
On n’écoute pas de la musique en français comme on écoute de la musique en langue étrangère : souvenirs, émotions, proximité liée à une compréhension instantanée des paroles… Tour d’horizon des spécificités et des contextes d’écoute de notre chère (ou parfois boudée) musique francophone.
En France, tout le monde ou presque écoute de la musique en français : 79 % des personnes interrogées disent en écouter régulièrement. Selon la même étude d’Ipsos (2023), pour 27 % des Français, la « chanson ou variété française » est même le genre musical favori et, pour 67 % d’entre eux, il s’agit de l’un des cinq genres préférés. La pratique est assez uniformément répandue entre les sexes (83 % des femmes et 74 % des hommes) et les milieux sociaux (81 % des ouvriers, 85 % des employés, 77 % des cadres). En ce qui concerne les tranches d’âge, 77 % des 25-39 ans écoutent de la chanson ou variété française, contre 85 % des plus de 65 ans. Seuls les moins de 25 ans déclarent significativement moins en écouter, mais l’effet serait sans doute compensé par la prise en compte du rap français.
Les personnes que nous avons rencontrées dans notre enquête menée en 2024 reflètent ces ordres de grandeur. Elles déclarent, à parts à peu près égales, soit écouter principalement de la musique en français (le plus souvent, du rap français ou de la chanson française), ou alors écouter indifféremment de la musique en français ou en anglais, ou enfin écouter principalement de la musique internationale. Dans ce dernier cas, s’y ajoute souvent l’expression d’un rejet pour l’une des formes de la musique en français, rap ou variété.
Du point de vue des usages sur les plateformes de streaming musical, on ne constate guère de différence dans les façons de traiter les musiques francophones et internationales. Elles sont, de manière équivalente, recherchées et archivées dans des playlists, écoutées via les suggestions algorithmiques, explorées sur les pages d’artistes, etc. Mais il existe des attachements spécifiques à la musique francophone, qui donnent aux morceaux en français une place particulière dans l’expérience musicale.
La musique en français occupe toujours une place spécifique dans l’expérience et l’histoire musicale des auditeurs et auditrices rencontrés durant l’enquête. Elle est décrite en premier lieu comme la musique de la prime enfance ou de l’adolescence, que l’on connaît encore par cœur, que l’on ré-écoute à l’occasion avec un plaisir plus ou moins assumé (selon l’âge des interviewés sont mentionnés Jenifer, Lorie, Les Négresses Vertes, Louise Attaque, Sexion d’Assaut…). C’est aussi la musique des parents ou des grands-parents (Patricia Kaas, Julien Clerc, Charles Aznavour, Jean-Jacques Goldman…), présentée comme repoussoir ou madeleine de Proust, selon les trajectoires biographiques. La musique francophone est enfin la musique environnante, celle des lieux publics, des radios musicales, de l’écoute collective au travail, des soirées, qu’on ne choisit pas mais qu’on apprécie souvent.
Qu’elle occupe ou non une place importante dans leurs goûts musicaux, auditrices et auditeurs font des usages spécifiques de la musique en français : de manière triviale, mais décisive, on en comprend facilement les paroles. Dans l’écoute en français, la compréhension du texte est plus immédiate et les mots sont une composante importante de l’expérience musicale : on « fait plus attention aux paroles », on « s’y retrouve », « quelques mots nous ont frappé », « des phrases sont touchantes », « on comprend donc c’est plus facile de bien aimer ».
Plusieurs amateurs ajoutent qu’il est plus aisé de ressentir une forme de proximité avec les artistes français, que les expériences qu’ils relatent dans leurs chansons sont plus proches de celles vécues :
« JuL, c’est quelqu’un qui me correspond, même si on a des vies différentes, j’imagine. »
Il est plus facile de se renseigner sur la vie des artistes français, de s’y comparer, mais aussi de les voir en concert, de les suivre tout au long de leur évolution, qu’il s’agisse de JuL, Téléphone ou Stupeflip. Les auditeurs et auditrices construisent des attachements spécifiques fondés sur la résonance de leurs expériences.
Enfin, qu’elle occupe ou non une place importante dans leurs écoutes quotidiennes, la musique en français est considérée comme plus propice à la production ou l’accompagnement d’émotions, les paroles jouant un rôle important dans la formulation et la canalisation des sentiments. Il s’agit d’accompagner des moments mélancoliques, « C’est mieux quand j’ai plus envie de ressentir des émotions fortes » ; d’une chanson d’Indochine dont quelques mots cristallisent les émotions ressenties pendant un deuil, ou encore de chansons de Serge Reggiani accompagnant la maladie d’un parent ; d’un « retour au punk français » pour exprimer la colère ressentie pendant le confinement ; plus généralement de musiques « qui vous portent pendant un moment ». Dans ces contextes, les paroles immédiatement compréhensibles jouent un rôle important dans la mise en mouvement des émotions. Il ne s’agit pas de dire que les musiques internationales ne jouent pas de tels rôles émotionnels ou identitaires ; mais, pour la majorité des auditeurs qui comprennent le français beaucoup mieux l’anglais ou d’autres langues, l’écoute de chansons en français rend possible des émotions spécifiques.
Les travaux sur la numérisation de la musique ont montré qu’elle favorise la « backgroundisation » de l’écoute, la musique étant susceptible d’accompagner la quasi-totalité des activités quotidiennes.
De ce point de vue, la musique francophone est considérée comme plus ou moins adaptée selon les contextes. Elle est jugée appropriée aux routines domestiques (ménage, cuisine…) auxquelles elle vient ajouter de l’entrain, en incitant à reconnaître ou fredonner les paroles. Elle est plébiscitée dans les situations de travail en col bleu, boulangerie, garage ou atelier, car susceptible d’être support d’échanges.
En revanche, elle est unanimement proscrite du travail en col blanc, du travail sur ordinateur ou des situations de travail scolaire (lectures, préparation d’examen) nécessitant une forme de concentration excluant le français : la reconnaissance des paroles perturberait alors l’activité en cours, faisant « sortir de la bulle » ou « décrocher ».
Inversement, la musique en français jouit d’une certaine préférence au volant, permettant tout à la fois de se concentrer sur la conduite que d’investir les paroles en les écoutant attentivement ou en les chantant, y compris « les répertoires plus kitch », « les goûts non-avoués ». Associée aux moments festifs, faite pour être chantée en chœur et participer à une liesse commune, elle est cependant moins mobilisée quand il s’agit de converser entre amis, celle-ci pouvant interférer, justement, de par sa compréhension trop immédiate, forçant l’oreille à se détourner de la conversation.
La musique en français bénéficie ainsi d’une place singulière dans l’oreille de la majeure partie des auditeurs et auditrices. Qu’elle soit appréciée ou non, elle est l’objet d’usages et d’affections spécifiques que les modes d’écoutes contemporains ne semblent pas avoir encore bousculés, tout du moins en France.
Jean-Samuel Beuscart a reçu des financements du Ministère de la Culture et de la Communication dans le cadre de cette recherche.
Romuald Jamet a reçu des financements de Ministère de la Culture et des communications du Québec dans le cadre de cette recherche.
16.09.2025 à 16:41
Bruno Poucet, Professeur émérite des universités en histoire de l'éducation, CAREF, Université de Picardie Jules Verne (UPJV)
Ils ne rassemblent plus aujourd’hui que 3 % des élèves dans l’enseignement secondaire. Pourtant, les internats ont longtemps été la norme de scolarisation des lycéens. Retour sur leur histoire et leur place dans les politiques éducatives actuelles.
Au centre du système scolaire depuis la création des lycées jusque dans les années 1960, les internats ont ensuite connu un déclin régulier de leurs effectifs. Mais au tournant des années 2000 s’est amorcée une politique de revalorisation de ces établissements, suivie de la création dans les années 2010 et 2020 de dispositifs consacrés à la lutte contre le décrochage, entre internats d’excellence et internats tremplins.
Quels sont les résultats de ces politiques ? Combien d’élèves suivent-ils désormais des études en pension complète ? Quels projets éducatifs les internats ont-ils véhiculés au fil du temps ?
Si on se limite à la création des lycées de garçons en 1802 et des établissements privés en 1850 (loi Falloux), on peut dire qu’un établissement secondaire comporte toujours un internat au XIXe siècle. Un lycéen est alors d’abord un interne. Ce n’est pas le cas dans les lycées publics de jeunes filles, créés à partir de 1880 : les élèves ne sont pas hébergées sur place mais dans des pensions. Dans les établissements gérés par des congrégations, en revanche, elles sont internes, comme leurs homologues masculins. Aucun de ces établissements n’est mixte et tous disposent d’un personnel correspondant au sexe des élèves.
La vie dans ces établissements est assez rude : le chauffage, lorsqu’il existe, est rudimentaire, l’eau pour les ablutions est souvent froide et l’hygiène relative, la nourriture peu appétissante, la discipline quasi militaire. Dans des dortoirs immenses, la promiscuité et l’absence d’intimité sont totales. Le régime est spartiate : on est là pour étudier, peu de distractions existent hormis la cour de récréation ou la promenade du jeudi après après-midi. Ajoutons que dans la plupart des établissements, on ne retourne dans les familles que pendant les vacances, avec parfois une sortie possible le dimanche.
Ce régime perdure jusque dans les années 1960 : réservés à une minorité aristocratique ou bourgeoise, les internats des établissements secondaires restent des institutions fréquentées, faute des moyens de transport et parce que ces parents croient au bienfait de l’encadrement éducatif étroit. Mais aussi, tout simplement parce qu’ils ont l’habitude de confier l’éducation de leurs enfants à des tiers. Or, les choses évoluent rapidement dans les années 1960.
La massification et la démocratisation du système éducatif à partir des années 1960 (scolarité obligatoire jusqu’à 16 ans à partir de 1967, accès massif aux différents lycées à partir des années 1990), la création d’établissements secondaires proches du domicile, l’urbanisation croissante, engendrent une réduction rapide du nombre d’élèves internes dans les établissements publics, puis dans les établissements privés sous contrat.
Le nombre de collèges a en effet doublé entre 1960 et 2016, le nombre de lycées a augmenté, de son côté, de 20 %. Les transports scolaires se sont multipliés, facilitant ainsi l’accès aux établissements. La volonté des parents d’éduquer eux-mêmes leurs enfants et de moins déléguer, le coût, enfin, pour les familles, contribuent à délaisser progressivement les internats.
En 1960, selon les chiffres du ministère, 22 %, des élèves du second degré étaient internes dans le public, en 2024, ils sont 3,3 % (soit 183 900 élèves). En revanche, le nombre de demi-pensionnaires a augmenté considérablement (+13,2 % depuis 1994). Il y a des disparités selon les établissements et les lieux de leur implantation. L’internat est-il voué à la disparition ?
Actuellement, le taux d’occupation des internats est loin de remplir les capacités disponibles, mais ne décline plus. Tous établissements publics confondus, 51 000 places étaient vacantes en 2022-2023.
Il y a une trentaine d’années, le ministère s’est interrogé sur les objectifs à mener afin de revaloriser l’internat ou du moins d’arrêter son déclin. En 1999, la nouvelle politique est impulsée par le ministre Jack Lang puis par Jean-Louis Borloo, en 2005. Les internats sont rénovés, les grands dortoirs supprimés, des chambres individuelles ou à quelques élèves sont créés, la nourriture est améliorée, la mixité fait son entrée.
La vie scolaire, avec un personnel spécialisé et formé, prend désormais en charge les élèves et les encadre de façon souple, en étant attentive aux problèmes que certains rencontrent et en les aidant dans leurs apprentissages. Les élèves quittent, sauf exception, le lycée chaque semaine, des sorties individuelles sont autorisées et des activités culturelles ou sportives, parfois spirituelles dans certains établissements privés, sont organisées.
Par ailleurs, un nouveau type d’élèves est visé dans les établissements publics. Il s’agit de mieux encadrer les jeunes défavorisés, et d’aider à leur promotion, à leur réussite. Ainsi, la circulaire interministérielle du 28 mai 2009 créée des internats d’excellence destinés aux élèves de milieux défavorisés volontaires, mais faisant preuve de réelles capacités intellectuelles. Le premier ouvre à Sourdun (Seine-et-Marne), dans l’académie de Créteil. L’encadrement est renforcé, des activités sportives et culturelles sont organisées. Avec la loi sur la refondation de l’école de la République, en 2013, un accent différent est mis, ils deviennent des internats de la réussite pour tous et visent ainsi à réduire les inégalités sociales et territoriales.
Par ailleurs, par une circulaire du 29 juin 2010, des internats très spécifiques sont créés : ils visent à la réinsertion scolaire d’élèves polyexclus (au moins de deux collèges), voire délinquants : ce sont les établissements de réinsertion scolaire (ERS) : 2 000 élèves seraient potentiellement concernés. Un partenariat avec la Protection judiciaire de la jeunesse est organisé.
En 2019, un plan Internats du XXIe siècle, dans le cadre de l’école de la Confiance est décidé : il est prévu de créer en 2023, 240 internats à projets et d’accueillir 13 000 jeunes dans trois types de structure : les internats d’excellence déjà existants, les résidences à thèmes, dans les zones rurales et de montagnes, les internats des campus des métiers et des qualifications, pour les élèves de la voie professionnelle.
Enfin, en 2021 sont créés huit internats tremplins afin de prendre en charge une centaine de collégiens en situation de décrochage scolaire.
Force est donc de constater que l’on a désormais une diversité de formes possibles d’internats qui deviennent un instrument en matière de politique éducative, afin de faire face aux difficultés de l’école, même s’il n’y a pas de solution miracle en la matière.
Une évaluation récente de la direction de l’évaluation du ministère (DEPP) conclut que
« l’internat propose, en moyenne sur l’ensemble des lycéens, des conditions d’hébergement globalement satisfaisantes (..). Les élèves internes réussissent aussi bien que les autres élèves, voire un peu mieux en lycée professionnel et dans les établissements régionaux d’éducation adaptée (EREA) dans la mesure où la continuité scolaire est mieux assurée ».
En revanche, les internats de réinsertion scolaire n’ont guère donné de résultats probants dans la mesure où ils peuvent, au contraire de ce qui est recherché, devenir une quasi-école de délinquance. Par ailleurs, un autre défi est à prendre en compte : celui de la baisse démographique. Ainsi, l’internat, en dépit des politiques éducatives menées, est certes peu développé, mais il s’est maintenu en changeant en grande partie de fonction.
Bruno Poucet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
16.09.2025 à 16:40
Hélène Bourdeloie, Sociologue, maîtresse de conférences en sciences de l’information et de la communication à l’université Sorbonne Paris Nord et chercheuse au LabSIC et associée au Centre Internet et Société (CIS– CNRS), Université Sorbonne Paris Nord
Massivement adopté dans le royaume, le smartphone est utilisé par les Saoudiennes de multiples façons, souvent pour étendre leur marge de manœuvre dans une société où, malgré de récentes avancées, leurs droits restent nettement inférieurs à ceux des hommes. Si l’objet constitue un vecteur d’« empowerment », il est aussi un instrument de surveillance.
En janvier 2019, l’affaire Rahaf Mohammed al-Qunun fit le tour du monde : cette jeune Saoudienne qui cherchait à fuir sa famille se retrouva immobilisée en Thaïlande, son passeport confisqué. Munie de son smartphone, elle utilisa les réseaux sociaux pour alerter les organisations internationales sur le sort qui l’attendait. Le Canada accepta finalement sa demande d’asile. Le chargé d’affaires saoudien en Thaïlande déclara alors que les autorités auraient mieux fait de la priver de son téléphone, révélant ainsi le pouvoir inédit de cet objet connecté.
La même année, la militante Manal al-Sharif, connue pour avoir cofondé le mouvement Women to Drive en 2011 et l’avoir popularisé sur les réseaux sociaux, ferma ses comptes Twitter et Facebook. Ces outils, qui lui avaient d’abord permis de libérer sa parole, étaient devenus un piège au service de la propagande saoudienne et de la désinformation. Instruments de résistance et de mobilisation féministe résonnant auprès du monde entier, les réseaux sociaux se révélèrent des armes oppressives.
À la fin des années 2010, de nombreuses Saoudiennes se servaient des réseaux sociaux pour développer leur entreprise ou leur business.
Ces exemples reflètent la grande diversité de la condition de la femme en Arabie saoudite – une condition qui ne saurait se réduire à la représentation stéréotypée de la femme musulmane victimisée, soumise ou, à l’inverse, de la femme entrepreneuse glamour et cosmopolite. Ils traduisent également le rôle que peut jouer le smartphone dans la négociation avec les normes de genre.
Alliant conservatisme religieux et avant-gardisme technologique, le royaume se hisse parmi les nations les plus connectées de la planète, se distinguant par des taux de pénétration record en matière de microblogging et de réseaux sociaux comme YouTube. Introduit dans les années 2000, le smartphone s’est très rapidement implanté dans cette société qui a fait de la numérisation et de l’investissement dans la tech l’un de ses nouveaux étendards politiques.
Façonnée par des dimensions historiques, culturelles, religieuses et économiques, l’identité de la femme saoudienne est plus complexe que celle véhiculée par l’Occident, qui voit en elle une subordonnée.
Il est vrai que l’héritage tribal et la doctrine wahhabite, dominants dans le pays, ont longtemps fixé un cadre rigoriste qui a façonné la place des femmes dans la société. Mais paradoxalement, c’est le boom pétrolier des années 1970 qui a renforcé et institutionnalisé la ségrégation de genre, constituant à la fois un obstacle et un levier à l’émancipation des femmes.
Toutefois, dans les années 2000, des réformes progressives ont eu lieu : depuis 2014, les Saoudiennes peuvent travailler dans de nombreux secteurs sans l’accord de leur tuteur ; depuis 2018, elles peuvent ouvrir leur propre entreprise et conduire sans cette autorisation préalable ; et depuis 2019, les femmes peuvent voyager sans accord tutélaire. Le plan Vision 2030 a du reste accéléré ce mouvement en inscrivant la libéralisation économique et sociale au cœur du projet politique saoudien.
La société reste néanmoins sexiste et hiérarchisée, avec des rapports de genre s’inscrivant dans un système patriarcal où l’homme détient l’autorité et définit l’honneur féminin comme un bien à protéger. Cette hiérarchie se manifeste dans la famille, l’espace public, la loi ou encore la langue, qui consacre la domination masculine.
C’est dans ce contexte d’une société ségrégationniste, où les Saoudiennes ont longtemps été assignées à la sphère domestique, mais aussi de réformes en faveur des droits des femmes, que le smartphone exerce un rôle polyvalent et paradoxal.
Les Saoudiennes se sont rapidement approprié l’internet et, plus encore, le smartphone. Initialement plus connectées que les hommes – elles étaient 96 % à utiliser l’internet en 2015, contre 88 % pour les hommes (selon la Commission des Technologies de l’Information et de la Communications, devenue Commission de l’espace et de la technologie Space and Technology Commission) –, les Saoudiennes passaient aussi plus de temps en ligne, et se connectaient davantage depuis leur domicile et via leur smartphone. Ces pratiques s’expliquaient à la fois par la construction statutaire de l’identité de genre, qui les confinait à l’espace domestique, et par l’interdiction de conduire, laquelle contribuait à renforcer leur usage du smartphone.
Loin d’être un simple outil technique, le smartphone a dès lors été investi comme support de visibilité et d’expression de soi pour compenser une invisibilité engendrée par la ségrégation de genre.
Toujours à portée de main, le smartphone s’est aussi imposé comme un accessoire de mode, éminemment visible pour les Saoudiennes vêtues d’abāya et de niqāb, une visibilité d’autant plus marquée avant la déclaration en 2018 du prince héritier Mohammed Ben Salmane, homme fort du royaume, déclaration selon laquelle le port de l’abāya n’était pas obligatoire.
Dans cette société stratifiée où les objets ont un pouvoir distinctif – un iPhone dernier cri est un marqueur social et esthétique –, le smartphone devient une parure ostentatoire, un instrument de stylisation et de présentation de soi qui s’exhibe dans les espaces publics, en particulier dans les centres commerciaux où les femmes peuvent déambuler en confiance.
Au-delà de son rôle symbolique, le smartphone a ouvert un espace d’émancipation grâce à la photographie et aux réseaux sociaux, alors même que l’image humaine est controversée dans l’islam et que les photographies furent longtemps proscrites en Arabie saoudite, le pays étant allé jusqu’à bannir les premiers téléphones munis d’appareils photos. Ces interdictions ont progressivement cédé, en dépit de restrictions persistantes.
En 2016, l’essor de Snapchat joua un rôle décisif. Très populaire en Arabie saoudite – le royaume figurait parmi les premiers utilisateurs au monde –, l’application permit aux jeunes femmes de se rendre visibles à travers des selfies et portraits retouchés. Les filtres constituaient autant de stratégies pour contourner la censure islamique, un portrait ou un corps modifié n’étant plus considéré comme une représentation humaine. Ces usages ludiques pouvaient être transgressifs : montrer ses cheveux ou son visage, même transformés, revenant à défier les normes.
Le smartphone a ainsi permis aux Saoudiennes de négocier avec les codes, d’affirmer la présence des femmes dans l’espace numérique et, parfois, de contester l’ordre social établi.
Pour les Saoudiennes, empêchées de conduire jusqu’en 2018, le smartphone devint un instrument de mobilité via les applications de VTC Uber ou Careem, leur permettant de se déplacer sans recourir à un membre masculin de leur famille ou à un chauffeur privé. Les applications de géolocalisation rassuraient quant à elles les proches, facilitant les sorties des jeunes filles.
Au-delà, le smartphone constitue un véritable instrument de militantisme. Le mouvement Women to Drive trouva ainsi une nouvelle ampleur grâce au numérique. En 2013, c’est en effet avec leur mobile connecté que des Saoudiennes, bravant publiquement l’interdiction de conduire, se filmèrent au volant et diffusèrent leurs vidéos sur YouTube et Twitter.
Plus largement, dans ce pays où la scène politique est inexistante, c’est sur les réseaux sociaux que se tiennent les débats et mobilisations féministes. C’est d’autre part grâce au développement de services numériques que les Saoudiennes ont pu s’affranchir de certaines règles du système de tutelle. Ainsi, créée en 2015, l’application gouvernementale Absher a-t-elle pu simplifier le quotidien des femmes, leur ouvrant même la voie pour déjouer le système en s’octroyant elles-mêmes l’autorisation de voyager.
Pourtant, le smartphone peut aussi jouer contre le féminisme. Cette même application Absher, initialement conçue pour faciliter l’ensemble des démarches administratives, a ainsi été dénoncée comme un objet de surveillance renforçant le contrôle sur les femmes. Par ailleurs, instrumentalisés par le régime, les smartphones sont devenus des objets de filature via leur numéro IMEI, permettant de traquer les personnes dissidentes ou des Saoudiennes tentant d’échapper à leur possible funeste destinée.
Outil d’émancipation et d’empowerment, le smartphone en Arabie saoudite est donc aussi un instrument de contrôle. C’est cet objet qui, au-delà des cas de Rahaf Mohammed ou de Manal al-Sharif cités plus haut, a permis à des femmes de développer leur entrepreneuriat sur Instagram, ou à des prédicatrices musulmanes de défendre leurs droits sur la scène numérique en luttant en faveur de la préservation du système de tutelle, considéré par certaines d’entre elles comme un dispositif de protection de la femme saoudienne.
Au service du féminisme – un regard tourné vers l’Orient met du reste au jour la pluralité de ses visages, irréductible à un modèle de résistance calqué sur l’expérience occidentale –, le smartphone en Arabie saoudite peut servir la cause des femmes autant que la desservir. Il a pu ainsi œuvrer contre le féminisme en renforçant le contrôle des voix dissidentes, en développant l’espionnage et la traque, et en consolidant, via les réseaux sociaux, une culture de la surveillance déjà ancrée dans le tissu social. Ni simple outil d’émancipation, ni pur instrument d’oppression, le smartphone demeure un objet et un espace de tensions où se redessinent les rapports de pouvoir et les normes de genre.
Ce texte prend appui sur une communication présentée lors du XXIe congrès de l’Association internationale des sociologues de langue française (AISLF) qui a eu lieu en 2019.
Hélène Bourdeloie ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
16.09.2025 à 16:39
Adrien Luxey-Bitri, Maître de conférences en Informatique, Université de Lille
Catherine Truffert, PDG IRIS Instruments, BRGM
Le numérique ne fonctionne pas sans électricité et l’électricité décarbonée dépend du numérique. Comment sortir de ce cercle vicieux, qui exerce une pression intense sur la disponibilité en ressources minérales nécessaires aux deux secteurs ? Nous proposons de dépasser le mantra de l’efficience et d’axer l’innovation sur la sobriété afin d’améliorer la qualité et la durabilité des services numériques fondamentaux sans puiser inutilement dans le réservoir limité des ressources minérales.
Le numérique occupe une place de plus en plus centrale dans notre quotidien. De nombreux services, y compris ceux de l’État, en rendent l’utilisation incontournable. Une multitude de solutions sont mises à disposition des citoyens, qui les adoptent volontiers pour effectuer des démarches à distance, s’informer ou se divertir. Le numérique est ainsi vécu comme un compagnon facilitateur dans un mode de vie rythmé par la quête d’efficacité et l’optimisation du temps.
Cependant, bien que souvent considéré comme immatériel, le numérique a un impact environnemental, tant pour les générations actuelles que futures. Cette réalité, encore mal comprise, s’explique en grande partie par sa consommation énergétique.
À lire aussi : La réalité physique du monde numérique
La consommation électrique des terminaux (ordinateurs, smartphones, objets connectés…) augmente avec leur nombre, dopé par l’essor des usages du numérique. De son côté, la consommation électrique des réseaux reste stable une fois l’infrastructure en place. Celle des centres de données, enfin, explose, entraînée par les besoins croissants de l’intelligence artificielle (IA), l’un des usages informatiques les plus énergivores de l’Histoire d’après l’Agence Internationale de l’Énergie (IEA).
En France, les services numériques représentent déjà 11 % de la consommation électrique nationale, sans compter l’électricité importée via l’utilisation de services hébergés à l’étranger.
À l’échelle mondiale, l’IEA prévoit le doublement de la consommation des centres de données d’ici 2030 — soit l’addition de la consommation électrique actuelle du Japon — et rien n’indique que cette tendance ralentisse.
Bien au contraire, le gouvernement français a annoncé durant le Sommet pour l’Action sur l’IA début 2025, la création de 35 nouveaux centres de données dédiés à l’IA nécessitant à eux seuls 3 gigawatts d’électricité — l’équivalent de deux réacteurs nucléaires EPR.
Une réalité souvent ignorée de l’électricité décarbonée est sa dépendance au numérique.
En effet, le numérique joue un rôle clé dans le pilotage du réseau électrique. Ce pilotage est rendu plus complexe par l’introduction d’énergies intermittentes (solaire, éolien) et par les véhicules électriques. Il s’appuie sur un vaste déploiement de capteurs numériques qui collectent de nombreuses données sur le réseau électrique. Celles-ci sont ensuite traitées dans des centres de données pour modéliser le réseau, anticiper les variations et optimiser sa gestion.
Par ailleurs, les acteurs du numérique sont incités à réduire leurs émissions de gaz à effet de serre, ce qui les conduit à investir massivement dans les énergies bas carbone. Ils le font d’autant plus volontiers que cela contribue à leur image de marque. Google a par exemple acquis en 2025 une capacité de production de 8 gigawatts d’énergie « verte ».
Paradoxalement, la transition vers une électricité décarbonée accélère ainsi l’essor du numérique — qui est entièrement tributaire de l’électricité. Ce cycle entraîne un emballement de la production électrique et numérique sans qu’aucun mécanisme de régulation ne soit, à ce jour, envisagé pour en limiter l’ampleur.
Rappelons que la décarbonation de l’électricité ambitionne de réduire un des multiples impacts des activités humaines sur l’environnement : les émissions de gaz à effet de serre responsables du dérèglement climatique. Ces émissions sont identifiées par le GIEC comme étant l’impact environnemental le plus urgent à juguler car il menace directement l’habitat et l’existence de nombreuses populations du globe… mais les autres impacts liés à l’activité humaine n’en sont pas moins importants.
Or, le déploiement massif d’unités de production d’énergies intermittentes, de bornes de recharge et de stockage d’électricité (batteries…) réclame des minéraux en grande quantité. Ainsi, le géologue Olivier Vidal calcule que pour les seuls besoins de la décarbonation de l’énergie, nos sociétés doivent miner autant d’ici 2055 que depuis l’aube de l’Humanité. Sachant que la durée de vie d’un panneau solaire est d’environ 25 ans, il s’agit d’un investissement récurrent, à moins que l’amélioration du recyclage ne permette de réduire drastiquement la demande de minéraux directement issue des mines.
À lire aussi : Les panneaux solaires, fer de lance de la transition ou casse-tête pour le recyclage ? Le vrai du faux
Les minéraux concernés sont principalement le cuivre (conducteur d’électricité irremplaçable), le lithium, plomb et cobalt des batteries, les terres rares (néodyme, dysprosium…) des éoliennes qui peuvent en contenir des centaines de kilos par unité, le silicium dopé (au bore, phosphore, cadmium, indium…) et l’argent des panneaux solaires, sans oublier l’aluminium et l’acier des pylônes électriques, dont la fabrication demande manganèse, nickel, chrome, molybdène…
Du côté du numérique, la diversité de minéraux nécessaires atteint des sommets. Un « simple » smartphone en contient plus de soixante : le tantale pour la miniaturisation des condensateurs, le germanium pour le dopage des semi-conducteurs, l’or et le molybdène pour les connecteurs inoxydables, à nouveau le cobalt pour la résistance des alliages…
À lire aussi : Connais-tu le lien entre ton téléphone portable et les cailloux ?
Plus le matériel électronique est dense et miniaturisé, plus il contient d’alliages métalliques variés et fins, comme le processeur Apple A18 qui équipe les iPhone 16, ou le processeur nVidia Blackwell (5 nanomètres) qui domine le marché de l’IA.
Produire de tels équipements requiert des matières premières d’une pureté sans pareil, qui ne peuvent être issues du recyclage.
Les minéraux sont une ressource finie. Ils existent depuis la création de la Terre, et se concentrent dans le sous-sol au gré des événements géologiques. Actuellement, deux origines d’approvisionnement co-existent : la primaire (l’extraction minière), et la secondaire (le recyclage).
Les filons miniers les plus riches et faciles d’accès ont sans surprise été exploités les premiers : la teneur en minéral des gisements diminue.
Pour extraire au plus vite et à moindre coût, l’exploitation minière « de masse », le plus souvent à ciel ouvert, se développe, ce qui en accroît l’emprise au sol, la quantité d’énergie consommée, ainsi que les déchets (roches « stériles », boues, eaux polluées…). Les impacts environnementaux explosent pour miner la même quantité de substance.
Notons que la perspective d’une exploitation des ressources au fond des océans ou spatiales reste à ce jour un pari risqué.
Concernant la seconde source — le recyclage — le « gisement » est insuffisant pour répondre aux besoins d’aujourd’hui. En effet, avant de pouvoir recycler un objet, faut-il encore qu’il soit en fin de vie. Or, la demande en électricité nécessite l’addition de nouvelles capacités de production décarbonée, et non — à ce stade — leur remplacement.
L’électronique en particulier ne peut pas être considérée comme un gisement secondaire d’envergure, car son recyclage est problématique à divers niveaux. Pour commencer, nous ne collectons mondialement qu’un périphérique usagé sur cinq. Ensuite, nous ne savons récupérer industriellement que onze minéraux dans les déchets électroniques : fer, aluminium, cuivre, argent, or, nickel, chrome, cobalt, cadmium, néodyme et dysprosium. Leur séparation est rendue particulièrement difficile par leur diversité, les alliages, la miniaturisation, la complexification et la variété des produits collectés. Enfin, le recyclage ne permet pas d’atteindre la pureté des minéraux nécessaire à la fabrication de nouveaux composants électroniques.
Ainsi observe-t-on un cercle vicieux entre les transitions énergétique et numérique qui accroît exponentiellement la demande en minéraux et ses impacts environnementaux.
La société civile, soucieuse de l’environnement, fourmille d’initiatives pour rendre soutenables les activités humaines : en se passant de numérique quand il n’est pas nécessaire, en subordonnant la quête d’optimisation au respect de limites matérielles que l’on s’est fixées, en augmentant la durée de vie des périphériques…
Des coopératives commerciales émergent pour répondre démocratiquement à de nombreux défis : Enercoop fournit de l’énergie décarbonée, Commown de l’électronique écoconçue, Mobicoop assure la mobilité, Telecoop la téléphonie…
Du côté du numérique, il existe la fédération CHATONS, constituée de 90 collectifs qui fournissent au public divers services : e-mails, sites web, sauvegardes…
Mentionnons en particulier l’association Deuxfleurs à laquelle nous contribuons.
Plutôt que reposer sur des centres de données, Deuxfleurs propose des services numériques en utilisant comme seule infrastructure matérielle d’anciens ordinateurs de bureau répartis au domicile de quelques-uns de ses membres.
Intégrer de telles initiatives pourrait permettre de maîtriser notre consommation minérale grâce au réemploi, à la réparation électronique, à la conception de services numériques durables… Pour nous, voilà ce que « sobriété » veut dire.
Adrien Luxey-Bitri appartient à l'Université de Lille, est membre de l'association Deuxfleurs et du centre de recherche en informatique Inria.
Catherine Truffert est PDG de IRIS Instruments, filiale du BRGM. Elle est par ailleurs présidente du Centre de Ressources Technologiques Cresitt Industrie et membre de l'association Deuxfleurs.
16.09.2025 à 15:18
Sambit Bhattacharyya, Professor of Economics, University of Sussex Business School, University of Sussex
Au-delà de l’économie, la politique tarifaire de Donald Trump s’affirme comme un levier de diplomatie aux répercussions géopolitiques considérables. L’imposition de droits de douane de 50 % à l’Inde, alliée stratégique des États-Unis au sein du Quad, le dialogue quadrilatéral pour la sécurité, menace non seulement les échanges bilatéraux, mais risque aussi de rapprocher New Delhi de la Russie et de la Chine, de renforcer la cohésion des BRICS+ et de fragiliser la primauté du dollar sur la scène mondiale.
La politique tarifaire de Donald Trump semble être devenue autant un outil de politique étrangère qu’une stratégie économique. Mais la décision de l’administration d’imposer des droits de douane de 50 % à l’Inde, un allié clé des États-Unis dans le cadre du dialogue quadrilatéral pour la sécurité (surnommé en anglais, le Quad) – le groupe de coopération militaire et diplomatique informelle entre les États-Unis, l’Inde, le Japon et l’Australie – pourrait avoir des répercussions importantes, non seulement sur le commerce international, mais aussi sur la géopolitique mondiale.
La justification américaine de cette hausse des droits de douane est avant tout politique. La Maison Blanche affirme que l’Inde a tiré profit de l’achat et de la revente de pétrole russe, au mépris des sanctions imposées après l’invasion de l’Ukraine en 2022. Cela a aidé la Russie à surmonter les effets des sanctions et à continuer de financer sa guerre en Ukraine.
Il est évident que la politique tarifaire et les déclarations récentes de Washington et de New Delhi ont gravement détérioré une relation bilatérale encore naissante. À tel point que le premier ministre indien, Narendra Modi, a refusé de répondre aux appels téléphoniques de Trump. De son côté, Trump ne prévoit plus de se rendre en Inde pour le sommet du Quad prévu plus tard dans l’année.
Le premier ministre indien, Narendra Modi, a participé au sommet de l’Organisation de coopération de Shanghai (OCS) à Tianjin, en Chine, du 31 août au 1er septembre, en compagnie du président russe Vladimir Poutine. Les trois dirigeants ont été photographiés ensemble en pleine discussion cordiale et M. Modi a rencontré séparément MM. Xi et Poutine en marge du sommet, présenté comme une alternative à l’ordre hégémonique dominé par les États-Unis.
Il apparaît désormais évident que la hausse des droits de douane américains ne détournera pas l’Inde de ses achats de pétrole russe. Bien au contraire, Modi a confirmé la volonté de son pays non seulement de maintenir ces importations, mais aussi de les accroître.
Rien d’étonnant à cela : la posture de l’Inde à l’égard de la Russie, en tant qu’importateur net de pétrole brut, relève moins d’une ambition géopolitique d’envergure que d’une nécessité économique concrète, celle de maîtriser l’inflation.
Sur le plan énergétique, l’Inde reste très dépendante des importations, et sa population — majoritairement pauvre et vulnérable — a besoin de prix stables et abordables. Aucune pression venue des États-Unis ou de leurs alliés du G7 ne saurait modifier cette réalité économique fondamentale.
L’instauration des droits de douane américains risque de réduire les exportations indiennes de vêtements et de chaussures vers les États-Unis, les grandes marques occidentales se tournant vers des fournisseurs moins coûteux dans d’autres pays. Une telle dynamique se traduirait par une augmentation des prix pour les consommateurs américains.
Cependant, l’impact sur les fournisseurs indiens devrait rester limité, la demande mondiale en vêtements et chaussures demeurant très élevée. Ils pourraient aisément se tourner vers d’autres marchés.
Les pierres précieuses représentent un autre pilier des exportations indiennes, où le pays détient une position dominante à l’échelle mondiale. Les droits de douane américains ne devraient pas modifier sensiblement cette situation, l’Inde disposant de nombreux débouchés à l’exportation, bien que les États-Unis figurent parmi ses principaux clients.
Le renforcement des échanges commerciaux entre l’Inde et la Russie devrait favoriser de nouvelles opportunités d’investissements réciproques. Pour la Russie, la conjoncture économique pourrait globalement s’améliorer à la suite de ces droits de douane. L’Inde a d’ailleurs laissé entendre qu’elle augmenterait probablement ses importations de pétrole, tandis que la Russie profiterait d’achats de vêtements et de chaussures à prix compétitifs en provenance d’Inde, les fournisseurs indiens cherchant à rediriger leurs exportations vers de nouveaux débouchés.
Le renforcement des relations économiques avec l’Inde, qui ambitionne de porter les échanges bilatéraux à 100 milliards de dollars américains (92 milliards d’euros) d’ici 2030, offrira à la Russie un important marché alternatif à la Chine pour écouler ses produits. Elle y gagnera également un fournisseur majeur de biens de consommation, habituellement importés, contribuant ainsi à maintenir des prix abordables pour les ménages russes.
L’Occident court le risque que, si les tensions tarifaires se traduisent par des sanctions financières plus strictes, les investissements indiens se détournent des États-Unis et des pays du G7 au profit de la Russie et de la Chine. Les investisseurs indiens sont actuellement très présents dans les secteurs de l’automobile, de la pharmacie, des technologies de l’information et des télécommunications en Occident, mais ces flux pourraient être redirigés vers d’autres marchés.
On observe de plus en plus de signes d’une cohésion renforcée, non seulement au sein de l’OCS, mais également au sein du groupe des BRICS+, qui regroupe un nombre croissant de nations commerçantes. Initialement composé des membres fondateurs – le Brésil, la Russie, l’Inde, la Chine et l’Afrique du Sud – le groupe s’est récemment élargi pour inclure l’Égypte, l’Éthiopie, l’Iran, l’Indonésie et les Émirats arabes unis.
Ces économies en pleine croissance s’efforcent déjà de mettre en place des mécanismes techniques pour les investissements mutuels et les règlements commerciaux dans leurs monnaies locales plutôt qu’en dollars américains.
Les chocs commerciaux mondiaux provoqués par l’imposition de droits de douane par les États-Unis ont entraîné une baisse à court terme de la valeur du dollar américain. Si cette dépréciation reste modeste d’un point de vue historique, elle masque néanmoins un risque plus important à long terme.
Le problème ne concerne pas les transactions commerciales, qui ne constituent qu’une part marginale des opérations en dollars. Les risques à long terme résident plutôt dans une possible diminution du rôle du dollar dans la gestion d’actifs, l’investissement, les activités financières et les réserves internationales.
En particulier, le rôle quasi exclusif du dollar comme monnaie de réserve pour les pays du BRICS et du Sud est aujourd’hui menacé.
Toute politique susceptible de remettre en cause ce statut mettrait en danger la prospérité et la sécurité des États-Unis. Le problème, c’est que toute orientation financière ou commerciale rapprochant les principaux partenaires commerciaux américains de la Russie et de la Chine aurait précisément cet effet.
Sambit Bhattacharyya bénéficie d'un financement de UK Research and Innovation, du Conseil de recherche économique et sociale, du Conseil australien de la recherche et du Conseil européen de la recherche.
16.09.2025 à 14:14
Nicolas Mathevon, Professeur (Neurosciences & bioacoustique - Université de Saint-Etienne, Ecole Pratique des Hautes Etudes - PSL & Institut universitaire de France), Université Jean Monnet, Saint-Étienne
The sound slices through the quiet of the night: a muffled sob, then a hiccup, quickly escalating into a high-pitched, frantic wail. For any parent or caregiver, this is a familiar, urgent call to action. But what is it a call for? Is the baby hungry? In pain? Lonely? Or simply uncomfortable? For generations, we’ve been told that understanding this primal language is a matter of intuition, a “maternal instinct” that allows a mother to divine her child’s needs. Society often reinforces this idea, creating an elite class of quasi-psychic super-parents who seem to know everything, and leaving many others feeling inadequate and guilty when they can’t immediately decipher the message.
As a bioacoustics researcher, I have spent years studying the communication of animals – from the soft calls of crocodile nestlings synchronizing their hatching and pushing the parent to dig the nest, to the calls of zebra finches allowing mate recognition. I was surprised to discover, upon turning my attention to our own species, that the cries of human babies hold as much, if not more, mystery. My colleagues and I have spent over a decade applying the tools of acoustic analysis, psycho-acoustic experiments and neuro-imagery to this intimate world. Our findings, detailed in my book, The intimate world of babies’ cries, challenge many of our most cherished beliefs and offer a new, evidence-based framework for understanding this fundamental form of human communication.
The first and perhaps most important thing to know is this: you cannot tell why your baby is crying just from the sound of the cry alone.
Many parents feel immense pressure to become “cry experts”, and an entire industry has sprung up to capitalise on this anxiety. There are apps, devices, and expensive training programmes all promising to translate cries into specific needs: “I’m hungry,” “change my diaper,” “I’m tired.” Our research, however, shows these claims are baseless.
To test this scientifically, we undertook a large-scale study. We placed automatic recorders in the rooms of 24 babies, recording them continuously for two days at a time at several ages during their first four months of life. This resulted in an enormous dataset of 3,600 hours of recordings containing nearly 40,000 cry “syllables”. The dedicated parents carefully logged the action that successfully soothed the baby, giving us a “cause” for each cry: hunger (soothed by a bottle), discomfort (soothed by a diaper change), or isolation (soothed by being held). We then used machine learning algorithms, training an artificial intelligence on the acoustic properties of these thousands of cries to see if it could learn to identify the cause. If there was a distinct “hunger cry” or “discomfort cry”, the AI should have been able to detect it.
The result was a resounding failure. The AI’s success rate was only 36% – barely above the 33% it would get by pure chance. To ensure this wasn’t just a limitation of technology, we repeated the experiment with human listeners. We had parents and nonparents first “train” on the cries of a specific baby, just as a parent would in real life, and then asked them to identify the cause of new cries from that same baby. They fared no better, scoring just 35%. The acoustic signature of a cry for food is not reliably different from a cry of discomfort.
This doesn’t mean parents can’t figure out what their baby needs. It simply means the cry itself is not an entry in a dictionary. The cry is the alarm bell. It is your knowledge of the essential context that allows you to decode it. “It’s been three hours since the last feeding, so they are probably hungry.” “That diaper felt full.” “They’ve been alone in the crib for a while.” You are the detective; the cry is simply the initial, undifferentiated alert.
If cries don’t signal their cause, what information do they reliably convey? Our research shows they transmit two crucial pieces of information.
The first is static information: the baby’s unique vocal identity. Just as every adult has a distinct voice, every baby has a unique cry signature, primarily determined by the fundamental frequency (pitch) of their cry. This is a product of their individual anatomy – the size of their larynx and vocal cords. It’s why you can recognise your baby’s cry in a nursery. Interestingly, while babies have an individual signature, they do not have a sex signature. The larynxes of baby boys and girls are the same size. Yet, adults consistently attribute high-pitched cries to girls and low-pitched cries to boys, projecting their knowledge of adult voices onto infants.
The second, and more urgent, piece of information is dynamic: the baby’s level of distress. This is the most important message encoded in a cry, and it is conveyed not so much by pitch or loudness, but by a quality we call “acoustic roughness”. A cry of simple discomfort, from being a little cold after a bath, for instance, is relatively harmonious and melodic. The vocal cords vibrate in a regular, stable way. But a cry of real pain, as we recorded during routine vaccinations, is dramatically different. It becomes chaotic, rough, and grating. This is because the stress of pain causes the baby to force more air through their vocal cords, making the cords vibrate in a disorganised, non-linear way. Think of the difference between a clean note from a flute and the harsh, chaotic sound it makes when you blow too hard. This roughness, a collection of acoustic phenomena including chaos and sudden frequency jumps, is a universal and unmistakable signal of high distress. A melodious “wah-wah” means “I’m a bit unhappy,” while a rough, harsh “IIiiRRRRhh” means “This is serious!”.
So, who is best at decoding these complex signals? The pervasive myth of “maternal instinct” suggests that mothers are biologically hard-wired for the task. Our work comprehensively debunks this. An instinct, like a goose’s fixed behaviour of rolling an egg back to its nest, is innate and automatic. Understanding cries is not like this at all.
In one of our key studies we tested mothers and fathers on their ability to identify their own baby’s cry from a selection of others. We found absolutely no difference in performance between the two. The single most important factor was the amount of time spent with the baby. Fathers who spent as much time with their infants were just as adept as mothers. The ability to decode cries is not innate; it is learned through exposure. We confirmed this in studies with non-parents. We found that childless adults could learn to recognise a specific baby’s voice after hearing it for less than 60 seconds. And those with prior childcare experience, like babysitting or raising younger siblings, were significantly better at identifying a baby’s pain cries than those with no experience.
This all makes perfect evolutionary sense. Humans are “cooperative breeders”. Unlike in many primates where the mother has a near-exclusive relationship with her infant, human babies have historically been cared for by a network of individuals: fathers, grandparents, siblings, and other members of the community. In some hunter-gatherer societies like the!Kung, a baby may have up to 14 different caregivers. A hard-wired, mother-only “instinct” would be a profound disadvantage for a species that relies on a team.
Our neuroscientific research reveals how this learning process works. When we hear a baby cry, a whole network of brain regions, called the “baby-cry brain connectome”, springs into action. Using MRI scans, we’ve observed that cries activate auditory centres, the empathy network (allowing us to feel another’s emotion), the mirror network (helping us put ourselves in another’s shoes), and areas involved in emotion regulation and decision-making.
Crucially, this response is not the same for everyone. When we compared the brain activity of parents and nonparents, we found that while everyone’s brain responds, the “parental brain” is different. Experience with a baby strengthens and specialises these neural networks. For example, parents’ brains show greater activation in regions associated with planning and executing a response, while nonparents show a more raw, untempered emotional and empathetic reaction. Parents shift from simply feeling the distress to actively problem-solving. Furthermore, we found that individual levels of empathy – not gender – were the strongest predictor of how intensely the brain’s “parental vigilance” network activated. Caring is a skill that is honed through practice, and it physically reshapes the brain of any dedicated caregiver, male or female.
Understanding the science of crying is not just an academic exercise; it has profound real-world implications. Incessant crying, especially from colic (which affects up to a quarter of infants), is a primary source of parental stress, sleep deprivation, and exhaustion. This exhaustion can lead to feelings of failure and, in the worst cases, can be a trigger for shaken baby syndrome, a tragic and preventable form of abuse.
The knowledge that you are not supposed to “just know” what a cry means can be incredibly liberating. It removes the burden of guilt and allows you to focus on the practical task: check the context, assess the level of distress (is the cry rough or melodic?), and try solutions. Most importantly, the science points to our species’ greatest strength: cooperation. The fact that any human can become an expert caregiver through experience means you are not meant to do this alone. The unbearable cries become bearable when they can be passed to a partner, a grandparent, or a friend for a much-needed break.
So, the next time you hear that piercing cry in the night, remember what it truly is: not a test of your innate abilities or a judgement on your parenting skills, but a simple, powerful alarm. It’s a signal designed to be answered not by a mystical instinct, but by a caring, attentive and experienced human brain. And if you’re feeling overwhelmed, the most scientifically sound and evolutionarily appropriate response is to ask for help.
Nicolas Mathevon is the author of The intimate world of babies’ cries: The best ways to understand and calm your baby.
Created in 2007 to help accelerate and share scientific knowledge on key societal issues, the AXA Research Fund – now part of the AXA Foundation for Human progress - has supported over 750 projects around the world on key environment, health & socioeconomic risks. To learn more, visit the website of the Axa Research Fund or follow @AXAResearchFund on Linked In.
A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!
Nicolas Mathevon has received funding from the ANR, IUF, and Fondation des Mutuelles AXA.
16.09.2025 à 13:58
Nicolas Frémeaux, Professeur des universités et maître de conférence, Université de Rouen Normandie
La moitié des Français n’hérite de rien ou presque, alors que 10 % des héritiers les plus riches concentrent plus de 50 % des héritages. Alors pourquoi l’impôt sur l’héritage est-il aussi impopulaire ?
L’héritage est de retour en France, et ce retour est massif. On peut chiffrer ce phénomène de plusieurs manières. Commençons par les flux successoraux, c’est-à-dire ce qui est transmis tous les ans sous forme d’héritages et de donations. Ce flux se situe actuellement entre 350 milliards et 400 milliards d’euros et, d’ici à 2040, plus de 9 000 milliards d’euros de patrimoine devraient être transmis.
Une autre manière de se représenter le retour de l’héritage consiste à décomposer l’ensemble du patrimoine privé détenu par les Français (qu’il soit immobilier, financier ou professionnel) entre ce qui vient de l’épargne et ce qui vient de l’héritage. Comme l’ont montré les économistes Facundo Alvaredo, Bertrand Garbinti et Thomas Piketty, l’héritage est aujourd’hui largement supérieur à l’épargne. Il représente près des deux tiers du patrimoine des ménages contre un tiers pour l’épargne. C’était l’inverse dans les années 1970, moment où l’héritage a connu son plus bas niveau historique.
Le niveau actuel reste inférieur à celui observé à la veille de la Première Guerre mondiale où l’héritage constituait plus de 80 % du patrimoine. Même si les sociétés actuelles diffèrent de celle du XIXe siècle sur de nombreux aspects, elles sont finalement assez proches sur le plan patrimonial, que ce soit du point de vue des niveaux de richesses détenues ou de l’importance prise par les transmissions patrimoniales.
Ce panorama serait incomplet si on se limitait à ce constat macroéconomique. L’héritage est bien plus concentré que les revenus. La moitié des Français n’hérite de rien ou presque quand, dans le même temps, 10 % des héritiers les plus riches concentrent plus de 50 % des héritages. Au sommet de la distribution, on estime que les 0,1 % des héritiers les plus riches reçoivent plus de 13 millions d’euros de patrimoine au cours de leur vie.
C’est la nature même des inégalités qui change. La figure du rentier, qu’on pouvait penser disparue, est de retour. Pour une part limitée, mais croissante de la population, la principale source de richesse sera l’héritage et non les revenus du travail.
Le retour de l’héritage a une conséquence inattendue : créer un (quasi) consensus chez les économistes en faveur d’une réforme de l’impôt successoral. Il n’est pas tant lié aux enjeux de justice sociale, qui dépassent le seul cadre de la science économique, qu’aux effets de l’héritage du point de vue de l’efficacité économique.
L’héritage peut être la source d’inefficacités puisque recevoir un capital peut réduire l’offre de travail, dans le sens où le capital hérité peut se substituer aux revenus du travail. Cet « effet Carnegie » a été vérifié dans plusieurs pays.
Aux États-Unis, les économistes Douglas Holtz-Eakin, David Joulfaian et Harvey Rosen ont mis en évidence une réduction de l’offre de travail parmi les récipiendaires d’héritages importants. En Allemagne, Fabian Kindermann, Lukas Mayr et Dominik Sachs estiment que, pour chaque euro récolté par l’imposition des successions, neuf centimes additionnels sont obtenus via l’imposition des revenus des suites de la hausse de l’offre de travail. De ce point de vue, imposer les héritages pourrait accroître l’activité économique.
Les réponses comportementales négatives à l’impôt successoral sont quant à elles limitées, ce qui en fait un « bon impôt » à l’aune du même critère d’efficacité.
Une de ces réponses passe par l’épargne. Si le patrimoine potentiellement transmis par les donataires est réduit par l’impôt successoral, alors ceux-ci pourraient décider de réduire leur épargne. Cette intuition a été confirmée par les rares études sur la question qui concluent bien à un effet négatif – l’imposition réduit l’incitation à épargner –, mais de faible ampleur. Le fait que l’épargne dépende de nombreux facteurs économiques et de motifs autres que l’altruisme familial, comme l’aversion au risque et la prévoyance, explique que l’impôt successoral à lui seul a des effets limités.
Une réponse plus radicale pourrait être l’exil fiscal. Une trop forte imposition pourrait inciter les individus à émigrer vers des cieux (fiscaux) plus cléments. Là encore, identifier le seul effet de l’imposition sur la décision d’émigration est complexe. Comme pour l’épargne, ce type de décision dépend de nombreux déterminants économiques et personnels : potentielle rupture avec l’environnement professionnel et familial, mauvaise perception par l’opinion publique ou démarches administratives complexes.
À lire aussi : Impôt sur la fortune : si souvent enterré, et pourtant toujours en vie
Les économistes Karen Smith Conway et Jonathan C. Rork, aux États-Unis, et Marius Brülhart et Raphaël Parchet, en Suisse, montrent que les migrations internes des ménages âgés (susceptibles de transmettre leur patrimoine dans un futur proche) ne s’expliquent que marginalement par les différences fiscales entre États ou cantons. Ainsi, les retraités aisés sont relativement insensibles aux variations d’impôt successoral.
Si l’héritage pose un problème de justice sociale et d’efficacité économique, pourquoi le sujet n’est-il pas plus central dans le débat public ? Surtout, pourquoi observe-t-on un affaiblissement de l’impôt successoral ?
Depuis les années 1980, de nombreux pays, comme les États-Unis, la Suède, le Canada ou encore l’Australie, ont supprimé ou réduit leur impôt successoral, en mobilisant le plus souvent des arguments moraux. La France semble échapper à ce phénomène, mais, malgré une stabilité des principaux paramètres fiscaux que sont les taux et les abattements, la multiplication des niches fiscales a bien réduit la progressivité de l’impôt.
Ce qui peut sembler être un paradoxe n’en est en fait pas un. La critique actuelle de l’impôt successoral repose avant tout sur des arguments moraux selon lesquels taxer l’héritage revient à taxer la mort et à sanctionner l’altruisme familial. De manière générale, il contreviendrait à la liberté de transmettre librement son patrimoine.
D’après un sondage Odoxa, réalisé en avril 2024, 77 % des personnes interrogées considèrent l’impôt successoral injustifié et 84 % souhaitent qu’il soit diminué « pour permettre aux parents de transmettre le plus possible à leurs enfants ».
Il y a plusieurs précautions à prendre quand on évoque l’argument de l’impopularité de l’impôt. La méconnaissance de la réalité de l’héritage et la surestimation de l’impôt successoral invitent à la prudence dans l’interprétation des réponses. On peut concevoir une forte opposition à un impôt qu’on pense confiscatoire. Plusieurs travaux soulignent que le fait d’informer les répondants sur le niveau des inégalités augmente sensiblement le soutien à l’impôt successoral.
Le dialogue de sourds entre les pro et les anti pourrait empêcher tout débat relatif à l’héritage. Un débat qui pourrait être remis à l’ordre du jour pour d’autres raisons.
Au début du XXe siècle, des causes extérieures, comme les guerres et les crises, ont joué un rôle majeur dans la mise en place d’impôt progressif sur les revenus et sur les successions dans de nombreux pays. Il n’est pas dit que les crises actuelles, qu’elles soient climatiques, sociales ou géopolitiques, n’aient pas des effets similaires dans les années à venir.
Nicolas Frémeaux a reçu des financements de l'Agence Nationale de la Recherche.
16.09.2025 à 12:31
Sandra Sinno-Tellier, Médecin de santé publique, spécialisée en épidémiologie et en toxicologie, Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses)
Jérémy Hamon, Chargé d'études en toxicovigilance - Direction des alertes et des vigilances sanitaires, Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses)
Le frelon à pattes jaunes originaire d’Asie est désormais bien implanté en France hexagonale. C’est en été et à l’automne que ses colonies se développent. En analysant les données 2014-2023, l’Agence nationale de sécurité sanitaire et Santé publique France ont fait le point sur les risques pour l’humain.
Le frelon à pattes jaunes Vespa velutina nigrithorax, plus communément appelé « frelon asiatique », fait désormais partie de notre environnement. Sa présence en France a été observée pour la première fois dans le Lot-et-Garonne, en 2004. Des poteries pour bonsaïs ont été importées de Chine par un horticulteur avec, dans l’une d’entre elles, une reine fécondée qui hivernait.
Des études ont montré grâce à des analyses génétiques que la lignée de l’insecte importé provenait d’une région près de Shanghai.
Le frelon à pattes jaunes s’est très facilement adapté à notre environnement. En vingt ans, il a colonisé l’ensemble de l’Hexagone ainsi que les pays voisins : Espagne, Portugal, Belgique, Pays-Bas, Suisse, Italie, Allemagne et sud de l’Angleterre.
Il a aussi été détecté pour la première fois en Corse en août 2024. Si le nid a été détruit, un nouveau nid a cependant été détecté en juillet 2025 à Ajaccio.
Le frelon à pattes jaunes est un insecte du même ordre que le frelon européen, la guêpe, l’abeille ou le bourdon. Tous font partie de l’ordre des hyménoptères. Le frelon à pattes jaunes est reconnaissable à son abdomen brun bordé d’une bande jaune orangé ainsi qu’à ses pattes jaunes. Le frelon européen, plus grand, a un abdomen jaune clair rayé de noir et des pattes marron.
Les nids de ces frelons sont également différents. La colonie de frelons à pattes jaunes, qui peut comporter jusqu’à 3 000 individus, se développe en été et à l’automne dans de grands nids sphériques ou en forme de goutte perchée à plus de dix mètres en haut des arbres. L’ouverture du nid se situe sur le côté.
Généralement, le frelon européen construit son nid, plus petit, dans des cavités (arbre creux, cheminée, grenier…). Le frelon à pattes jaunes n’est par ailleurs actif que le jour, alors que le frelon européen sort jour et nuit.
Les piqûres de frelons à pattes jaunes présentent la même dangerosité pour l’humain que celles des autres hyménoptères. Le venin entraîne une réaction toxique, caractérisée par une douleur, une rougeur, un gonflement local et des signes généraux (vomissements, diarrhées, maux de tête, chute de la tension artérielle…) d’autant plus intenses que le nombre de piqûres est élevé.
En effet, contrairement à l’abeille, mais comme la guêpe et le frelon européen, le frelon à pattes jaunes ne perd pas son dard lorsqu’il pique et peut donc piquer et injecter du venin à plusieurs reprises. Son dard, qui mesure jusqu’à 6 mm, est cependant plus long que celui des guêpes et entraîne une piqûre plus profonde, capable de traverser certains vêtements et gants de jardinage.
La piqûre du frelon à pattes jaunes peut aussi être responsable d’une réaction allergique, non liée à la dose de venin injectée, une seule piqûre suffisant à la déclencher. Dans ce cas, un œdème de la gorge, empêchant la respiration, ou un effondrement de la tension artérielle peut entraîner un état de choc anaphylactique avec perte de connaissance et arrêt cardio-respiratoire conduisant au décès.
Le traitement du choc anaphylactique consiste en l’injection immédiate d’adrénaline par stylo auto-injecteur ou par voie intraveineuse une fois les secours arrivés. Du fait d’allergies croisées, c’est le plus souvent après une piqûre de guêpe que les patients deviennent allergiques au venin des frelons.
Le dernier bilan sanitaire des piqûres d’hyménoptères datant de plus de dix ans, l’Agence nationale de sécurité sanitaire (Anses) et Santé publique France ont analysé dix nouvelles années de données de santé (appels aux centres antipoison, passages aux urgences, hospitalisations et mortalité par piqûre d’hyménoptères) pour faire le point sur les risques liés aux piqûres de guêpes, frelons et abeilles.
Au total, 6 022 appels aux centres antipoison, 179 141 passages aux urgences, 18 213 hospitalisations, dont 13 % en réanimation ou en soins intensifs, et 256 certificats de décès pour piqûre d’hyménoptères ont été comptabilisés entre 2014 et 2023 inclus.
Malgré la poursuite de la prolifération du frelon à pattes jaunes sur le territoire hexagonal ces dix dernières années, les différentes données de santé étudiées apportent des conclusions convergentes et ne montrent pas d’augmentation du nombre d’envenimations par des hyménoptères, année après année.
Le nombre de piqûres varie d’une année à l’autre, sans tendance globale à la hausse ni à la baisse, avec des pics saisonniers aux mois de juillet et août.
Entre 2014 et 2023, ce sont les guêpes qui sont le plus souvent en cause dans ces envenimations (37 % des appels aux centres antipoison), suivies des frelons toutes espèces confondues (25 %) et des abeilles (19 %). Les piqûres de frelons représentaient de 20 % à 30 % des piqûres d’hyménoptères chaque année, avec une légère augmentation en 2023 (près de 40 %) (Figure ci-dessus).
Les envenimations par des frelons à pattes jaunes représentaient un peu plus de la moitié (55 %) des envenimations par des frelons, lorsque l’espèce de frelon était identifiée, et restaient stables au cours du temps.
Parmi les envenimations par des hyménoptères enregistrées par les centres antipoison, 1,5 % étaient graves au point de menacer le pronostic vital, voire de conduire au décès. Ces envenimations étaient dues à une réaction allergique, seule ou associée à des signes toxiques, pour la grande majorité d’entre elles (89 %). Les frelons étaient les premiers responsables des envenimations graves (38 %), devant les abeilles (24 %) et les guêpes (22 %) (hyménoptères non précisés pour les 16 % restants).
Les envenimations graves avaient été provoquées par une seule piqûre pour près de la moitié d’entre elles (48 %), un peu plus souvent en cas de piqûre de frelons (53 % de piqûre unique). Les autres étaient dues à des piqûres multiples, dans la bouche ou sur d’autres muqueuses.
En l’absence de prédateur, le frelon à pattes jaunes se développe en se nourrissant d’autres insectes, chaque colonie pouvant en consommer jusqu’à 11 kg par an ! Il a tendance à proliférer près des ruches, et c’est son appétit immodéré pour nos abeilles domestiques qui pose le plus problème aujourd’hui. En plus de les capturer et de les dépecer, leurs vols continus près des ruches empêchent les abeilles de sortir pour butiner, ce qui affaiblit la production de miel qui leur sert de réserve de nourriture l’hiver.
En Asie, les abeilles ont appris à se défendre en formant une boule compacte autour du frelon qui les attaque. En faisant vibrer leurs ailes en nombre, elles augmentent la température de la boule et le frelon meurt littéralement cuit ! Nos abeilles domestiques sont plus dociles et n’ont pas développé ces techniques de défense.
Différentes techniques (pièges, harpes électriques, muselières emboîtées à l’entrée des ruches…) existent pour éloigner les frelons à pattes jaunes des ruches. La plus commune est le piégeage avec un appât sucré, qui consiste à attirer les frelons vers un liquide dans lequel ils se noient. Des pièges sélectifs, en nasses successives, ont été développés, pour permettre aux insectes plus petits que les frelons, capturés par erreur, de ressortir avant de tomber dans le liquide.
En revanche, les pièges non sélectifs, constitués d’une simple bouteille contenant un liquide sucré, sont à proscrire pour préserver la biodiversité.
Les pièges sont à utiliser autour des ruchers menacés et sont à contrôler régulièrement. Deux périodes de piégeage sont recommandées : de février à mai (piégeage de printemps) afin de capturer les reines fondatrices, et de mi-août à novembre, lors de la reproduction, pour piéger les futures fondatrices avant leur hivernation.
Une loi visant à endiguer la prolifération du frelon à pattes jaunes et à préserver la filière apicole est entrée en vigueur le 15 mars 2025. Elle prévoit la création d’un plan de lutte national, l’encadrement du piégeage des frelons et l’indemnisation des apiculteurs. À ce jour, les décrets d’application ne sont pas encore parus.
Le frelon à pattes jaunes fait désormais partie de notre environnement. Si on ne peut pas l’éradiquer, on peut apprendre à s’en protéger : d’une part, pour éviter des piqûres qui peuvent être graves chez l’humain, au même titre que celles occasionnées par les autres frelons, guêpes ou abeilles, et, d’autre part, pour préserver les insectes pollinisateurs, dont les abeilles des ruches, maillon indispensable de la biodiversité.
Merci à Quentin Rome, responsable « Frelon asiatique et hyménoptères » dans l’unité PatriNat (Muséum national d’histoire naturelle/Office français de la biodiversité), pour sa relecture de cet article.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
16.09.2025 à 11:07
Ben Voyer, Cartier Chaired Professor of Behavioural Sciences, Full Professor, Department of Entrepreneurship, ESCP Business School
Perrine Desmichel, Assistant Professor of Marketing, ESCP Business School
Qu’ont en commun le secteur du luxe et celui de l’automobile ? Il y a encore peu poser la question aurait paru incongru tant les similitudes entre les promoteurs du « toyotisme » et ceux de la dépense somptuaire semblaient improbables. L’arrivée de Luca de Meo (ex-Renault) à la tête de Kering signale un changement pour le groupe fondé par François-Henri Pinault, mais aussi pour le secteur dans son entier. La fin de la récréation est-elle définitivement sifflée ?
Cette semaine à l’occasion de l’assemblée générale de Kering, Luca de Meo a officiellement pris sa place à la tête du deuxième plus grand groupe de luxe français. Le choix de l’ancien dirigeant de Renault comme nouveau PDG interroge. À biens et services d’exception, stratégie d’exception : le luxe peut-il survivre à une logique d’optimisation financière comme on en trouve dans l’industrie et les FMCG ?
Depuis les années 1990, l’essor de conglomérats comme LVMH et Kering a fondamentalement changé l’industrie du luxe, en créant une logique industrielle plus qu’une logique de marque. Les conglomérats ont su ainsi profiter des marges bénéficiaires élevées dans le luxe et ont utilisé un effet de levier financier pour se développer rapidement et acquérir des marques. En profitant d’économies d’échelle allant du parc immobilier aux budgets de marketing permettant de négocier avec les principaux médias, en passant par la négociation des coûts de production avec les sous-traitants.
Cette stratégie est aujourd’hui remise en question. Les marques de luxe luttent contre la saturation, la dégradation de la qualité perçue et une perte d’exclusivité alors qu’elles poursuivent leur stratégie de croissance à travers le volume. Il existe un décalage croissant entre la perception des consommateurs des prix du luxe et la qualité des produits. De nombreuses marques sont perçues, à tort ou à raison, comme ayant rogné sur l’artisanat et les matériaux tout en augmentant considérablement les prix, s’appuyant principalement sur le marketing pour justifier les coûts. L’industrie se situe à un tournant, avec de nombreuses marques affirmant qu’elles se concentreront sur « la valeur plutôt que le volume » à l’avenir. Cependant, il reste à voir si elles peuvent vraiment revenir aux fondamentaux du luxe, à savoir l’artisanat et une rareté authentique et non orchestrée.
Traditionnellement, les marques de luxe étaient des entreprises familiales, avec un leadership transmis de génération en génération. Cela permettait de préserver l’héritage de la marque et la dimension artisanale. Les décisions étaient prises avec une vision de long terme, en opposition avec les diktats de la bourse et la logique financière, qui imposent des communications financières régulières. Ce modèle est d’ailleurs toujours suivi par Hermès, dont le PDG Axel Dumas appartient à la sixième génération de la famille Hermès-Dumas.
Un deuxième modèle a par la suite émergé, consistant à recruter des PDG de l’industrie du luxe, qui étaient en phase avec les aspects uniques de la gestion des marques de luxe. Cette vision a dominé durant l’expansion rapide et massive des marques de luxe, qui sont passées de champions régionaux de l’excellence et du savoir-faire européen à des leaders mondiaux des biens haut de gamme à forte valeur ajoutée. C’est notamment aujourd’hui le cas de Nicolas Bos, nouveau PDG de Richemont – le conglomérat suisse du luxe – qui était anciennement à la tête de Van Cleef and Arpels.
Plus récemment, un nouveau modèle semble émerger, où les marques de luxe commencent à recruter des PDG d’autres industries, en particulier des entreprises de biens de première consommation (FMCG). Cela a été le cas notamment de Leena Nair chez Chanel, débauchée de chez Unilever, et de Luca de Meo chez Kering. Cela apporte de nouvelles approches de gestion mais crée également des tensions avec les valeurs traditionnelles du secteur.
En effet, l’approche FMCG a introduit une gestion financière plus rigoureuse, une optimisation de la segmentation et du ciblage marketing, une stratégie de croissance basée sur les extensions de marques, et une production à l’échelle industrielle dans le luxe. Cependant, cela met aussi à mal l’accent mis sur la créativité, l’artisanat et l’exclusivité, dans le luxe.
À lire aussi : Après Renault, Luca de Meo pourra-t-il mettre le turbo chez Kering ?
Ces nominations peuvent certes proposer un regard neuf sur l’industrie : la nomination de Leena Nair, à la tête de Chanel, apporte une expertise en ressources humaines, dans un secteur où les talents sont rares. Des questions demeurent cependant, par exemple, quant à l’intégration de l’excellence dans le service et l’expérience, où les pratiques du secteur du luxe sont sans commune mesure avec les pratiques du secteur de la grande consommation.
Pour Kering et son nouveau CEO, les défis sont nombreux. On peut noter une chute de 25 % des ventes chez Gucci – la marque phare du groupe – et d’autres marques sous-performantes dans son portefeuille. Le nouveau PDG devra s’attaquer à ces problèmes.
L’entreprise s’est développée rapidement en utilisant un effet de levier financier, mais cette stratégie a peut-être atteint ses limites compte tenu de l’endettement actuel de Kering. De nombreuses préoccupations demeurent quant à la dilution des marques du groupe et la perte d’exclusivité. L’approche traditionnelle des groupes de luxe, qui consiste à prendre des marques à la mode ou en perte de vitesse, et de les relancer en appliquant des stratégies de marketing – augmenter la désirabilité et la perception de valeur – et de vente au détail, à travers l’expérience client, peut ne plus être aussi efficace sur le marché actuel.
Le choix du nouveau PDG – un ancien de chez Renault qui a l’habitude d’opérer dans une industrie à maturité, où la création de plateformes est importante, ainsi que la préservation des marges – témoigne de l’arrivée à maturité de l’industrie. Cette stratégie consiste à concentrer les efforts marketing sur les produits phares à forte valeur ajoutée – la maroquinerie, la beauté et les accessoires (par exemple, les lunettes de soleil). Pour ce type de produits, une logique de plate-forme peut être mise en place, où les synergies entre marques permettent de produire et distribuer à moindre coût, quitte à sacrifier l’individualité des marques.
Le nouveau PDG devra équilibrer la performance financière avec la préservation du capital de la marque et de l’exclusivité. Cela peut nécessiter des décisions difficiles concernant la réduction de certaines opérations ou la cession de marques sous-performantes. Une stratégie de retour à l’exclusivité, en diminuant le nombre de boutiques et en se focalisant sur les pièces à forte valeur ajoutée, a été utilisée avec succès par Chanel dans les années 1980.
Le nouveau patron de Gucci, Balenciaga ou Bottega Veneta aura fort à faire pour montrer qu’un PDG venant de l’extérieur de l’industrie du luxe peut s’atteler avec succès à ces défis et restaurer la trajectoire de croissance de Kering tout en maintenant son positionnement de luxe.
Ces difficultés reflètent les difficultés plus larges d’un modèle qui a adopté des tactiques de marché de masse, traitant des produits émotionnels et créatifs comme des marchandises. Cette approche de « FMCG des riches » présente un risque réel d’éroder ce qu’est l’essence même du luxe.
Les marques de luxe font face à des pressions contradictoires – maintenir l’exclusivité et l’artisanat tout en livrant la croissance et les bénéfices attendus par les marchés financiers et les propriétaires de conglomérats. L’industrie a peut-être atteint les limites de sa stratégie d’expansion. En témoigne l’ouverture de magasins dans des villes de deuxième ou troisième niveau à l’échelle mondiale et le lancement constant de nouvelles catégories de produits diluent l’équité de la marque.
Par ailleurs, il existe une tension grandissante entre le leadership créatif/artistique et la gestion financière/opérationnelle dans les maisons de luxe. Le traditionnel « duo magique » du directeur créatif et du leader commercial est perturbé. L’aura d’une marque du luxe se construit avant tout autour d’une figure charismatique, à la fois créative, visionnaire, mais aussi attachée à une marque sur la durée.
Enfin, Il y a de plus en plus de préoccupations concernant la durabilité à long terme des modèles commerciaux de luxe actuel, en particulier leur dépendance au marketing plutôt qu’à la qualité et à l’exclusivité authentiques pour justifier des prix élevés.
Ben Voyer a reçu des financements de la Chaire de Recherche Turning Points ESCP HEC Paris Cartier.
Perrine Desmichel ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
15.09.2025 à 16:48
Elizabeth Sheppard Sellam, Responsable du programme « Politiques et relations internationales » à la faculté de langues étrangères, Université de Tours
Depuis la fondation de l’État d’Israël en 1948, les personnes qui consacrent leur vie à l’étude des textes religieux sont exemptées de l’obligation de servir sous les drapeaux. Mais la non-participation à l’effort de guerre de cette communauté, de plus en plus nombreuse (près de 13 % de la population aujourd’hui), suscite de plus en plus de tensions.
La non-conscription des Juifs ultra-orthodoxes (haredim, littéralement « ceux qui craignent Dieu ») constitue aujourd’hui l’une des fractures sociales et politiques les plus profondes d’Israël.
Alors que la majorité des familles – y compris les femmes et les réservistes, dont la mobilisation ne cesse de s’intensifier – participent directement à l’effort de guerre dans lequel le pays est engagé, une minorité en pleine croissance démographique continue de bénéficier d’une exemption qui fait de plus en plus polémique. Le défi est à la fois social, politique et économique.
Depuis le massacre perpétré par le Hamas, le 7 octobre 2023, Israël est plongé dans la guerre la plus longue et la plus coûteuse de son histoire récente. Vingt-trois mois plus tard, les dépenses cumulées atteignent environ 253 milliards de shekels (67 milliards de dollars). Pour 2024 seulement, les dépenses militaires représentaient déjà 8,4 % du PIB, contre 5,2 % en 2023.
Des centaines de milliers de réservistes ont été rappelés, certains plusieurs fois, imposant un poids inédit aux familles et à l’économie. Cet effort repose sur le modèle israélien de conscription universelle : hommes et femmes sont appelés à servir. La mobilisation est telle que sur certaines lignes de front, près de 25 % des effectifs sont désormais des femmes.
Dans ce contexte, l’exemption dont bénéficient les haredim apparaît comme une fracture majeure. Rappelons que les haredim sont des Juifs ultra-orthodoxes, centrés sur l’étude de la Torah et une vie religieuse séparée du monde séculier. Seule une minorité d’entre eux est antisioniste ; la majorité reconnaît l’État d’Israël et participe à sa vie politique, tout en refusant le service militaire pour préserver l’étude religieuse.
Alors que plus de 80 % des jeunes Israéliens juifs effectuent leur service, seuls 1 212 hommes haredim ont été incorporés sur 24 000 convoqués en 2024, soit environ 5 %.
Cette disparité nourrit un ressentiment profond : l’immense majorité des familles du pays envoient leurs fils et leurs pères au front, tandis qu’une minorité croissante échappe à l’effort commun. Chaque tentative de conscription déclenche des manifestations violentes dans les quartiers haredim.
Le contraste est frappant avec le cas des minorités non juives : les hommes druzes sont soumis à la conscription depuis 1956 et servent massivement ; les Bédouins et certains Arabes israéliens, bien que non obligés, choisissent volontairement de s’engager, notamment dans les patrouilles de pisteurs. Autrement dit, des groupes minoritaires, parfois marginalisés, participent activement à cet acte fondateur de cohésion et de défense collective, tandis qu’une minorité juive croissante, pour des raisons religieuses, s’en abstient.
À cette dimension morale s’ajoute une dynamique démographique préoccupante. Avec une croissance annuelle de 4 %, les haredim représentaient 13,6 % de la population en 2023 et devraient atteindre 16 % en 2030. Cette évolution rend l’exemption toujours plus insoutenable, au point de menacer le pacte social israélien.
Ce décalage entre l’effort de guerre de la majorité et l’exemption persistante des haredim ne se limite pas à une fracture sociale : il alimente aussi une dynamique politique.
La croissance démographique de la communauté ultra-orthodoxe s’est traduite par la consolidation de partis religieux puissants comme Shas (séfarade) et Judaïsme unifié de la Torah (UTJ, ashkénaze), devenus des acteurs incontournables de la Knesset (respectivement 11 et 7 sièges sur 120 à l’issue des dernières législatives, en 2022). Leur poids politique permet de bloquer toute réforme, plaçant la conscription haredie au cœur d’un affrontement où se mêlent impératifs sécuritaires, équité sociale et survie gouvernementale.
La fracture sociale autour de la question de la conscription des haredim s’est ainsi transformée en crise politique et institutionnelle. En juin 2024, la Cour suprême israélienne a rendu un arrêt historique, mettant fin à l’exemption de facto et obligeant le gouvernement à appliquer la conscription, sous peine de couper les financements publics aux yeshivot (écoles d’enseignement religieux supérieur) accueillant des étudiants en âge de servir.
Cette décision s’est aussitôt heurtée à un blocage parlementaire. La coalition de Benyamin Nétanyahou dépend du soutien de Shas et de l’UTJ, et perdre ces alliés reviendrait à perdre sa majorité, au moment même où la guerre devient de plus en plus impopulaire parmi les familles d’otages et une large partie de l’opinion. Shas et l’UTJ ont soutenu la guerre à Gaza, en insistant tout particulièrement sur l’obligation religieuse de tout faire pour obtenir la libération des otages. Ils ont affirmé qu’aucune mitsva (prescription) n’était plus importante que le « rachat des captifs » et ont appuyé les propositions de trêve ou d’accord allant dans ce sens.
En juillet 2025, l’UTJ a annoncé son retrait du gouvernement pour protester contre l’absence de législation garantissant une exemption claire pour les étudiants en yeshivot. Quelques jours plus tard, le Shas a à son tour retiré ses ministres, tout en restant formellement dans la coalition. Ces départs ont réduit la majorité de Nétanyahou à la Knesset à une seule voix, fragilisant encore la position du premier ministre.
La contestation s’est aussi déplacée sur le terrain religieux. Fin juillet 2025, le rabbin Dov Lando, figure du courant lituanien (une branche haredi non hassidique centrée sur l’étude intensive de la Torah et du Talmud dans les yeshivot), a dénoncé « une guerre de l’État contre les étudiants de yeshivot », promettant « une lutte mondiale sans précédent ». Certains de ses proches ont même évoqué une désobéissance civile silencieuse – boycotts économiques, retraits bancaires massifs…
Cette impasse illustre une crispation institutionnelle sans précédent : exécutif paralysé, pouvoir judiciaire exigeant l’égalité et opinion publique de plus en plus hostile au statu quo. Les sondages montrent un soutien massif, dans toutes les composantes du public non-haredi, à l’imposition de sanctions économiques sévères à l’encontre des réfractaires.
L’exemption haredie représente aussi un coût économique majeur pour l’État. Le taux d’emploi des hommes haredim stagne à 54 %, contre plus de 85 % chez les non-haredim. Les femmes haredies sont plus actives (environ 80 %), mais souvent dans des secteurs peu productifs. Cette disparité réduit l’assiette fiscale, accroît la dépendance aux transferts sociaux et freine la croissance.
À lire aussi : Comment évaluer l’économie israélienne au prisme de son insertion internationale
L’absence de service militaire aggrave encore la situation. L’armée est, pour la majorité des Israéliens, un sas d’intégration vers le marché du travail, en offrant des compétences et des réseaux professionnels dont les haredim restent exclus, ce qui pèse sur la compétitivité nationale
Le coût macroéconomique est estimé à 8,5 milliards de shekels par an, soit environ 1,7 % du PIB. Le ministère des finances a mis en garde contre le prix « très élevé » du maintien de l’exemption, tandis que la Banque d’Israël souligne l’incertitude budgétaire que celle-ci engendre.
À cela s’ajoutent les subventions directes aux yeshivot, qui se chiffrent en milliards chaque année et renforcent un modèle de dépendance : une partie significative des hommes haredim passent leur vie à étudier la Torah au lieu de rejoindre le marché du travail. Dans un contexte de guerre prolongée, ce double coût – budgétaire et économique – devient de plus en plus intenable.
En temps de guerre, l’exception haredie n’est plus seulement un compromis politique : elle fragilise la cohésion nationale, creuse l’injustice sociale et pèse lourdement sur l’économie. Israël se trouve face à l’obligation de prendre une décision inévitable : réformer la conscription, conformément à l’arrêt rendu par la Cour suprême en 2024, pour réintégrer une communauté en pleine expansion dans l’effort collectif.
Plusieurs pistes existent. L’extension de brigades adaptées comme Netzah Yehuda est une possibilité, même si ce modèle a vocation à rester relativement marginal. Cette unité d’infanterie de l’armée, créée pour permettre aux jeunes haredim de servir tout en observant strictement les prescriptions religieuses, est impliquée dans plusieurs controverses. Des enquêtes ont souligné des violations des droits humains au sein du bataillon. Mais en août 2024, le département d’État américain a conclu que ces abus avaient été « efficacement réglés » et a rétabli l’éligibilité du bataillon à l’aide militaire des États-Unis, qui lui avait, un temps, suspendue.
Le service civil obligatoire – dans la santé, l’éducation ou l’aide sociale – constituerait une option alternative crédible.
Enfin, le levier économique – conditionner le financement des yeshivot à la participation au service – apparaît comme l’outil le plus puissant, car il touche directement le cœur du modèle de vie des haredim.
Le statu quo est de moins en moins viable alors que les mobilisations de réservistes se multiplient et que la société exige un partage équitable de la responsabilité. L’avenir dépendra de la capacité d’Israël à concilier sécurité nationale, justice sociale et stabilité politique. Faute de réforme, l’exception haredie risque de miner durablement le contrat civique sur lequel repose l’État.
Elizabeth Sheppard Sellam ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
15.09.2025 à 16:47
Laurent Muller, Maitre de Conférences en Sciences de l'éducation et de la formation, Université de Lorraine
Les micro-violences sont ces actes ou remarques du quotidien qui, sans être perçus comme des violences, portent atteinte à la dignité d’un élève et peuvent durablement le blesser. Pour les enrayer, il faut d’abord apprendre à les reconnaître.
La circulaire de rentrée 2025 réaffirme la volonté de « refuser toute forme violence » à l’école, avec comme ambition d’« engager et responsabiliser tous les acteurs de la communauté éducative ». Mais il ne suffit pas de vouloir pour pouvoir : encore faut-il comprendre les raisons du symptôme, pour pouvoir vraiment les traiter.
Pour redonner vie à la responsabilité collective, celle des enseignants, éducateurs, parents… et élèves, il faut en passer par la conscientisation des discours qui autorisent les micro-violences dans les relations interpersonnelles. Il s’agit aussi de savoir reconnaître et mettre en pratique les micro-attentions qui contribuent à l’épanouissement des élèves.
Dans ses expériences sur la soumission à l’autorité, le psychologue Stanley Milgram se réfère au concept de « banalité du mal » cher à Hannah Arendt et note que l’essentiel du mal susceptible d’être fait dans le monde ne vient pas d’une volonté perverse ou diabolique, mais du simple déni de responsabilité. Devenir étranger à son « moi profond » pour devenir « un simple instrument destiné à exécuter les volontés d’autrui » : c’est ce genre de petite démission de la volonté qui constitue le premier pas, anodin, vers le mal qu’on peut faire à l’autre.
À cet égard, l’intention affichée ne saurait constituer une garantie d’innocuité. Il faut ici prêter l’oreille et identifier les poncifs, ces phrases toutes faites qui servent de prêt-à-penser, dont on peut s’autoriser pour se montrer (micro) violent :
« C’est pour ton bien » ou l’anticipation des conséquences favorables ;
« C’est à moi que ça fait mal » ou l’inversion accusatoire ;
« C’est pas la mer à boire » ou la minimisation ;
« C’est pour tout le monde la même chose » ou la banalisation ;
« Pauvre chou » ou l’ironie ; toutes les manières de renoncer à l’empathie, et même à l’auto-empathie en se disant à soi-même : « Je n’ai pas le choix. »
Le spectre des mécanismes de défense est large, et il faut engager un travail de clarification intérieur pour se (re)saisir de sa responsabilité. La réforme des automatismes de langage visant à se donner bonne conscience à peu de frais est indispensable pour sortir du statut quo. Mais si la conscientisation n’a rien à voir ici avec une quelconque « bonne conscience » qu’on se donne, elle n’a rien à voir non plus avec une quelconque « mauvaise conscience » qu’on devrait s’attribuer, cet ulcère de l’âme qui nourrit la culpabilité.
Bienveillance bien ordonnée commence par soi-même : oui, nous nous sommes (très) probablement montrés micro-violents, et il n’y a rien d’étonnant à être dans la « reproduction ». Mais l’essentiel n’est pas ce qui a été fait : c’est ce qui sera fait désormais. Il ne saurait être question d’être « parfait » (exigence étouffante et impossible à satisfaire) mais, plus modestement, d’accepter que l’être humain, certes imparfait, est « perfectible ». Il a besoin de progresser, conduisant à pouvoir autant s’améliorer que se dégrader.
Ce travail à la responsabilisation ouvre un champ de possibles, déjà exploré par de nombreux éducateurs, à travers le développement de micro-attentions. Ces marques de reconnaissance contribuent à tisser des liens et soutiennent la confiance et l’estime de soi : elles valorisent non seulement l’élève, mais aussi (et surtout) la personne de l’élève.
À l’occasion d’une sortie scolaire, d’un temps de pause (la récréation), d’un projet ou dans le cours ordinaire d’une séance, une remarque, un sourire, un regard, une attention informelle vient nourrir un besoin de reconnaissance et introduit une forme de « jeu » dans le fonctionnement rigide de l’institution.
Au contraire des micro-violences, les micro-attentions sont ces gestes ou mots qui font la différence, et qui, dans la chaleur d’un regard ou d’un sourire, écoutent, soutiennent sans chercher à normaliser. Un étudiant de master témoigne :
« Au lycée, j’ai eu une enseignante de SVT qui a créé un lien formidable avec notre classe, elle s’intéressait à notre parcours, nos projets, elle nous a d’ailleurs beaucoup aidés pour notre choix d’étude. Encore aujourd’hui elle demande des nouvelles de ses élèves sur un groupe Discord. Cette enseignante a été un point d’attache et un repère pour beaucoup. Lorsqu’on avait une difficulté dans la vie lycéenne ou dans les cours nous pouvions lui parler librement, elle était à l’écoute et nous proposait des solutions ou des conseils. C’est une des personnes qui m’a donné envie d’enseigner et de créer une vraie relation avec sa classe. »
Sommes-nous dans l’anecdotique ? Peut-être… Mais l’essentiel surgit parfois à la marge, à la dérobée, de manière imprévisible. Ce sont les grands et heureux effets des petites causes, générées par une attitude qui permet (qui ose) la rencontre.
Chacun a fait l’expérience de ces éducateurs solaires, faisant d’eux des « tuteurs de résilience » qui permettent aux plus fragilisés de « tenir ». Leur agentivité se transfère, et fait de l’école davantage qu’un lieu de (sur) vie : un lieu où il est permis de s’épanouir.
Le paradoxe est que cette agentivité n’est guère soutenue dans cette institution hautement normalisatrice qu’est l’école française. Ne serait-il pas temps, pour autant qu’on souhaite donner corps à la prévention de toutes les formes de violence à l’école (et ailleurs), d’institutionnaliser autant qu’il est possible, les micro-attentions, afin d’en faire non plus l’exception, mais la règle ? De faire de la qualité des relations interpersonnelles un enjeu central de la formation des enseignants, jusqu’à présent centrée sur les contenus à enseigner ?
Sans doute s’agit-il là d’un changement de paradigme, celui-là même qui est censé faire vivre les valeurs inclusives, en en faisant tout autre chose que des normes quantitatives à respecter. Pour l’initier, il faut libérer la parole, non à des fins d’accusation, mais pour engager le dialogue, remettre au centre l’intelligence collective et la responsabilité partagée.
Une enquête sur les micro-violences à l’école et à l’université est en cours, et le questionnaire sur les souvenirs scolaires est toujours accessible ici.
Laurent Muller est fondateur de l'association à but non lucratif Stop Micro-Violences (http://www.stopmv.fr/)
15.09.2025 à 16:47
Marion Vannier, Chercheuse en criminologie, Université Grenoble Alpes (UGA)
Un nombre important de détenus de la prison de haute sécurité de Vendin-le-Vieil (Pas-de-Calais) sont en grève de la faim depuis cet été, dénonçant leurs conditions d’incarcération. Ce nouveau dispositif, visant en particulier les narcotrafiquants, interroge les défenseurs des droits humains et les spécialistes des politiques carcérales. Que nous enseigne l’histoire des quartiers de haute sécurité, voulus par l’État dans les années 1970, puis abandonnés en 1982 ? Les dispositifs similaires – aux États-Unis, au Royaume-Uni ou en Italie – ont-ils fait leurs preuves dans la lutte contre la criminalité organisée opérant depuis la prison ?
Le ministre de la justice Gérald Darmanin déclarait, fin 2024, vouloir « couper du monde les 100 narcotrafiquants les plus dangereux » en les enfermant dans des « prisons de haute sécurité ». Cet été, il annonçait ainsi un « changement pénitentiaire radical » depuis la prison de Vendin-le-Vieil dans le Pas-de-Calais.
Le 1er septembre, un nombre important des détenus transférés dans les nouveaux dispositifs de haute sécurité à Vendin-le-Vieil ont entamé une grève de la faim. Mouvement solidaire, la manifestation a été décrite comme une « manifestation de désespoir » par l’avocate Delphine Boesel. Une seconde centaine de détenus doit être incarcérée, d’ici mi-octobre 2025, au sein du nouveau quartier de lutte contre la criminalité organisée (QLCO) de Condé-sur-Sarthe (Orne), dont le régime sécuritaire hors norme est déjà largement documenté]. Ces évènements relancent le débat sur la justification et sur l’efficacité de la prison de haute sécurité face au crime organisé.
Les quartiers de haute sécurité (QHS), également appelés quartiers de sécurité renforcée (QSR), ont été [créés en 1975] par décret le 23 mai 1975 sous la présidence de Valéry Giscard d’Estaing, dans un contexte d’inquiétude sécuritaire marqué par une série d’évasions spectaculaires et par la montée des violences en détention].
Le garde des sceaux Alain Peyrefitte adopte une ligne résolument sécuritaire et consolide l’usage des QHS comme dispositifs de répression accrue. Ces unités visent notamment à contenir les détenus insubordonnés, réaffirmant la position d’un gouvernement fort pour lequel la sécurité est une priorité absolue. Sont éligibles au placement en QHS les détenus « caractériellement dangereux » et ceux qui, par leur comportement, visent à troubler gravement le bon fonctionnement des établissements.
Ces espaces opèrent alors sur un régime punitif extrême. Le recours a l’isolement est fréquent, notamment contre les détenus ayant tenté de s’évader. Lors du procès de Lisieux (Calvados) de 1978, quatre accusés, qui avaient tenté de s’évader, décrivent la violence des QHS. Georges Ségard témoigne qu’il est enfermé depuis trente-cinq mois consécutifs en QHS, dont onze mois complètement isolé. Daniel Debrielle ajoute :
« Le quartier de sécurité renforcée, c’est vingt-et-une heures par jour dans une cellule, seul. C’est une heure de promenade par jour dans une cour en béton avec deux grillages au-dessus de la tête. La nuit, un projecteur donne sur les barreaux et les renvoie partout. Vous ouvrez l’œil et vous ne voyez que des barreaux. »
Le célèbre Jacques Mesrine, assimilera les QHS à une lente peine de mort :
« Les QHS sont la forme futuriste de la peine capitale. On y assassine le mental en mettant en place le système de l’oppression carcérale à outrance, conduisant à la mort par misère psychologique. »
Au même moment, des intellectuels, comme Michel Foucault, des associations de défense des droits humains ainsi que certains magistrats et agents pénitentiaires dénoncent également les QHS.
Rapidement, ces quartiers deviennent donc le symbole d’une violence institutionnelle injustifiée. Les QHS sont officiellement abandonnés en 1982 après l’arrivée de la gauche au pouvoir.
Quarante ans plus tard, Gérald Darmanin réouvre donc des prisons de haute sécurité pour narcotrafiquants, désormais appelés « quartier de longue peine et de contrôle opérationnel » (QLCO). Certes, il ne s’agit plus de quartiers isolés dans l’espace carcéral existant, mais de la création de prisons de haute sécurité en tant que telles. La logique reste la même : séparer et neutraliser certains profils de criminels. Surtout, il s’agit de signaler, comme cela avait été le cas en 1975, la fermeté du gouvernement face au crime organisé dans le cadre du trafic de drogues.
Cela évoque la « war on drugs », déclenchée par le président Nixon, dans les années 1970, récemment relancée par le président Trump.
Cette approche ne vise pas la réhabilitation et la réinsertion des détenus. Il s’agit d’exclure fermement et totalement, ce que certains chercheurs en criminologie aux États-Unis appellent « the total incarceration ». Ce terme désigne un modèle pénal dans lequel l’enfermement devient une fin en soi, un outil de neutralisation permanente, qui repose sur la rupture de tout lien social, familial, professionnel et culturel, plutôt qu’un passage temporaire avant une éventuelle réinsertion. Le chercheur Jonathan Simon, en analysant la montée de l’incarcération de masse aux États-Unis, décrit ce paradigme comme l’étirement de la prison à des fonctions qui dépassent la logique de la peine d’emprisonnement elle-même : l’expression d’une force étatique priorisant la sécurité avant tout.
La création de prisons de haute sécurité, et non plus de simple quartiers, rappelle également le modèle du Royaume-Uni qui a institutionnalisé depuis longtemps des établissements de type « high security ». Si, à l’origine, elles étaient aussi destinées aux détenus dont l’évasion était jugée dangereuse pour le public, la police ou la sécurité de l’État, elles sont devenues le lieu de détention des personnes jugées potentiellement dangereuses pour l’institution carcérale, ses agents et l’État de manière plus vaste. Typiquement, les prisonniers condamnés aux peines les plus lourdes, comme la prison à perpétuité, et ceux ayant commis des crimes sexuels y sont détenus et y vieillissent, soulevant de nombreux problèmes de gestion.
Cependant, le modèle de haute sécurité britannique est, du moins en théorie, censé n’être que temporaire. Il est prévu que la personne détenue, au fur et à fur que son niveau de dangerosité décroît, progresse vers des prisons de niveau sécuritaire moins élevé. Il ne semble pas qu’un mécanisme de progression similaire en France soit envisagé.
Contrairement aux quartiers d’isolement classiques, souvent critiqués pour la vétusté des bâtiments, le manque de moyens humains et l’absence de formation spécialisée, les deux prisons de haute sécurité annoncées par Gérald Darmanin sont censées répondre à ces faiblesses. Les infrastructures sont neuves ou entièrement réaménagées afin d’être hermétiques aux communications illicites et adaptées au régime d’isolement renforcé.
Conçues sur le modèle italien du « carcere duro » luttant contre la mafia, elles sont dotées d’installations ultramodernes (détection antidrones, brouilleurs, miradors, hygiaphones, visioconférences généralisées). Chaque détenu sera encadré par trois ou quatre surveillants, une proportion inédite dans le système pénitentiaire français, et les agents suivront une formation spécifique de deux mois, centrée sur la gestion de la criminalité organisée et sur la prévention des risques de corruption. De plus, un dispositif d’anonymisation des surveillants et un recrutement ciblé visent à limiter le turnover et à renforcer la stabilité du personnel.
Bien que la loi de 2025 cible spécifiquement les narcotrafiquants, la critique de Michel Foucault, en 1978, quant au flou de la notion de dangerosité reste actuelle. En pratique, les critères prévus par la loi ont un spectre si large qu’ils autorisent de vastes classifications indifférenciées, potentiellement applicables à des détenus non liés au narcotrafic, comme le dénonce l’Observatoire international des prisons (OIP)). En effet, le décret confère au garde des sceaux le pouvoir de placer une personne en isolement administratif à titre préventif afin de « prévenir la poursuite ou l’établissement de liens avec les réseaux de la criminalité et de la délinquance organisées, quelles que soient les finalités et les formes de ces derniers », ce qui reste extrêmement vague. Le rôle du juge n’est que consultatif (en cas de condamnation) ou informatif (en cas de prévention), avec possibilité d’opposition sous huit jours seulement, ce qui limite fortement la force du contrôle judiciaire sur une décision à portée potentiellement arbitraire.
Le problème du narcotrafic depuis l’enceinte de la prison est un réel phénomène global que gouvernements et institutions carcérales peinent à maîtriser et ce, dans un contexte de surpopulation carcérale), de manque d’effectifs, et d’absence d’accompagnement suivi à la réintégration.
Concernant le recours à l’isolement, la recherche sociologique et les rapports officiels convergent pour souligner leur inefficacité. Les études sur les prisons de type « supermax » (de l’anglais, super maximum security) confirment que les unités ultrasécurisées n’ont jamais fait leurs preuves pour réduire les violences ou la récidive, et tendent au contraire à radicaliser la défiance et à aggraver les troubles psychiques des détenus.
Il existe pourtant des alternatives à l’isolement et à la haute sécurité pour traiter les problèmes soulevés par le narcotrafic en prison. D’abord, couper les communications illicites sans forcément couper le détenu du monde est possible. Cela inclut un brouillage ciblé et une téléphonie légale et surveillée. Le lien social reste, en effet, central pour la réinsertion). Ensuite, des unités de renseignement en prison permettent de surveiller flux financiers et communications suspectes sans passer par l’isolement systématique. Des plans individualisés (suivi psychologique, accompagnement à la sortie, encadrement par binôme éducateur–surveillant) ont montré qu’ils réduisaient la récidive, y compris dans la criminalité organisée.
S’attaquer au problème de la surpopulation carcérale est évidemment clé dès lors qu’il nourrit le turnover du personnel et renforce les pouvoirs informels et l’augmentation de la violence (Baggio et al. 2020). L’ONU (2016) insiste ainsi sur la nécessité de réduire la densité carcérale et de fidéliser les équipes. Enfin, privilégier l’usage de sanctions alternatives (par ex., par des amendes ciblées, des saisies d’avoirs ou des peines substitutives pour les exécutants des trafics) pourrait désengorger les établissements et recentrer les moyens sur les véritables têtes de réseaux.
À peine lancée, la réouverture de prisons de haute sécurité en France soulève déjà des contestations, notamment autour des risques liés à l’isolement prolongé, à la santé mentale et au respect des droits fondamentaux. Les recherches menées sur des dispositifs comparables montrent des résultats incertains en matière de sécurité et de prévention de la récidive, laissant ouverte la question de l’efficacité réelle de ce choix politique face au narcotrafic.
Marion Vannier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
15.09.2025 à 16:45
Stephan Blum, Research associate, Institute for Prehistory and Early History and Medieval Archaeology, University of Tübingen
Au début de l’âge du bronze (2500-2300 avant notre ère), Troie est passée d’un village à une cité prospère, grâce à l’innovation et au commerce. Mais derrière cette réussite se cachait une exploitation effrénée de la nature : forêts rasées, sols épuisés, érosion galopante. La cité légendaire a payé le prix d’une croissance sans limites : une mise en garde d’une grande résonance aujourd’hui.
Parfois, les germes de l’effondrement sont semés dans le sol même de la prospérité. Sous les murs brillants de l’ancienne ville de Troie, en Asie Mineure (actuelle Turquie), la terre se fissurait silencieusement sous le poids de son ambition.
Lorsque nous pensons à la destruction de l’environnement de nos jours, des images de plateformes pétrolières, de centrales à charbon ou d’îles de plastique nous viennent à l’esprit. Mais, bien avant l’industrie, les sociétés anciennes poussaient déjà leurs écosystèmes à bout.
Troie au début de l’âge du bronze nous en livre un exemple frappant : une histoire de brillante réussite économique assombrie par un coût écologique durable. Il ne s’agit pas seulement d’un récit d’innovation et de succès, mais d’une mise en garde contre la surenchère, l’épuisement et les coûts cachés d’une croissance incontrôlée.
Entre 2500 et 2300 avant notre ère, Troie est devenue un centre de pouvoir et d’expérimentation dans le nord-ouest de l’actuelle Anatolie (la partie asiatique de la Turquie), plusieurs siècles avant que l’Iliade d’Homère ne la rende légendaire. À son apogée, la ville aurait compté une population estimée à 10 000 habitants.
Grâce à des années de fouilles menées dans le cadre du projet Troie de l’Université de Tübingen, j’ai compris comment des choix délibérés en matière de production, de planification et d’organisation ont progressivement transformé un modeste village de l’âge du bronze en une communauté dynamique présentant les premiers traits d’une ville. Les bâtiments monumentaux en pierre, les rues ordonnées et les quartiers résidentiels distincts de Troie reflétaient une société en transition.
Au cœur de cette transformation se trouvait l’essor de la production de masse. S’inspirant des modèles mésopotamiens, le tour de potier a révolutionné la céramique troyenne, permettant une production plus rapide, plus uniforme et à plus grande échelle. Les poteries tournées au tour de potier ont rapidement dominé la production. Elles se caractérisaient par des rainures profondes et des finitions simplifiées qui privilégient l’efficacité plutôt que l’art.
À mesure que la production augmentait, le besoin d’une main-d’œuvre plus structurée et spécialisée s’est également accru. L’artisanat est passé des maisons aux ateliers, et le travail est devenu de plus en plus spécialisé et segmenté. Le commerce a prospéré, s’étendant bien au-delà de la Troade (la région de Troie) et dépassant la portée locale de la colonie.
Pour gérer cette complexité croissante, les Troyens ont introduit des mesures de poids standardisées et des sceaux administratifs, outils de coordination et de contrôle dans un monde qui se tournait de plus en plus vers le commerce.
Mais le progrès, à l’époque comme de nos jours, avait un coût. Les innovations mêmes qui ont alimenté l’ascension de Troie ont libéré des forces qui se sont avérées de plus en plus difficiles à contenir.
La richesse de Troie reposait sur une exploitation incessante. Les bâtiments monumentaux nécessitaient des tonnes de calcaire provenant des carrières voisines. L’argile était extraite des berges autrefois fertiles pour alimenter les fours et la fabrication de briques. Les forêts ont été déboisées pour fournir du bois d’œuvre et du bois de chauffage, éléments vitaux d’une industrie céramique en plein essor, qui fonctionnait jour et nuit.
L’agriculture a également connut une intensification radicale. Les générations précédentes pratiquaient la rotation des cultures et laissaient leurs champs en jachère. Les agriculteurs de Troie, en revanche, cherchaient à obtenir des rendements maximaux grâce à une culture continue. L’amidonnier et l’engrain, d’anciennes variétés de blé bien adaptées aux sols pauvres mais à faible rendement et à faible teneur en protéines, dominaient. Ils étaient résistants et faciles à stocker, mais pauvres en nutriments.
À mesure que les terres agricoles s’étendaient sur des pentes raides et fragiles, l’érosion s’est installée. Les collines autrefois couvertes de forêts sont devenues stériles, comme le confirment les preuves archéobotaniques.
Le bétail a ajouté une pression supplémentaire. Des troupeaux de moutons et de chèvres paissaient de manière intensive dans les pâturages des hautes terres, arrachant la végétation et compactant le sol. Il en a résulté une réduction de la rétention d’eau, un effondrement de la couche arable et le déclin de la biodiversité. Peu à peu, l’équilibre écologique, qui avait soutenu la prospérité de Troie, commença à se désagréger.
Vers 2300 av.n. è., le système en vient donc à se fracturer. Un incendie massif a ravagé la colonie, peut-être déclenché par une révolte ou par un conflit. Les bâtiments monumentaux ont été abandonnés, remplacés par des habitations plus petites et des fermes modestes. Le centre du pouvoir s’est effondré.
Cet effondrement a probablement été causé par une combinaison de facteurs : tensions politiques, menaces extérieures et troubles sociaux. Mais il est impossible d’ignorer la pression environnementale. L’épuisement des sols, la déforestation et l’érosion ont certainement entraîné une pénurie d’eau, une raréfaction des ressources et, peut-être même, une famine. Chacun de ces facteurs a érodé les fondements de la stabilité de la cité.
Par la suite, l’adaptation a pris le pas sur l’ambition. Les paysans ont diversifié leurs cultures, abandonnant la monoculture à haut rendement au profit de stratégies plus variées et plus résilientes. Les risques ont été répartis, les sols se sont partiellement régénérés et les communautés ont commencé à se stabiliser.
Troie n’a pas disparu : elle s’est adaptée et a trouvé un nouvel équilibre pour un autre millénaire. Mais elle l’a fait dans l’ombre d’une crise qu’elle avait contribué à créer.
L’histoire de Troie est plus qu’une curiosité archéologique, c’est un miroir. Comme beaucoup de sociétés passées et présentes, ses ambitions économiques ont dépassé les limites écologiques de son milieu. Les signes avant-coureurs étaient là : baisse des rendements, appauvrissement des forêts, érosion des collines. Mais l’illusion d’une croissance infinie s’est révélée trop tentante pour y résister.
Les parallèles avec aujourd’hui sont frappants. L’épuisement des ressources, les gains à court terme et la négligence environnementale restent des caractéristiques centrales de notre économie mondiale. Les technologies ont peut-être évolué, mais les mentalités, elles, n’ont pas changé. Nous consommons, nous jetons, nous développons, et nous recommençons.
Mais Troie offre également une lueur d’espoir : la possibilité d’une adaptation après l’excès, d’une résilience après la rupture. Elle nous rappelle que la durabilité n’est pas un idéal moderne, mais une nécessité intemporelle.
Troie est la preuve qu’aucune société, aussi ingénieuse soit-elle, n’est à l’abri des conséquences d’un dépassement écologique. Les signes avant-coureurs d’un déséquilibre sont visibles, mais il est facile de détourner le regard. C’est à nous de décider si nous voulons les prendre en compte.
Stephan Blum ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
15.09.2025 à 16:43
Christian de Perthuis, Professeur d’économie, fondateur de la chaire « Économie du climat », Université Paris Dauphine – PSL
Le transport maritime émet autant de CO2 que l’aviation, mais la décarbonation de ce secteur a longtemps été négligée, la priorité étant mise sur les enjeux sanitaires liés aux marées noires et à la pollution de l’air. Le vent, énergie gratuite et renouvelable, pourrait cependant souffler sur le fret maritime pour l’aider à faire face aux enjeux climatiques.
Dans le débat public, on parle beaucoup des impacts de l’aviation sur le climat, beaucoup moins de ceux du transport maritime.
En 2024, pourtant, les bateaux parcourant le monde (hors navires militaires) ont rejeté un milliard de tonnes (gigatonne ou Gt) de CO2 dans l’atmosphère. Un chiffre équivalent aux rejets de l’aviation civile, avec un rythme de croissance comparable – à l’exception des évènements exceptionnels comme la pandémie de Covid-19 en 2020.
Pour atténuer le réchauffement planétaire, la décarbonation du transport maritime est donc tout aussi stratégique que celle de l’aviation civile. L’utilisation du vent – à travers le transport à voile – devrait y jouer un rôle bien plus structurant qu’on ne l’imagine.
Les liaisons internationales génèrent un peu plus de 85 % des émissions du secteur maritime, le reste provenant des lignes intérieures et de la pêche. De ce fait, les régulations adoptées par l’Organisation maritime internationale (OMI) jouent un rôle crucial en matière de décarbonation.
Les enjeux climatiques n’ont été intégrés que tardivement aux régulations environnementales de l’OMI. Celles-ci ont historiquement été conçues pour limiter les risques de marées noires, puis de pollutions atmosphériques locales provoquées par l’usage des fiouls lourds dans les moteurs.
Jusqu’en 2023, la baisse des émissions de gaz à effet de serre n’était visée qu’à travers des régulations sur l’efficacité énergétique, limitant la quantité de carburants utilisée pour propulser les navires, avec des règles plus sévères pour les rejets d’oxydes de soufre et les autres polluants locaux (oxydes d’azote et particules fines à titre principal) que pour le CO2.
Ces régulations n’ont pas permis de limiter l’empreinte climatique du transport maritime. Les deux principaux leviers utilisés par les armateurs pour améliorer l’efficacité énergétique ont consisté à réduire la vitesse des navires et à augmenter leur taille. Ces gains ont permis de baisser les coûts d’exploitation du fret maritime, mais pas les émissions de CO2, du fait de la croissance des trafics.
Les contraintes spécifiques sur les polluants locaux ont même alourdi l’empreinte climatique du transport maritime.
La substitution du GNL au fioul, par exemple, réduit drastiquement les émissions de polluants locaux, mais génère des fuites de méthane dont l’impact sur le réchauffement dépasse la plupart du temps les gains obtenus par l’économie de CO2.
Surtout, la réduction des rejets de SO2 du diesel maritime opérée en 2020 pour se conformer à la réglementation de l’OMI, de l’ordre de 80 %, a brusquement réduit la quantité d’aérosols présents dans l’atmosphère. Les chercheurs y voient l’une des causes majeures de l’accélération du réchauffement planétaire observée depuis 2020.
À lire aussi : Faiseur de nuages, d’années sans été, de pluies acides : comment le soufre impacte l’environnement
La progression des émissions de CO2 du transport maritime n’a toutefois rien d’inéluctable. Elle reflète les arbitrages passés de l’OMI, si lente à intégrer les enjeux climatiques. Mais le vent est en train de tourner.
En juillet 2023, les membres de l’OMI se sont accordés sur une stratégie de décarbonation visant la neutralité d’ici 2050, avec des cibles intermédiaires ambitieuses en 2030 et 2040.
Pour les atteindre, l’OMI projette d’introduire en 2028 un mécanisme de tarification des émissions de CO₂ pénalisant les armateurs qui ne se conformeraient pas à ces nouvelles exigences et rémunérant ceux décarbonant plus rapidement.
De son côté, l’Union européenne intègre graduellement le transport maritime dans son système d’échange de quotas de CO₂.
Dans ce nouveau contexte, on ne peut plus compter sur des progrès incrémentaux du type amélioration de l’efficacité énergétique. Le transport maritime devra opérer une mue bien plus radicale, tant sur le plan technique que socioéconomique.
Comme on compte environ 100 000 navires parcourant l’océan, cette mue concerne à la fois la flotte existante et la construction des bateaux du futur. Or, le vent, énergie gratuite et renouvelable, peut être mobilisé dans les deux cas.
En simplifiant, on peut distinguer quatre grandes familles de techniques permettant de capter l'énergie éolienne pour déplacer les navires :
L’utilisation du vent pour déplacer les navires combine ainsi des méthodes low tech, parfois ancestrales, avec de l’ingénierie de pointe se basant par exemple sur l’aérodynamisme, des modélisations numériques, l’automatisation des tâches, l’intelligence artificielle…
Début 2025, une cinquantaine de navires en opération disposaient déjà d’assistance vélique. Pour les trois quarts, il s’agissait de navires anciens « rétrofités », principalement par adjonction de rotors ou de voiles aspirantes. Une minuscule goutte d’eau, au regard du nombre total de navires sur les océans !
Mais le marché naissant de l’assistance vélique est en forte accélération. Les organismes certificateurs de référence, comme DNV ou Lloyd’s Register anticipent un changement d’échelle du marché, avec une proportion croissante d’opérations concernant les navires neufs.
Sur les navires anciens, le rétrofit permet de réduire les émissions de l’ordre de 5 à 15 % suivant les cas. Les gains sont toutefois nettement plus élevés sur les navires neufs. Le Canopée, lancé en 2022, permet ainsi de transporter les éléments des fusées Ariane d’Europe vers la Guyane en économisant de l’ordre du tiers des émissions relativement à un cargo standard.
Le vent est une énergie de flux présente dans la nature. Contrairement aux carburants alternatifs au fioul comme le méthanol, l’ammoniac ou l’hydrogène, on n’a pas besoin de le produire, il suffit de le capter.
Cela engendre certes un surcoût d’investissement, encore élevé du fait de la jeunesse des industries véliques, mais qui s’amortit d’autant plus facilement que la tarification carbone renchérit les carburants les plus émetteurs. Cet atout de la disponibilité du vent joue encore plus lorsqu’il devient la source d’énergie principale.
Dans la propulsion vélique principale, le moteur du navire n’est utilisé que pour les manœuvres dans les ports ou pour raison de sécurité ou de ponctualité. Les réductions de CO2 changent alors d’échelle, atteignant de 80 à 90 %. La neutralité peut alors être atteinte si le moteur annexe utilise une énergie décarbonée.
La propulsion vélique rend alors la décarbonation complète du transport maritime envisageable. Sans compter qu’elle réduit ou élimine également d’autres nuisances, comme le bruit sous-marin et les dégâts provoqués par le mouvement des hélices. Son développement peut dès lors contribuer à une mue en profondeur du transport maritime, comme l’analysera un prochain article.
Christian de Perthuis ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
15.09.2025 à 16:39
Catherine Wihtol de Wenden, directrice de recherches sur les migrations internationales, Sciences Po
Grand remplacement, migrants qui coûtent cher au pays d’accueil, théories de l’« appel d’air », efficacité des frontières fermées… Les stéréotypes sur l’immigration alimentent un débat confus et souvent mal étayé. L’autrice d’Idées reçues sur les migrations (Le Cavalier bleu, avril 2025) les passe en revue.
Dans son Dictionnaire des idées reçues, Gustave Flaubert dénonçait les conventions, les préjugés, les formules toutes faites, ce que l’on appellerait aujourd’hui les stéréotypes. Sur l’immigration, ces idées reçues sont nombreuses, à droite et à l’extrême droite, mais aussi à gauche : elles alimentent un débat politique peu soucieux de la réalité, et encore moins des données scientifiques. Examinons les plus courantes.
La plus médiatisée des idées reçues sur les migrations est sans doute celle du « grand remplacement », un thème déjà exprimé dès le début du XXe siècle par des nationalistes comme Maurras. La thèse du « choc des civilisations » de Samuel Huntington (1996) remet cette idée au goût du jour en décrivant un monde où l’islam aurait pris la place de l’ancien ennemi soviétique pour l’Occident, et où l’identité deviendrait un enjeu essentiel.
En France, le Club de l’Horloge, organe de réflexion de l’extrême droite, a, depuis le milieu des années 1980, développé l’idée que la conquête de l’Europe par l’islam serait une menace, face à laquelle il faudrait opérer une « reconquista ». Le même Club de l’Horloge a commis en 1985 un ouvrage, Être français, cela se mérite, fustigeant « les Français de papier » voire les « Français malgré eux », et plaidant déjà pour l’abolition du droit du sol.
Le thème du grand remplacement est aussi issu d’un contresens sur un scénario démographique calculé par le responsable du Département de la population et de la mortalité des Nations unies Joseph Grinblat, en 2000. Dans ses conclusions, Grinblat estime que :
« En Europe, dans un contexte de faible fécondité conduisant à une diminution et à un vieillissement rapide de la population, l’immigration pourrait être, dans certains cas, une solution, au moins partielle, au déclin de la population totale et de la population d’âge actif. »
Au constat démographique, et aux angoisses liées à un « changement de peuple et de civilisation » en faveur de l’islam sur le sol européen, introduites notamment par l’écrivain Renaud Camus, s’ajoute l’idée, reprise à l’extrême droite, d’un complot fomenté par les « élites mondialisées » et les institutions internationales. Les partisans de cette thèse projettent un désir de revanche sur l’Occident chez les nouveaux arrivants, supposément fondé sur leurs passés de colonisés ou d’esclaves.
Qu’en est-il dans la réalité ? Le démographe François Héran rappelle que l’immigration constitue 10,2 % de la population vivant en France, contre 5 % en 1946 et 7,4 % en 1975. Par immigration, on entend ici les personnes nées à l’étranger et vivant depuis au moins un an en France. Selon les rapports annuels du Département des affaires économiques et sociales (DESA) de l’ONU), ce pourcentage de 10,2 % est en moyenne celui des autres pays européens.
François Héran rappelle que « la France n’a jamais été en première ligne tout au long de la crise migratoire » de l’accueil des Syriens ou des Ukrainiens, que le métissage est la tendance générale en France ou dans tous les pays avec une immigration, et que l’on observe une convergence des comportements démographiques des immigrés et des nationaux sur le plan des naissances au fil du temps.
Le thème a été développé par le journaliste Stephen Smith qui part d’un constat multiple : la démographie de l’Afrique subsaharienne n’est pas encore entrée dans l’ère de la transition démographique ; le continent africain va ainsi atteindre deux puis trois milliards d’habitants entre 2050 et la fin du XXIe siècle. Par ailleurs, la moitié de la population de ce continent a moins de 20 ans dans sa partie subsaharienne. Cette population jeune, de plus en plus active sur les réseaux sociaux, est mise en relation avec un ailleurs l’orientant vers un imaginaire migratoire.
Pourtant, les comportements démographiques de familles avec un grand nombre d’enfants, y compris africaines, sont amenés à changer. Aucune région de monde ne fait, en effet, exception à la tendance mondiale à la diminution des naissances, comme l’analysent les démographes Gilles Pison et Youssef Courbage.
D’autre part, le lien entre croissance de la population et migration vers l’Europe reste à démontrer : la moitié des Africains en migrations se dirigent vers d’autres espaces de leur continent, une autre partie se dirige vers le Golfe arabo-persique, une autre encore vers les États-Unis ou la Chine. L’idée que les Africains (et les autres migrants) viendraient chercher en Europe un État-providence développé n’est pas démontrée, car ce ne sont pas les pays qui offrent le plus de prestations sociales qui attirent le plus, mais ceux qui proposent un imaginaire de réussite ou une proximité linguistique avec les personnes migrantes, à l’image des États-Unis ou du Royaume-Uni.
Les analyses économiques montrent que le marché du travail national est très segmenté et que les migrants sont rarement en situation de concurrence avec les nationaux. Ceux-ci bénéficient de surcroît de certains emplois protégés, réservés aux nationaux ou aux citoyens européens (notamment dans la fonction publique et dans certaines professions régies par les ordres professionnels).
Les derniers venus occupent ainsi les métiers pénibles, dangereux, sales, mal payés, soumis aux intempéries ou travaux périodiques, surtout s’ils sont en situation irrégulière. Même en temps de crise, le marché du travail n’atteint pas le niveau de flexibilité qui amènerait les nationaux à occuper les emplois des migrants. Restent, par ailleurs, des métiers, qualifiés et non qualifiés, non pourvus par les nationaux comme dans le cas des médecins de campagne, des métiers spécialisés de la construction, de la maintenance informatique, de l’hôtellerie, de la garde des personnes âgées et des jeunes enfants, ou encore de l’agriculture.
Les immigrés contribuent également à accroître le nombre des actifs dans l’ensemble de la population : il y a parmi eux moins de très jeunes et de retraités. Arrivant dans leur pays d’accueil à l’âge adulte, ils ne lui ont ainsi rien coûté quant à leur éducation et leur formation jusqu’à l’âge de leur majorité. Une partie d’entre eux repart, par ailleurs, au pays à l’âge de la retraite, ce qui diminue fortement le coût de leur grand âge.
Si les personnes immigrées reçoivent des prestations sociales, elles versent aussi des impôts, directs et indirects. Une fois passés les effets de court terme de la migration, liés à l’adaptation et à la langue, les nouveaux entrants stimulent l’activité économique et créent à leur tour de nouvelles activités, élargissant à la fois le marché de l’emploi et celui de la consommation. Dans l’ensemble, la hausse des recettes publiques liée à l’arrivée des immigrés est plus importante que celle des dépenses publiques.
Enfin, il est bon de rappeler que les flux migratoires vers la France sont principalement constitués d’étudiants, suivis par les demandeurs d’asile, les personnes bénéficiant du regroupement familial et, enfin seulement, les travailleurs. C’est également le cas pour l’Europe.
En France, les étrangers sont davantage représentés parmi les bénéficiaires de la protection sociale (RMI, RSA, allocations familiales, aide médicale d’État [AME], aide au logement) que les nationaux. Ils sont en revanche moins souvent bénéficiaires des allocations d’assurance maladie et d’assurance vieillesse. Leurs retraites sont, par ailleurs, souvent plus modestes en raison de parcours professionnels plus courts et moins linéaires que les nationaux.
Le débat sur l’aide médicale d’État, destinée à offrir des soins d’urgence aux sans-papiers, a eu le mérite de mettre en évidence l’importance sanitaire de cette mesure, qu’il n’est pas sans risque pour la santé publique de supprimer. Le montant de cette dernière n’a, d’autre part, progressé que très modérément depuis quinze ans, en proportion du nombre des demandeurs (de 800 000 à un milliard d’euros).
Une fois ces chiffres donnés, l’attrait des prestations sociales, médicales et des services publics est-il décisif pour les migrants ? Ceux-ci sont souvent relativement jeunes et ne viennent ni pour la sécurité sociale ni pour la retraite, mais pour travailler ou pour fuir la guerre et l’absence d’espoir qui minent leurs pays, comme le montrent toutes les enquêtes de terrain. La plupart d’entre eux acceptent plus volontiers des métiers déqualifiés sans lien avec leur formation initiale pour gagner plus rapidement de l’argent, rembourser leur voyage et envoyer des fonds à leurs familles.
L’histoire a déjà donné tort aux responsables politiques qui persistent à croire que plus on accueille mal les migrants, moins ceux-ci choisissent de se rendre en un lieu donné. Malgré les conditions de vie dramatiques des occupants de la « jungle » de Calais – démantelée en 2016 – et des autres campements sur la côte du Pas-de-Calais, ces lieux restent attractifs en raison de leur proximité avec le Royaume-Uni.
Selon Josep Borrell, ancien responsable de la politique étrangère de l’Union européenne, la crainte de l’« effet d’appel » est infondée « car ce ne sont pas les conditions d’arrivée, souvent mauvaises qui attirent – le facteur pull –, mais la situation dans les pays de départ – le facteur push ».
Les frontières sont de retour, transformant la Méditerranée en un vaste cimetière. Un rapport de l’Organisation internationale des migrations (OIM) donne 50 000 morts à l’échelle mondiale, dont 25 000 en Méditerranée lors de tentatives de traversées depuis les années 1990, et 2 000 à 3 000 morts par an ces dernières années. Ces derniers chiffres seraient par ailleurs sous-estimés en raison des noyés non retrouvés.
Face au phénomène migratoire, l’Union européenne a mis la priorité sur le contrôle de ses frontières extérieures : le budget de l’agence Frontex est passé de 6 millions d’euros en 2004 à près d’un milliard annuel aujourd’hui. Les politiques de retour et de reconduction à la frontière mobilisent, en outre, des pratiques aux confins du respect des droits, tout en étant peu efficaces comme le montre le rapport annuel de la défenseure des droits.
L’aide publique au développement, parfois dépeinte en alternative aux politiques répressives, n’a jamais empêché les migrations. Elle a surtout pour but d’offrir une contrepartie à l’acceptation des politiques de reconduction dans les pays d’émigration. Face à ces politiques de plus de trente ans d’âge et sans résultats réels, l’Union européenne développe, depuis les années 1990, des partenariats d’externalisation de ses frontières. Ceux-ci conditionnent les actions financées à la réadmission de ressortissants, comme on le voit avec l’ensemble des pays du pourtour sud-méditerranéen et au-delà, en Afrique subsaharienne, par exemple au Niger.
Cependant, l’Europe a toujours besoin de migrations et cherche à s’attirer les compétences et les talents du monde entier à travers l’accueil d’étudiants étrangers et plusieurs programmes d’attraction des talents. De plus, elle ne peut pas renier les engagements internationaux qu’elle a signés sur les réfugiés, sur le droit de vivre en famille et sur les droits des mineurs.
Face à ces besoins et à ces obligations, la guerre aux migrants fait davantage figure de recette électoraliste que de véritable politique s’appuyant sur la réalité des données.
Cet article est rédigé dans le cadre du Festival des sciences sociales et des arts d’Aix-Marseille Université. L’édition 2025 « Science & croyances » se tient du 16 au 20 septembre. Catherine Wihtol de Wenden participe, le mardi 16 septembre, à une table ronde autour de son ouvrage Idées reçues sur les migrations, publié dans la collection « Idées reçues », aux éditions du Cavalier bleu, 2025.
Catherine Wihtol de Wenden ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
15.09.2025 à 12:28
Geneviève Zembri-Mary, Professeure en Urbanisme et Aménagement, CY Cergy Paris Université
Le village des athlètes et le village des médias ont été livrés à temps. Ils trouvent aujourd’hui une seconde vie avec des habitations, des commerces et des entreprises. Comment l’expliquer ? En partie grâce à la loi de 2018 relative à l’organisation des Jeux olympiques et paralympiques. Ce sont également des bâtiments bas carbone et étudiés pour être réversibles, en particulier dans le cas du village des athlètes.
Le contrat de ville hôte signé entre Paris 2024 et le Comité international olympique (CIO) pour accueillir les Jeux olympiques et paralympiques (JOP) a prévu de réaliser seulement trois ouvrages nouveaux : le village des médias, le village des athlètes et le centre aquatique olympique. Ces constructions devaient être durables, avec une empreinte carbone réduite, et faire partie de l’héritage des JOP.
Les Jeux olympiques et paralympiques ont pu être critiqués par des mouvements citoyens en raison de leur coût, de l’absence de garantie gouvernementale sur les risques des projets ou de leur empreinte carbone liée aux déplacements des visiteurs et à la construction de nouvelles infrastructures. Le CIO a donc établi des recommandations pour limiter le nombre de nouveaux sites olympiques et leur empreinte carbone avec l’agenda olympique.
Cela implique pour la ville hôte d’agir dans deux domaines :
Faire en sorte que la réalisation des infrastructures et des projets urbains rencontre le moins d’incertitudes pour être livrée à temps.
Construire des infrastructures sportives et des projets urbains durables avec une empreinte carbone réduite pour la phase « Héritage ».
Pour quel bilan de ces ouvrages olympiques ? Avec quelles innovations ? Dans notre étude, nous analysons tout particulièrement les nouveautés juridiques du droit de l’urbanisme mises en œuvre pour les JOP de Paris et la réversibilité des ouvrages olympiques.
Le contrat de ville hôte oblige à livrer le centre aquatique olympique, le village des athlètes et le village des médias pour la date des JOP. La Société de livraison des ouvrages olympiques (Solideo) a été en charge de cette mission.
Les JOP bénéficiant d’une couverture médiatique mondiale, les enjeux financiers liés aux droits de retransmission télévisés perçus par le CIO sont particulièrement importants. Ces droits ont atteint 3,107 milliards de dollars pour Tokyo 2020. Une ville hôte cherche quant à elle à se mettre en valeur à l’échelle internationale, en étant sensible à tout risque réputationnel. Livrer à temps était une nécessité pour la SOLIDEO et les acteurs privés impliqués dans la construction.
L’organisme public a dû faire face aux incertitudes liées à ces projets d’infrastructures. Le village des médias a fait l’objet de deux recours par deux associations locales pour des raisons environnementales. La construction des ouvrages a été exposée à l’arrêt et au ralentissement de l’activité pendant la pandémie de Covid-19. D’autres incertitudes pouvaient impacter le planning, comme des délais allongés pour obtenir les permis de construire ou exproprier.
Le village des athlètes de Saint-Denis, de Saint-Ouen et de l’Île-Saint-Denis, et le village des médias de Dugny, en Seine-Saint-Denis, sont les deux projets urbains des JOP. Le village des athlètes a pu accueillir 15 000 athlètes. Le village des médias a pu loger 1 500 journalistes et techniciens.
Les bâtiments deviennent aujourd’hui des logements, bureaux, services et commerces. Ils sont considérés comme des mégaprojets urbains. La zone d’aménagement concerté du village des athlètes a une surface de 52 hectares et accueillera 6 000 nouveaux habitants et 6 000 salariés, une fois l’ensemble des travaux de transformation terminés en 2025, et en fonction du rythme de vente. Les ventes sont en cours.
La zone d’aménagement concerté du village des médias compte 70 hectares, et 1 400 logements à terme. Elle est desservie par la gare du tramway T11 de Dugny-La Courneuve et le RER B du Bourget. Elle bénéficiera, comme le village des athlètes, de la desserte des futures lignes 16 et 17 du Grand Paris Express. Des parcs, des commerces, des équipements publics sont aussi réalisés. La construction des villages et du centre aquatique olympique, ainsi que les aménagements urbains ont coûté 4,5 milliards d’euros, dont 2 milliards apportés par le secteur privé.
Aussi pour faire face aux incertitudes pouvant affecter habituellement la réalisation des projets urbains et les livrer à temps, la Solideo a intégré par anticipation une marge au planning. La réalisation des villages et du centre aquatique olympiques a également bénéficié d’une loi olympique et paralympique votée en 2018. Elle a permis de réduire les délais et de sécuriser juridiquement la réalisation des projets pour la date des JOP par rapport aux procédures habituelles du code de l’urbanisme. Ont été mis en place :
Une procédure d’expropriation d’extrême urgence, qui a permis à la Solideo d’exproprier plus rapidement que la procédure classique, les propriétaires des terrains et immeubles des zones de construction des équipements olympiques. Les expropriations essentiellement faites pour le village des médias et le village des athlètes ont été peu nombreuses.
Des consultations publiques par voie électronique dans le cadre de la concertation. Ces consultations électroniques ont supprimé de fait les réunions publiques de discussion sur le projet, plus longues à mettre en place dans le cadre d’une concertation classique.
L’innovation juridique du permis de construire à double état. En une seule fois, il confie au maire le droit de donner un permis de construire pour les deux usages des bâtiments des villages : (i) la construction des logements des athlètes et des logements des journalistes de la phase Jeux et (ii) leur transformation en quartier d’habitations, de bureaux et de commerces classique lors de la phase Héritage des JOP.
La cour administrative de Paris, censée être plus rapide pour statuer, devait juger les éventuels recours contre les trois projets, en remplacement du tribunal administratif. Cela évitait que la réalisation des équipements olympiques ne prenne de retard par rapport à la date des JOP. La Cour administrative d’appel de Paris a eu notamment à statuer sur les deux recours contre le village des médias en avril 2021. Ces recours ont occasionné un retard d’un mois du début de la construction du projet.
La réversibilité consiste à concevoir un bâtiment pour que son usage puisse changer plusieurs fois dans le temps. Par exemple, le village des athlètes a été conçu pour :
Intégrer des chambres et des sanitaires lors de la phase Jeux pour les athlètes.
Transformer les espaces en logements familiaux lors de la phase Héritage. Par exemple, les réseaux d’arrivée d’eau et d’électricité pour les futures cuisines des logements ont été prévus lors de la construction, ainsi que la modification des cloisons.
Le village des médias, le village des athlètes et le centre aquatique olympique ont été conçus avec des principes de construction circulaire et bas carbone pour limiter leur impact environnemental. La construction circulaire permet par exemple de récupérer une partie des matériaux pour les réutiliser pour d’autres constructions après la phase Jeux.
Les sites olympiques devaient aussi avoir une empreinte carbone réduite. Dans le cas de Paris 2024, celle-ci est divisée par deux grâce à une conception bioclimatique des bâtiments, une bonne isolation, des protections solaires, la récupération d’énergie, le réemploi des matériaux, la construction bois et béton bas carbone, le transport fluvial des matériaux, le recyclage de ces derniers.
La réversibilité est en cours d’achèvement au village des athlètes où elle est la plus importante par rapport au village des médias. La vente des appartements, des bureaux et des commerces est en cours. Elle connaît cependant un ralentissement et une baisse des prix de vente au village des athlètes liée en partie au ralentissement plus général du marché.
Geneviève Zembri-Mary a reçu des financements de Cergy Paris université pour cette recherche.
15.09.2025 à 12:28
Ethan Eslahi, Professeur de finance, spécialisé en économie et finance de l’énergie et de l’environnement, et en modélisation prédictive, IÉSEG School of Management
Pour que le prix du carbone, et le principe du « pollueur-payeur », soient pleinement efficaces, il ne suffit pas d’agir sur le marché lui-même, mais sur la manière dont les entreprises définissent la notion même de performance… environnementale, financière ou les deux.
Le système d’échange de quotas d’émission de l’Union européenne (SEQE-UE), fondé sur le principe « pollueur-payeur », vise à inciter les entreprises à réduire leurs émissions de gaz à effet de serre en augmentant le coût de ces émissions. Dès 2005, ce mécanisme a constitué le cœur de la stratégie climatique de l’Union européenne.
Pour les entreprises, le prix du carbone a un double visage : il peut encourager les investissements verts, mais il alourdit aussi la facture des plus gros émetteurs. Alors, les entreprises réagissent-elles toutes pareillement à ce signal-prix ?
Dans notre étude, nous montrons que l’effet concret de ce signal dépend de la manière dont la performance est définie en interne – c’est-à-dire selon que l’on accorde plus ou moins de poids aux résultats financiers, environnementaux, ou à une combinaison des deux.
Les entreprises sont de plus en plus appelées à évaluer leur exposition aux risques liés au climat, par exemple via un prix interne du carbone utilisé dans leur planification stratégique. La manière dont elles définissent leur performance conditionne leur capacité à anticiper les coûts futurs du carbone et à ajuster leurs décisions en conséquence.
Cet enjeu de définition de la performance se traduit déjà dans certaines pratiques. En avril 2023, Getlink (ex-groupe Eurotunnel) a introduit une « marge de décarbonation ». Cet indicateur financier mesure la capacité de l’entreprise à s’adapter à la hausse des coûts carbone en soustrayant les coûts futurs d’émissions au résultat opérationnel (EBITDA).
Cette initiative illustre l’importance croissante de relier directement les dimensions financière et environnementale.
Notre étude porte sur environ 3 800 entreprises soumises au SEQE-UE dans 28 pays européens, sur la période 2008–2022. Il s’agit d’un échantillon représentatif des entreprises couvertes par ce système, issues de secteurs comme l’énergie, l’acier, le ciment, la chimie, la papeterie ou l’aviation, qui déclarent chaque année leurs émissions vérifiées. À partir de ces données, nous construisons pour chaque entreprise un indicateur composite de performance combinant deux dimensions : la rentabilité opérationnelle (mesurée par la marge d’EBITDA) et les émissions de gaz à effet de serre.
À lire aussi : Le prix interne du carbone : un outil puissant pour les entreprises
Nous proposons un cadre d’analyse multidimensionnel : au lieu de traiter la performance financière et la performance environnementale comme des dimensions distinctes ou opposées, nous les combinons dans un indice unique. Nous faisons varier le poids relatif accordé à chacune des deux dimensions pour générer plusieurs profils types d’entreprises, allant d’une vision 100 % financière à une vision 100 % environnementale de la performance.
Nous analysons ensuite, à l’aide d’une modélisation prédictive, alimentée par le Stochastic Extreme Gradient Boosting, un outil avancé d’apprentissage automatique, dans quelle mesure le prix moyen du quota carbone d’une année peut prédire l’évolution de cette performance composite l’année suivante. Cela nous permet d’évaluer si – et pour quels profils – le signal-prix du carbone est effectivement pris en compte par les entreprises dans leurs décisions stratégiques.
Nos résultats montrent que l’effet du prix du carbone dépend fortement de la pondération accordée aux deux dimensions de performance. Lorsque la performance est définie principalement selon la rentabilité financière, une hausse du prix du carbone a un effet négatif significatif sur la performance globale. Cela s’explique par le fait que les coûts supplémentaires induits par les quotas érodent la marge opérationnelle.
À l’inverse, lorsque la performance est définie en mettant davantage l’accent sur la réduction des émissions, le lien entre le prix du carbone et la performance devient beaucoup plus faible, voire inexistante. Ce résultat suggère que les entreprises ayant déjà intégré une logique de réduction des émissions peuvent être moins sensibles aux variations du prix du carbone – soit parce qu’elles ont déjà accompli l’essentiel des efforts, soit parce qu’elles réagissent davantage à d’autres types d’incitations (réglementaires, normatives ou réputationnelles).
Les investisseurs financiers peuvent intégrer ce type d’indice composite financier environnemental dans leur évaluation des entreprises. Cela leur permettrait d’identifier celles qui sont les plus vulnérables à une hausse du prix du carbone, ou au contraire les plus aptes à aligner performance économique et objectifs climatiques.
Pour les régulateurs du système d'échanges de quotas d'émissions (SEQE-UE), nos résultats confirment l’importance d’accompagner le signal-prix d’un cadre plus structurant : publication obligatoire d’indicateurs intégrés dans le cadre de la directive européenne Corporate Sustainability Reporting Directive (CSRD), mise en place de corridors de prix pour assurer la prévisibilité du marché, ou encore le soutien ciblé aux entreprises qui prennent des risques environnementaux sans retour immédiat sur la rentabilité.
Les citoyens peuvent également jouer un rôle actif en soutenant les initiatives qui rendent visibles les compromis entre rentabilité et réduction des émissions. Par exemple, ils peuvent exiger que les entreprises publient des indicateurs combinés permettant de suivre simultanément leur performance financière et environnementale.
Ethan Eslahi ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
15.09.2025 à 12:28
Frédéric Aubrun, Enseignant-chercheur en Marketing digital & Communication au BBA INSEEC - École de Commerce Européenne, INSEEC Grande École
C’était fatal : le succès de séries mettant en avant des antihéros amoraux infuse dans la communication des entreprises, et notamment dans la publicité. Mais ce qui peut être accepté dans une série mettant en exergue l’ambiguïté humaine peut-il être acceptable quand il est manipulé par des publicitaires ?
Dexter Morgan (Dexter, 2006-2013), le tueur en série « éthique », Walter White (Breaking Bad, 2008-2013), le professeur devenu baron de la drogue, ou Joe Goldberg (You, 2018-2025), le stalker (harceleur) romantique… Ces personnages fascinent les téléspectateurs depuis deux décennies. Mais leur influence dépasse aujourd’hui l’écran : elle transforme les codes publicitaires.
« Je ne suis pas en danger, Skyler. Je suis le danger »
Cette réplique de Walter White dans Breaking Bad illustre parfaitement le succès des antihéros sériels : des personnages moralement ambigus qui franchissent les lignes rouges : ils tuent, trafiquent, harcèlent. Leur particularité ? Ils se présentent comme des justiciers suivant leur propre code moral – distinct des règles sociales et religieuses traditionnelles – tout en nous faisant éprouver de l’empathie pour eux. Désormais, cette nouvelle grammaire narrative inspire aussi certaines marques.
Un des exemples frappants est celui de Shein en 2025. Face aux critiques sur la fast-fashion et à un projet de loi français pénalisant sa promotion, la marque n’a pas choisi la discrétion. Sa campagne « La mode est un droit, pas un privilège » transforme la contrainte en opportunité narrative, se présentant comme victime d’une élite voulant priver les classes populaires d’accès à la mode.
Cette stratégie rappelle directement celle de Dexter Morgan et son fameux « code » : une ligne de conduite personnelle qui justifie ses meurtres en ne s’attaquant qu’aux méchants. Comme Shein avec sa défense de la démocratisation de la mode, Dexter se présente comme un justicier suivant des règles éthiques strictes.
À lire aussi : L’IA dans la publicité : l’humour comme stratégie de légitimation
Mais le parallèle va plus loin. Dexter, malgré son code, cause régulièrement des « dommages collatéraux » – des victimes innocentes qui échappent à sa logique initiale. De même, Shein brandit son éthique de l’accessibilité tout en générant des externalités négatives : pollution, conditions de travail précaires, surconsommation.
Les réactions sur les réseaux sociaux à la campagne Shein illustrent cette tension. L’analyste digitale Audrey Lunique (ATaudreylunique) a décortiqué cette stratégie sur X :
Cette analyse révèle exactement le mécanisme de l’antihéros : utiliser un code moral (démocratisation de la mode) pour détourner l’attention des « dommages collatéraux » (exploitation, pollution). Comme Dexter qui justifie ses meurtres par sa lutte contre les « méchants », Shein présente ses pratiques destructrices pour l’environnement et les conditions de travail comme un combat pour la justice sociale.
D’autres marques adoptent ce genre de posture transgressive, comme, par exemple, Balenciaga, qui s’était approprié des codes de l’antihéros avec ses campagnes controversées de 2022. La maison de luxe avait provoqué un tollé en diffusant des photographies montrant des enfants tenant des sacs en forme d’ours équipés d’accessoires BDSM.
Face aux accusations de sexualisation de mineurs, le directeur artistique Demna s’est d’abord défendu :
« Si j’ai voulu parfois provoquer à travers mon travail, je n’ai jamais eu l’intention de le faire avec un sujet aussi horrible que la maltraitance des enfants. »
Cette défense révèle le même schéma narratif : d’abord revendiquer un « code » artistique supérieur, puis admettre les dégâts quand la pression devient trop forte. Comme les antihéros de fiction, Balenciaga s’est positionné en incomprise, victime d’une société incapable de saisir sa vision créative.
Burger King illustre une version plus subtile de cette logique avec sa campagne « Moldy Whopper » (2020), qui montre délibérément un burger en décomposition. Comme Dexter qui expose la vérité crue de ses victimes, Burger King révèle la réalité de son produit sans conservateurs artificiels. La marque assume la laideur apparente (moisissure) pour revendiquer une supériorité éthique (naturalité).
Cette appropriation des codes de l’antihéros s’explique par trois phénomènes.
La saturation culturelle d’abord. Les plateformes de streaming ont démocratisé l’accès aux séries, créant un référentiel culturel partagé. Les publicitaires puisent dans ce répertoire pour créer une connivence immédiate avec leurs audiences.
La fatigue de l’authenticité performée ensuite. Après des années de communication corporate lisse, les consommateurs se méfient des discours trop parfaits. L’antihéros publicitaire apparaît paradoxalement plus crédible parce qu’il assume ses défauts. Ce phénomène s’inscrit dans une évolution plus large de la publicité face aux nouvelles technologies, où les marques cherchent constamment de nouveaux codes pour maintenir l’attention.
La légitimation par association culturelle enfin. En adoptant les codes d’œuvres « de prestige », les marques opèrent un transfert de légitimité. Si Walter White peut être fascinant malgré ses crimes, pourquoi Shein ne pourrait-elle pas être acceptable malgré ses controverses ?
Le psychologue Jason Mittell a théorisé la notion d’« empathie trouble » que nous développons envers ces personnages complexes. Cette « empathie trouble »désigne notre capacité à nous attacher à des personnages (ou ici des marques) dont nous désapprouvons les actes. Nous savons que Walter White détruit sa famille, mais nous comprenons ses motivations initiales. Cette ambivalence émotionnelle, fascinante en fiction, devient manipulatoire quand elle sert des intérêts commerciaux dans la réalité.
Le succès durable de Dexter en témoigne : huit saisons initiales, puis New Blood (2021), Original Sin (2024) et Resurrection (2025).
Cette multiplication s’étend aux séries anthologiques comme Monsters (2022-2025), explorant les psychés de tueurs historiques.
Mais cette empathie devient problématique quand elle s’applique aux marques. La fiction nous apprend à suspendre notre jugement moral ; la publicité exploite cette suspension.
Cette tendance soulève des questions cruciales pour l’avenir de la communication commerciale. La normalisation de la transgression publicitaire risque de déplacer les limites de l’acceptable, créant une spirale de surenchère provocatrice.
Les professionnels du marketing doivent développer une réflexivité critique. L’efficacité à court terme d’une campagne provocante doit être mise en balance avec ses externalités sociales : normalisation de comportements problématiques, érosion de la confiance, contribution à un climat de transgression généralisée.
Les séries nous ont appris à accepter la complexité morale. Mais quand cette leçon s’applique aux marques, elle peut devenir un outil de manipulation redoutable. À l’heure où 71 % des consommateurs attendent des marques qu’elles s’engagent sur des sujets de société, cette fascination pour la transgression interroge notre rapport à l’éthique commerciale.
Frédéric Aubrun ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
15.09.2025 à 12:27
Albéric Tellier, Professeur Agrégé des Universités en sciences de gestion, Université Paris Dauphine – PSL
Emeline Martin, Maîtresse de conférences en sciences de gestion, Université d’Angers
Si vous ne l’avez vu, vous pouvez découvrir gratuitement sur Arte une série majeure de la dernière décennie : « Mad Men ». Ses personnages évoluent dans une agence de publicité new-yorkaise dans les années 1960. Au-delà de la fiction, que nous dit cette série sur le monde de la publicité et du marketing ?
Depuis la rentrée, Arte propose gratuitement l’intégrale de la série Mad Men. L’occasion idéale de (re)voir une série acclamée par la critique et d’en apprendre beaucoup sur l’histoire du marketing, ses évolutions et ses dérives.
Créée par Matthew Weiner, Mad Men propose aux spectateurs de suivre les destins croisés des membres de l’agence de publicité new-yorkaise Sterling Cooper et de leurs proches, tous confrontés aux transformations profondes, rapides et parfois brutales de la société américaine. Les 92 épisodes, regroupés en sept saisons, offrent une véritable plongée dans une décennie marquante pour les États-Unis : la séquence inaugurale nous emmène dans un bar de Manhattan en mars 1960, tandis que celle qui clôture la saga se déroule à la fin de l’année 1970 sur les hauteurs d’une falaise californienne. Entre ces deux dates, les personnages devront faire face à de nombreux changements politiques, sociaux, technologiques et culturels, impactant à la fois leurs situations personnelles et leurs activités professionnelles.
Au-delà de ses indéniables qualités qui ont fait l’objet de nombreuses analyses, cette immersion dans l’univers des professionnels chargés de vendre le rêve américain, notamment le directeur de la création Don Draper et la rédactrice-conceptrice Peggy Olson, nous offre une occasion idéale de comprendre l’essor du marketing, ses évolutions récentes et ses travers. Pour cela, les concepteurs se sont appuyés sur des faits et des cas réels, ou tout au moins crédibles. Tout au long des épisodes, les membres de Sterling Cooper travaillent pour des marques comme Chevrolet, Heineken, Heinz, Honda, Kodak, Lucky Strike, Playtex, etc.
La décennie couverte par Mad Men est une période charnière pour le marketing, celle où il s’impose définitivement comme une discipline sophistiquée qui doit impérativement être enseignée, et une fonction centrale dans l’entreprise au même titre que la production ou la finance. On assiste ainsi au fil des saisons à la transformation d’un domaine essentiellement pratique, largement nourri des expériences de terrain et des expérimentations des directions commerciales, à un corps de connaissances formalisées, enrichi de travaux de recherche dédiés et des apports d’autres sciences sociales comme la psychologie, la sociologie ou l’économie.
À lire aussi : L’art du marketing selon « Mad Men »
Dans ce contexte, les agences de publicité ne peuvent plus se contenter de concevoir des campagnes et de vendre des espaces publicitaires. Elles doivent se convertir en agences « à service complet », capables de prendre à leur compte des activités d’études de marché et de tests de produits afin de mettre au jour les attentes, freins et motivations d’un consommateur qui n’est pas toujours rationnel. Mais chez Sterling Cooper, la transformation n’est pas aisée car ses responsables ont débuté leur carrière au moment où la communication était avant tout affaire d’intuition et de « génie créatif ».
Bien entendu, depuis les années soixante, le marketing a connu d’importantes transformations, avec des contraintes qui s’additionnent, et qui peuvent être résumées en trois grandes périodes :
le marketing transactionnel (1950-1980)
le marketing relationnel (1980-2000)
le marketing expérientiel (2000-…).
Au sein de Sterling Cooper, l’accent est essentiellement mis sur la transaction. Il faut multiplier les ventes en maximisant la valeur de la prestation que le client obtiendra dans l’échange. Dans les années 1980 cependant, les priorités changent. La transaction reste déterminante, mais on cherche à construire des relations durables avec les clients et à conserver leur confiance sur le long terme. Enfin, au début des années 2000, le marketing devient « expérientiel ». Le consommateur est désormais plus individualiste et volatile. Il veut se sentir accompagné, voire choyé, tout au long du processus qui va le mener à l’achat et attend de la consommation qu’elle soit une activité agréable, divertissante mais aussi cohérente avec ses valeurs.
À la lecture de ce découpage chronologique, une question vient immédiatement à l’esprit : la série Mad Men se déroulant dans les années 1960, peut-on l’utiliser pour cerner les évolutions les plus récentes du marketing ?
À lire aussi : Le Moyen Âge a‑t‑il inventé la publicité ?
La série a été unanimement saluée pour l’exceptionnelle qualité de sa restitution de l’Amérique des sixties. Pour autant, les concepts et méthodes de marketing qui sont évoqués sont souvent plus en phase avec les connaissances et pratiques actuelles. Paradoxalement, ces anachronismes ajoutent un intérêt supplémentaire à la série.
Les personnages de Mad Men raisonnent et agissent souvent comme le feraient aujourd’hui de nombreux responsables marketing. Dans le dernier épisode de la première saison, Don Draper s’appuie sur le sentiment de nostalgie pour concevoir une campagne de communication, une approche très rare à l’époque mais désormais courante. Plus tard (saison 6, épisodes 1 et 2), il se montrera très en avance sur son temps en proposant aux responsables d’une chaîne hôtelière une approche typique du marketing expérientiel que nous évoquions plus haut :
« Ce que j’ai vécu était très différent des [vacances habituelles]. On ne doit pas vendre une destination géographique. On va vendre une expérience »
Un projet tellement novateur qu’il ne sera pas retenu… Sous la houlette de ce directeur de la création à la fois fascinant et détestable, les équipes de Sterling Cooper seront également amenées à travailler dans des contextes de plus en plus variés et à imaginer des actions inédites pour l’époque mais habituelles aujourd’hui. C’est ainsi que la série Mad Men permet d’aborder le marketing de l’innovation, le marketing social, le marketing public et territorial ou le marketing viral, alors qu’ils n’existaient qu’à un état embryonnaire dans les années 1960.
Loin d’être des « génies » du marketing, les membres de l’agence font parfois des erreurs, n’utilisent pas très bien les méthodes à leur disposition, et sont même parfois guidés par des intentions fort discutables. Quand nous faisons connaissance avec Don Draper, il est à la recherche des moyens qui permettraient au cigarettier Lucky Strike d’éviter une législation jugée trop contraignante et ne semble avoir aucun scrupule à manipuler les clients. Quand nous le retrouvons dans la quatrième saison, en train de tenir un discours engagé et percutant devant les membres d’une association de lutte contre le tabac, nous comprenons rapidement que son intention véritable est de trouver de nouveaux clients au moment où l’agence vit une période bien délicate.
Ainsi, la série Mad Men est un formidable support pour montrer la puissance du marketing mais aussi ses dérives. Celles-ci ne doivent pas être relativisées. Cependant, qu’on veuille critiquer les finalités et pratiques du marketing, les mettre à profit, ou les renouveler pour participer à l’essor d’un marketing responsable, il est nécessaire dans tous les cas de les comprendre. Un objectif que le visionnage de l’intégralité de Mad Men permet d’atteindre.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
14.09.2025 à 18:05
Joël Candau, Professeur émérite en anthropologie, Université Côte d’Azur
Véronique Ginouvès, Ingénieure de recherche, responsable du secteur Archives de la recherche, archives en sciences humaines et sociales, Aix-Marseille Université (AMU)
Les bienfaits de l’allaitement maternel du nourrisson sont démontrés. Pourtant cette pratique varie dans le monde, notamment durant les deux premiers jours suivant l’accouchement, qui correspondent au don de colostrum. Un programme pluridisciplinaire, mené dans sept pays sur quatre continents et qui allie biologie et anthropologie, s’intéresse à ce fluide sécrété par les glandes mammaires.
En 2003, l’Organisation mondiale de la santé (OMS) et le Fonds des Nations unies pour l’enfance (Unicef) ont déployé deux stratégies visant l’initiation à l’allaitement maternel dans la première heure qui suit l’accouchement, ainsi que l’allaitement maternel exclusif pendant les six premiers mois de l’enfant. Ces stratégies étaient fondées sur les multiples bienfaits de l’allaitement maternel pour l’enfant.
Mais, encore aujourd’hui, on observe des disparités géographiques, socioéconomiques et culturelles en matière d’allaitement maternel, notamment au cours des deux premiers jours de l’alimentation du nouveau-né. Cette courte période correspond au don du colostrum, ce liquide jaunâtre sécrété par les glandes mammaires les premiers jours après un accouchement.
C’est avec l’objectif de comprendre ces disparités que nous avons développé entre 2013 et 2016 un programme de recherche fondamentale baptisé « Colostrum » qui a pour objectif d’inventorier et d’analyser les différentes pratiques de don du colostrum dans sept pays de quatre continents : Allemagne, Bolivie, Brésil, Burkina Faso, Cambodge, France et Maroc.
Les bienfaits de l’allaitement maternel sont multiples pour le nourrisson. Pratiqué dès la première heure, l’allaitement maternel réduit la mortalité néonatale (jusqu’à 28 jours d’âge) et infantile précoce (jusqu’à 6 mois d’âge). Il favorise également la réduction du risque de surpoids à tous les âges et le développement cognitif, selon des conclusions de l’Agence de sécurité sanitaire (Anses).
Des données suggèrent également d’autres effets positifs de l’allaitement maternel : sur l’immunité, sur les risques de diabète de type 1, de leucémies ou encore d’otites moyennes aiguës (mais seulement jusqu’à l’âge de 2 ans pour ces dernières), d’infections des voies urinaires ou encore d’asthme.
Enfin, l’allaitement maternel présente l’avantage économique d’être gratuit et l’avantage psychologique de renforcer le lien entre la mère et l’enfant.
Pour la mère, l’allaitement réduirait le risque de cancer ovarien. Des données scientifiques robustes montrent qu’il prévient le cancer du sein, améliore l’espacement des naissances et pourrait limiter le risque de diabète de type 2 chez la mère.
On oublie souvent que cet éventail de bienfaits sur le plan de la santé n’est pas dû uniquement au lait maternel. En effet, les premiers jours du nourrissage du nouveau-né, la mère ne lui donne pas du lait mais du colostrum secrété par les glandes mammaires.
Sur le plan nutritif, le colostrum est plus riche en protéines mais plus pauvre en lactose et en lipides. Il se caractérise aussi par une teneur importante en anticorps – à un taux jusqu’à 100 fois plus élevé que dans le lait mature –, en agents anti-infectieux, etc. Bref, sa composition semble particulièrement adaptée pour favoriser le développement du nouveau-né et l’aider à se défendre contre les infections.
Toutefois, les études sur les bienfaits du colostrum restent insuffisantes, surtout dans une perspective bioculturelle.
Malgré le consensus scientifique sur les bienfaits de la pratique de l’allaitement, le colostrum est considéré dans diverses sociétés comme impur et, par conséquent, malsain pour l’enfant, la mère différant l’alimentation au sein jusqu’à ce que le lait s’y substitue.
Pour comprendre les disparités géographiques, socioéconomiques et culturelles en matière d’allaitement maternel, et notamment celles liées au don du colostrum, notre programme a réuni des chercheurs en sciences sociales et en sciences de la vie.
Notre communauté de chercheurs s’est donné un triple objectif :
i) documenter les pratiques et représentations relatives à cette substance,
ii) mieux connaître ses propriétés biologiques,
iii) contribuer à l’élaboration de messages efficaces de promotion de sa consommation.
Le programme comprenait trois volets : les deux premiers (anthropologique et biologique) concernaient la recherche proprement dite, le troisième (open science) l’archivage des données anthropologiques.
Le volet anthropologique a consisté à mener des enquêtes ethnographiques sur les pratiques et sur les représentations relatives au colostrum dans les sept pays cités afin d’identifier les variables culturelles susceptibles d’expliquer sa consommation ou sa non-consommation.
Le volet biologique comportait deux axes. Le premier, psychobiologique, a porté sur les propriétés sensorielles et fonctionnelles du colostrum chez la souris et dans l’espèce humaine. Le second, immunologique, s’est attaché à l’analyse du potentiel immunologique du colostrum et de son effet sur la prévention des allergies.
La perspective interdisciplinaire a consisté à mettre en regard les données anthropologiques avec la recherche des bénéfices biologiques du colostrum pour la santé de l’enfant et de la mère.
Dans sa globalité, l’ambition du programme était de produire des connaissances utiles aux politiques de santé publique menées dans les pays enquêtés.
Les données ethnographiques ont confirmé que cet acte a priori entièrement naturel qu’est le don du colostrum est l’objet de forts investissements culturels. Elles ont également montré que ces derniers se traduisent par une mosaïque de pratiques et de représentations qui est elle-même le fruit d’une hybridation et d’une hiérarchisation des savoirs académiques et traditionnels.
Ainsi, les données de terrain de l’étude que nous avons menée dans une maternité de Phnom Penh, la capitale cambodgienne, illustrent combien sont intriqués les savoirs qui circulent autour de la consommation du colostrum.
Extrait d’un entretien auprès d’une femme âgée de 36 ans ayant accouché de son deuxième enfant. Elle évoque sa crainte de ne pas avoir de lait :
« Il tète, mais il n’y a pas de lait. J’ai donné du lait du commerce sinon il va mourir parce que moi, la maman, je n’ai pas de lait. » (Octobre 2014.)
En Bolivie, les mères ont une connaissance fragmentée du colostrum, contrairement au personnel de santé. Certaines notent une différence avec le lait, d’autres connaissent le nom « colostrum », notamment lorsqu’elles ont déjà accouché en milieu hospitalier. D’autres encore utilisent un autre nom. Beaucoup ne savent rien. Plusieurs mères le considèrent comme de l’eau, « aguita », mettant en doute la qualité nutritive du liquide. D’autres craignent qu’il constipe leur bébé.
Autre exemple, au Burkina Faso, le colostrum est désigné par le terme kinndi en fulfulde (langue peule) qui signifie « quelque chose de trouble », « liquide amer » ou encore « liquide impropre ». La première nourriture du nouveau-né est mise en rapport avec les notions de pollution ou encore avec des croyances thérapeutiques (par exemple, le colostrum provoquerait des diarrhées ou des indigestions).
Quant aux données psychobiologiques, elles ont montré que les nouveau-nés s’orientent préférentiellement vers l’odeur du colostrum lorsqu’elle est simultanément présentée avec l’odeur du lait mature. Les effluves du colostrum sont particulièrement attractifs et appétitifs pour les bébés. Âgés de 2 jours, ils préfèrent l’odeur du colostrum à celle du lait mature.
Enfin, sur le plan immunologique, les expériences réalisées chez la souris ont mis en évidence l’impact majeur du colostrum murin sur la croissance du souriceau.
En termes de recherche appliquée, un projet d’étude clinique a été développé sur les bienfaits de l’administration de colostrum humain aux grands prématurés au sein du service de néonatalogie de l’hôpital l’Archet de Nice (Alpes-Maritimes), qui a accueilli le projet Colostrum après l’aval du comité d’éthique.
La présentation des résultats biologiques et anthropologiques aux sages-femmes, puéricultrices et pédiatres a stimulé l’intérêt pour le don de colostrum dans ce service. La mise en œuvre du programme a permis une augmentation significative du don du colostrum aux grands prématurés. Il est passé de 16 % en 2013 à 68 % en 2016. En outre, les mères recueillent du colostrum jusqu’à 5 fois par jour contre 0 à 1 fois auparavant, ce qui a impliqué le développement de pratiques de don artificiel.
Cette recherche a également permis le développement d’un volet science ouverte (voir encadré). Les données anthropologiques et administratives de l’ANR Colostrum sont accessibles sur la plateforme de l’enseignement supérieur et de la recherche Calames, en fonction des règles éthiques et juridiques.
Ce programme peut donc servir de tremplin pour de nouvelles recherches bioculturelles sur cet « or liquide » qu’est le colostrum. L’accès à ces résultats est également rendu possible à tous les citoyens qui le souhaitent, sous réserve des dispositions légales.
Le projet « L’alimentation pré-lactée (don et consommation néonatale du colostrum) : pratiques, représentations et enjeux de santé publique. COLOSTRUM » a bénéficié du soutien de l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.
Ce programme a associé huit équipes des universités d’Aix-Marseille, de Bourgogne, de Nice et de Paris Descartes (France), de Francfort (Allemagne), de Pelotas (Brésil) et de Sidi-Mohamed-Ben-Abdellah à Fès (Maroc), ainsi que le Centre national de la recherche scientifique et technologique (CNRST) de Ouagadougou (Burkina Faso) et la maternité de l’hôpital Calmette à Phnom Penh (Cambodge).
Cet article est rédigé dans le cadre du Festival des sciences sociales et des arts d’Aix-Marseille Université. L’édition 2025 « Science & croyances » se tient du 16 au 20 septembre. Pendant le festival, une exposition est consacrée au programme Colostrum à la médiathèque de la Maison méditerranéenne des sciences de l’homme (MMSH).
Joël Candau a reçu des financements de l’Agence nationale de la recherche (ANR).
Véronique Ginouvès a reçu des financements de l'agence bibliographique de l'enseignement supérieur et de la recherche, l'agence nationale de la recherche, la commission européenne, l'institut français d'islamologie.
14.09.2025 à 12:03
Jorge Jacob, Professor of Behavioral Sciences, IÉSEG School of Management
Frederico Bertholini, Professeur de Sciences Politiques à l’Institut de Sciences Politiques de l’Université de Brasilia., Universidade de Brasília (UnB)
Malgré d’intenses pressions internes (venant des partisans du président déchu) et externes (exercées par Donald Trump), la justice brésilienne a condamné Jair Bolsonaro à 27 ans de prison pour son rôle dans la tentative de coup d’État du 8 janvier 2023. Bien d’autres pays où les processus électoraux, et même la démocratie au sens large, sont menacés, peuvent trouver dans l’inflexibilité des institutions judiciaires du Brésil une source d’inspiration.
Le Tribunal suprême fédéral (STF, équivalent de la Cour suprême) du Brésil vient de condamner à 27 ans de prison l’ancien président Jair Bolsonaro, qui devient ainsi le premier ex-chef d’État du pays à être condamné pour tentative de coup d’État. Bolsonaro peut encore présenter des recours devant le STF, mais seulement après la publication de l’arrêt écrit, ce qui peut prendre plus d’un mois. Ses avocats envisagent également de saisir des instances internationales, comme la Commission interaméricaine des droits de l’homme. Pour l’instant, il n’a pas été emprisonné et reste à Brasilia, en résidence surveillée, dans l’attente des décisions sur ses recours. Si tous les recours sont rejetés et les condamnations confirmées, il devra purger sa peine en régime fermé, probablement dans une superintendência de la Police fédérale.
Ce jugement marque un tournant dans l’histoire démocratique du pays et offre au monde des leçons importantes sur la manière de freiner les dérives autoritaires et de renforcer les institutions démocratiques.
L’épisode le plus emblématique des actions putschistes pour lesquelles Bolsonaro a été jugé a eu lieu le 8 janvier 2023, comme je l’ai analysé dans mon article précédent publié sur The Conversation France, au moment où ces événements se déroulaient.
Ce jour-là, des milliers de partisans de Bolsonaro, qui avait été vaincu par le candidat de gauche Lula au second tour de la présidentielle tenu le 30 octobre précédent et dont le mandat avait pris fin le 1er janvier, ont marché vers la Place des Trois-Pouvoirs, à Brasilia. Ils ont envahi et vandalisé le bâtiment du Congrès national, le siège de la Cour suprême et le palais présidentiel. À ce moment-là, il existait des indices, mais pas encore de preuves concrètes, de l’implication directe de Bolsonaro.
Le projet de l’extrême droite brésilienne repose en grande partie sur des stratégies de désinformation sur les réseaux sociaux, souvent fondées sur des récits conspirationnistes. Selon l’analyse de Frederico Bertholini, professeur à l’Université de Brasilia, toute personne (y compris les responsables politiques et les juges) qui s’oppose aux objectifs ou aux tactiques de l’extrême droite est automatiquement étiquetée comme « progressiste », « gauchiste » ou « communiste », même si cette catégorisation ne reflète pas nécessairement la réalité. Ces personnes sont alors présentées par les bolsonaristes comme représentant une menace pour les libertés individuelles des Brésiliens conservateurs et des soi-disant « gens de bien ».
Dans mon précédent article, j’ai montré comment les attaques contre les institutions, menées par l’extrême droite, aggravaient les divisions au sein de la société brésilienne. Elles représentaient un défi non seulement pour le nouveau gouvernement de Lula, mais surtout pour le pouvoir judiciaire. Une question demeurait en suspens : les institutions seraient-elles capables de garantir que la volonté exprimée dans les urnes prévaudrait et que la démocratie tiendrait bon ?
Après près un peu plus de deux ans d’enquête, le procès s’est donc achevé cette semaine. Dans son vote rendu ce mardi 9 septembre, le juge instructeur de l’affaire au sein de la Cour suprême, Alexandre de Moraes, a estimé que les attaques survenues peu après l’investiture de Lula ne constituaient qu’un élément d’un plan plus vaste, bien coordonné et dirigé par Bolsonaro et son entourage politique d’extrême droite (plusieurs de ses proches ont également été condamnés à des peines de prison ferme).
Les enquêtes menées par la police fédérale et le parquet général du Brésil ont révélé les preuves d’une implication directe de l’ex-président et de ses alliés dans une tentative de renversement de l’ordre démocratique, qui a culminé avec le 8 janvier, mais dont certains des faits les plus graves se seraient produits auparavant.
Selon le parquet, dès la reconnaissance de sa défaite électorale face à Lula, Bolsonaro et ses proches auraient planifié un coup d’État. Les preuves incluent des messages interceptés, des réunions publiques et secrètes, ainsi que des témoignages d’anciens collaborateurs décrivant des plans pour annuler les résultats de la présidentielle, y compris un projet de décret instaurant l’état de siège et un plan visant à assassiner Alexandre de Moraes, Lula et son vice-président, Geraldo Alckmin.
La conclusion du procès, qui survient dans un contexte de fortes tensions internes et internationales, met en lumière la résilience des institutions démocratiques brésiliennes. Face à la possibilité réelle de condamnation de son père, le député fédéral Eduardo Bolsonaro est parti en mars 2025 aux États-Unis pour solliciter un soutien politique de l’administration Trump. Pendant ce séjour (qui continue aujourd’hui encore), il a rencontré des membres du gouvernement états-unien,dénoncé la « persécution politique » visant son père au Brésil (termes qu’il a répétés une fois la condamnation de son père prononcée) et appelé à des sanctions contre le juge Alexandre de Moraes.
Ces démarches ont conduit à des mesures concrètes : Washington a ordonné des droits de douane de 50 % sur les produits brésiliens et des sanctions contre Moraes dans le cadre du Global Magnitsky Act (une loi qui « autorise le président à imposer des sanctions économiques et à refuser l’entrée aux États-Unis aux ressortissants étrangers identifiés comme se livrant à des violations des droits de l’homme ou à des actes de corruption »).
Aligné sur Jair Bolsonaro, avec lequel il partage une idéologie d’extrême droite, des stratégies de communication similaires et des intérêts géopolitiques communs, Donald Trump, qui a déclaré en juillet que son allié était la victime d’une « chasse aux sorcières », a donc exercé des pressions économiques et diplomatiques sur le Brésil. Sans succès. À l’annonce de la condamnation de son allié, Trump a estimé que c’était « très surprenant » et que Bolsonaro était un homme « bon » et « exceptionnel », tandis que le secrétaire d’État Marco Rubio promettait que les États-Unis « réagiraient de façon appropriée ».
La condamnation de Bolsonaro pourrait constituer un précédent historique dans la responsabilisation des dirigeants élus au Brésil et ailleurs dans le monde lorsqu’ils attentent à l’ordre démocratique. Pour la France, qui connaît elle aussi une montée de mouvements nourris par la désinformation numérique, le cas brésilien fournit des éléments de réflexion utiles sur la manière de protéger la légitimité électorale et l’indépendance des institutions. Le bon fonctionnement démocratique repose sur un équilibre institutionnel. C’est sans doute la raison pour laquelle ces institutions deviennent des cibles privilégiées des populistes autoritaires.
La fermeté de la Cour suprême brésilienne dans la conduite du procès, malgré les pressions internes et externes, illustre l’importance pour un État de disposer d’institutions autonomes, capables de résister aux menaces diplomatiques ou aux pressions autoritaires.
Une autre leçon essentielle est que les systèmes démocratiques peuvent répondre à des crises institutionnelles sans rompre avec l’État de droit. Le cas brésilien montre qu’il est possible de juger des personnalités politiques puissantes sur la base de preuves solides, en respectant les procédures et la transparence. Cela contraste avec d’autres démocraties fragilisées, où les institutions reculent face à la peur de l’instabilité, comme on l’a vu aux États-Unis ou dans d’autres pays confrontés à la montée du populisme autoritaire. Le Brésil démontre que la stabilité démocratique repose sur la responsabilisation de ses dirigeants, aussi populaires soient-ils, lorsqu’ils s’attaquent à l’ordre républicain.
Fait intéressant : le soutien de Trump à Bolsonaro semble avoir eu l’effet inverse de celui escompté. Les sondages indiquent un renforcement politique de Lula, donné favori pour la prochaine élection présidentielle, qui aura lieu en 2026.
De plus, plus de la moitié des Brésiliens soutiennent l’emprisonnement de Bolsonaro, et une majorité estiment qu’Alexandre de Moraes agit dans le respect de la Constitution. Sur le plan économique, les efforts du gouvernement Lula pour diversifier les marchés d’exportation et réduire la dépendance aux États-Unis commencent à porter leurs fruits, réduisant l’impact des nouvelles taxes promulguées par Washington. Le Mexique, notamment, s’impose comme un partenaire stratégique, capable non seulement d’absorber une part croissante des exportations brésiliennes, mais aussi de servir d’intermédiaire grâce à ses habilitations pour vendre vers des marchés exigeants comme le Japon et la Corée du Sud.
La Une d’un grand journal brésilien, proclamant à l’issue du procès « La démocratie avant tout », est devenue virale sur les réseaux. Le titre détourne le slogan bolsonariste « Le Brésil avant tout, Dieu au-dessus de tous », étroitement lié à la mouvance évangélique. Dans la foulée de la condamnation, des citoyens progressistes ont transformé les rues de Rio de Janeiro en un carnaval hors saison, symbole de célébration et de résistance démocratique.
Les implications du procès de Jair Bolsonaro dépassent donc le seul Brésil : lorsque les institutions démocratiques sont solides et bien conçues, elles peuvent faire barrage aux avancées autoritaires. Avec son passé autoritaire récent (le pays a été gouverné par une junte de 1964 à 1985) et son présent marqué par une résistance institutionnelle, le Brésil montre qu’il est possible de faire face aux pressions et de préserver la démocratie quand elle est attaquée.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
14.09.2025 à 10:56
Charbel Cordahi, Professeur de Finance & Economie, Grenoble École de Management (GEM)
En 1966, deux événements se produisent simultanément : un choc de crédit aux États-Unis et une crise bancaire au Liban, avec pour conséquence la faillite de la banque Intra (ou Intra Bank). L’origine ? L’intégration de la « Suisse du Moyen-Orient » à l’économie mondiale. Mais comment ces évènements sont-ils liés ? Qui en est à l’origine ? Qui en a le plus pâti ?
Connaissez-vous l’effet papillon, cette théorie selon laquelle le battement d’ailes d’un papillon au Brésil peut provoquer une tornade au Texas ? En économie, s’il n’existe pas en tant que tel, une crise de crédit aux États-Unis peut tout à fait être une des causes d’une faillite bancaire au Liban.
C’est ce qui s’est passé en 1966. La plupart des analyses attribuent la crise libanaise à la faillite de la banque Intra cet automne-là, ou à un échec systémique, motivé par la cupidité, les luttes de pouvoir et les intérêts acquis d’une élite, sans approfondir davantage.
Notre étude montre pourtant que cette faillite découle largement du choc récessif états-unien, qui a entraîné une hausse des taux d’intérêt internationaux. Elle remet en cause l’idée que la seule faillite de la banque Intra ait provoqué la crise de liquidité. C’est même l’inverse qui s’est produit : la crise, déclenchée par le choc états-unien, a mené à la faillite d’Intra et d’autres banques, en poussant les taux d’intérêt internationaux à la hausse.
En 1966, les États-Unis connaissent une baisse inattendue de l’offre de crédit bancaire, provoquée par la décision surprise de la Réserve fédérale, la banque centrale, de limiter la création monétaire et limiter l’offre de crédits. Ce choc de crédit états-unien fut l’un des plus marquants de l’après-guerre. En novembre 1966, les taux d’intérêt états-uniens atteignent un pic de 5,75 %.
En réponse, les entreprises se tournent vers l’émission d’effets de commerce. Ces titres de créance à court terme sont émis par les entreprises pour se financer directement auprès des investisseurs, sans passer par les banques. Ils sont remboursés à l’échéance au montant de leur valeur nominale (fixée dès l’émission).
Le taux de croissance annuel des effets de commerce passe de 7,8 % en 1965 à 46,6 % en 1966. Cette augmentation s’explique par la contraction monétaire, une baisse générale des cours boursiers, et, dans une moindre mesure, par le financement de la guerre du Vietnam.
Le choc monétaire de 1966 n’a pas seulement touché l’économie des États-Unis, mais s’est aussi transmis à celle du Liban, à la fois petite, ouverte et fonctionnant sous un régime de change flottant en vigueur depuis 1948. Concrètement, alors que la majorité des pays adoptent un régime de change fixe dans les années 1950-1960, les autorités monétaires libanaises interviennent seulement de temps en temps sur le marché des changes. Le taux de change est largement déterminé par le marché réservé aux banques, qui s’échangent entre elles des actifs de gré à gré.
Le Liban connaît une forte croissance dans les années 1950, autour de 8 %. Malgré les restrictions dans les autres pays, les capitaux circulent librement au Liban. Les pétrodollars s’y installent, attirant étudiants, professionnels et entreprises. Beyrouth devient un hub financier, intellectuel et touristique. La loi sur le secret bancaire de 1956 renforce encore sa place financière. Les années 1960 prolongent cette dynamique : création de la Banque centrale en 1964, développement du secteur bancaire, afflux de capitaux et d’investissements.
C’est dans ce contexte porteur que survient le choc de mai 1966.
En raison de l’importance de l’économie des États-Unis, la hausse des taux d’intérêt du pays de l’Oncle Sam fait grimper les taux mondiaux, y compris au Liban. Les taux libanais commencent à monter dès juin 1966, un mois après le choc de mai, en passant de 5,62 % à 5,82 % en juin et à 6,07 % en juillet. La hausse des taux d’intérêt au Liban est d’abord limitée, en raison de l’excès de liquidités dans les banques. Toutefois, cet excédent devait rapidement s’amenuiser sous l’effet de la fuite des capitaux.
Dans les années 1960, le système financier libanais se caractérise par une forte dispersion des dépôts bancaires. Entre 1950 et 1964, le nombre de banques passe de 11 à 79, limitant les dépôts par institution.
Seule la banque Intra fait exception : en 1965, elle détient à elle seule un quart des dépôts au Liban. Entre 1955 et 1965, ses dépôts croissent à plus de 40 % par an, contre 26 % pour les autres banques. Intra-Bank atteint 756 millions de livres libanaises de dépôts en 1965. Ne pouvant investir localement à hauteur de ses ressources, elle se tourne vers les marchés étrangers et devint la banque privilégiée des investisseurs du Proche-Orient, notamment du Golfe.
À l’époque, les flux de capitaux sont sensibles aux taux d’intérêt (« hot money »). Ces flux d’un pays à un autre permettent de réaliser un profit à court terme sur les différences de taux d’intérêt et/ou les variations anticipées des taux de change.
De facto, la hausse des taux d’intérêt aux États-Unis, puis au Royaume-Uni provoque une fuite des capitaux du Liban vers ces deux marchés plus rentables, déclenchant la crise de liquidité de 1966. La Banque centrale libanaise, sans outils adéquats – peu de réserves, pas d’opérations d’open market (achats ou ventes de titres publics par la banque centrale sur le marché afin de réguler la liquidité et influencer les taux d’intérêt) –, ne peut relever les taux d’intérêt locaux pour endiguer la fuite.
À lire aussi : En 1933, les États-Unis sont en défaut de paiement. L’histoire peut-elle se répéter ?
La situation se dégrade en octobre 1966 quand la banque Intra suspend ses paiements. Les agents économiques, comparant les taux étrangers à ceux du Liban, transfèrent leurs fonds vers l’étranger. Cela accentue la crise, affaiblit la liquidité locale et exerce des pressions sur la livre libanaise. Entre 1966 et 1970, le nombre de banques baisse de 94 à 74.
À partir du 1er août 1966, les retraits quotidiens à la banque Intra dépassent les dépôts. Cette tendance est accentuée quelques semaines plus tard par des rumeurs de crise. Plusieurs banques locales et étrangères retirent environ 18 millions de livres libanaises. Les petits épargnants suivent, retirant 52 millions entre le 3 et le 14 octobre 1966.
Parallèlement, dans un contexte de hausse des taux d’intérêt à l’étranger, les clients des banques libanaises commencent à transférer une partie de leurs avoirs vers des établissements à l’étranger. Étant la principale banque du pays et la cible persistante de rumeurs, Intra-Bank subit des retraits supérieurs à ceux enregistrés dans les autres banques.
Le 6 octobre 1966, la direction d’Intra sollicite l’aide de la Banque centrale du Liban, qui lui accorde un prêt d’un an de 15 millions de livres à un taux de 7 %, contre garanties réelles.
Grâce à ce soutien, la banque Intra reprend les paiements à ses déposants, mais les fonds sont rapidement épuisés. La banque demande une rallonge de 8 millions, refusée par la Banque du Liban. Ce refus s’explique avant tout par le fait que celle-ci était encore trop jeune et dépourvue de moyens suffisants pour jouer pleinement son rôle de prêteur en dernier ressort. L’absence de consensus politique autour du patron de l’Intra-Bank Youssef Beidas, d’origine palestinienne et sans vrai ancrage communautaire au Liban, combinée à l’opposition des élites financières, qui cherchaient à redistribuer ses actifs vers d’autres banques, ainsi que le poids systémique d’Intra, qui aurait impliqué de mobiliser des ressources énormes, ont scellé la faillite.
Entre-temps, la direction de la banque tente de rapatrier des dépôts de New York vers Beyrouth. Avec la poursuite de la hausse des taux d’intérêt aux États-Unis, les grands déposants institutionnels états-uniens ont déjà retiré l’essentiel de leurs avoirs pour les placer ailleurs.
Intra-Bank se retrouve en grande difficulté et annonce la cessation de ses paiements, le samedi 15 octobre 1966. La crise touche d’autres banques, les déposants accélérant leurs retraits après l’annonce d’Intra.
À la suite du choc monétaire états-unien restrictif de 1966 et comme la Banque centrale du Liban ne dispose ni des moyens ni de la volonté d’intervenir sur le marché des changes pour soutenir la monnaie nationale, la livre libanaise se déprécie. Le taux de change passe de 3,11 £ pour un dollar fin avril 1966 à 3,20 £ en septembre. En un an, le taux moyen est passé de 3,07 £ en 1965 à 3,13 £ en 1966.
En somme, le choc de 1966 a perturbé la croissance pendant plusieurs mois. Il a déclenché une crise de liquidité, contribué à la faillite de la plus grande banque du pays (et à la panique bancaire qui s’en est suivie), et modifié la structure des échanges commerciaux. Il a également entraîné une hausse des taux d’intérêt, une sortie de capitaux et une forte volatilité du taux de change.
Mais le Liban trouve une issue à la crise. Les dépôts reviennent en passant de 2,6 millions en 1967 à 2,9 millions en 1968. La balance commerciale s’améliore en passant de -1,7 million en 1967 à 176,3 millions de livres libanaises en 1968. Le revenu national se rétablit en enregistrant une croissance notable de 12 % en 1968. Les crédits au secteur privé reprennent en passant de 2,3 millions en 1967 à 2,4 millions en 1968. La crise est passée.
Charbel Cordahi ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
13.09.2025 à 19:35
Bruno Cardinale, Maître de conférences et chercheur en marketing, Université Le Havre Normandie
Dans l’imaginaire collectif français, un repas de fête se passe difficilement de viande, perçue comme la pièce centrale sans laquelle le plat apparaît incomplet. À l’heure où les impératifs climatiques nous invitent à réduire notre consommation carnée, il est temps de montrer que le végétal aussi peut être le cœur de la gastronomie.
Les Français comptent parmi les plus gros consommateurs de viande au monde. Cette réalité peut sembler surprenante. D’abord, parce que le nombre de flexitariens augmente. Ensuite, parce que les enjeux sanitaires dûs à une consommation excessive de viande ne sont plus ignorés. Enfin, parce que cette habitude semble relativement nouvelle.
Comme le rapportent les historiens de l’alimentation, la tradition culinaire française s’est longtemps appuyée sur les céréales, sur les légumes secs et sur les soupes, la viande restant réservée aux grandes occasions. Nous en consommons en moyenne deux fois plus aujourd’hui qu’en 1920.
Dès lors, comment comprendre cet attachement à la viande, alors même que les discours écologiques se multiplient et que sa consommation diminue en moyenne en France ? Selon les données récentes du ministère de l’agriculture et de la souveraineté alimentaire, cette baisse s’explique en fait davantage par la hausse des prix des produits carnés que par une véritable préoccupation environnementale ou nutritionnelle.
Pour mesurer l’influence encore limitée des politiques publiques sur les pratiques alimentaires, il est particulièrement instructif de pencher sur un objet culturel emblématique : le repas gastronomique des Français, traditionnellement centré sur la viande. Incarnation de l’art de vivre à la française, ce repas structuré et codifié a été inscrit sur la liste du patrimoine culturel immatériel de l’Organisation des Nations unies pour l’éducation, la science et la culture (Unesco) en 2010. Selon la définition de cette dernière, le patrimoine culturel immatériel est
« traditionnel, contemporain et vivant à la fois : il ne comprend pas seulement les traditions héritées du passé, mais également les pratiques rurales et urbaines contemporaines, propres à divers groupes culturels ».
Autrement dit, le repas gastronomique, en tant que pratique vivante, peut lui aussi évoluer face aux enjeux de transition alimentaire.
Cette évolution est d’autant plus nécessaire que la gastronomie joue un rôle central dans la transmission des normes alimentaires. C’est souvent à travers ces repas que les enfants apprennent ce qu’est un « vrai bon repas ».
La définition même du repas gastronomique des Français insiste sur cette fonction éducative :
« Des personnes reconnues comme étant des gastronomes, qui possèdent une connaissance approfondie de la tradition et en préservent la mémoire, veillent à la pratique vivante des rites et contribuent ainsi à leur transmission orale et/ou écrite, aux jeunes générations en particulier. »
Dès lors, la diminution globale de la consommation de viande touche-t-elle également ces repas gastronomiques ? Que transmet-on aujourd’hui, implicitement, lors de ces moments qui continuent de structurer l’apprentissage culinaire des plus jeunes ?
Mariage, communion, anniversaire… dès qu’un événement prend une dimension gastronomique, la viande (et en particulier la viande rouge) reste le point d’orgue du repas. Notre étude des représentations sociales, menée auprès de 424 mangeurs, confirme que la viande occupe une place centrale dans l’imaginaire collectif du repas gastronomique.
Sur le terrain, nous avons également observé plus de 18 000 mangeurs lors de 226 repas de mariage. Les chiffres sont éloquents : plus de deux convives sur trois choisissent une viande rouge, principalement du bœuf, qui, à lui seul, pèse presque autant que toutes les autres options réunies. Le poisson additionné aux plats végétariens ne représentent qu’un dixième des choix, tandis que la volaille et le veau assurent une transition limitée. La demande pour les plats végétariens, l’agneau ou le porc demeure marginale, voire inexistante.
Ces constats soulèvent une question centrale : si les moments symboliques de partage sont systématiquement centrés sur la viande, peut-on réellement transmettre à nos enfants une culture alimentaire plus végétale ?
Bien que les plus jeunes soient sensibilisés aux questions écologiques et qu’ils consomment moins de viande que leurs parents, prescrire un repas végétarien par semaine à la cantine ne suffit pas à optimiser la transition alimentaire.
Il faut transformer durablement les représentations sociales, en agissant notamment sur le noyau central. Celui-ci désigne les éléments cognitifs les plus stables, les plus partagés et les moins questionnés. Ces idées perçues comme évidentes structurent notre manière de penser ce qu’est, par exemple, un « vrai repas ».
Selon la théorie des représentations sociales, agir sur les éléments les plus visibles et les plus partagés permet de modifier en profondeur les ancrages collectifs.
En tant que modèle normatif à forte valeur symbolique, le repas gastronomique constitue donc un levier stratégique. En transformant ce moment d’exception, on peut potentiellement influencer les pratiques du quotidien.
Dès lors, comment végétaliser davantage le menu gastronomique ?
Pour répondre à cette question, nous avons analysé les cartes de 43 restaurants aux positionnements divers, allant du fast-food au restaurant gastronomique. Notre étude fait émerger sept stratégies mobilisées au sein de diverses formules de restauration et directement transposables au repas gastronomique.
L’une des approches consiste à supprimer les produits animaux normalement présents dans la recette, par exemple le chili sin carne, ou d’en proposer une version pescétarienne, par exemple le cassoulet de poisson), afin de préserver un visuel proche du plat original.
Le cuisinier peut aussi utiliser des substituts très proches de la viande en apparence. Certaines marques, comme Redefine Meat, développent des « viandes végétales » appelées new meats, déjà implantées dans des chaînes comme Hippopotamus. Sur le site de Redefine Meat, la rubrique « Trouver un restaurant » illustre le déploiement de ces alternatives végétales.
Dans un cadre gastronomique, l’imitation peut prendre des formes plus artisanales, par exemple la création d’un foie gras végétal à partir de produits bruts.
Ici, l’objectif n’est pas de copier la viande, mais de proposer une expérience culinaire végétarienne esthétique et narrative capable de séduire par son originalité et sa mise en scène. Il s’agit, la plupart du temps, d’une stratégie particulièrement prisée des chefs de la restauration gastronomique.
Des établissements comme Culina Hortus ou des recettes comme le célèbre gargouillou de Michel Bras incarnent l’expérience gastronomique végétale, dans une logique d’auteur, artistique, éthique et sensorielle.
Cette stratégie consiste à puiser dans la mémoire culinaire collective, en mobilisant des hors-d’œuvre ou des accompagnements traditionnellement végétariens, comme plats principaux.
On peut par exemple proposer en guise de plat, des ravioles de Royan par essence végétales, une soupe au pistou ou des légumes rôtis.
Dans cette logique de reconversion, il est aussi question d’inverser la proportion de légumes et de viandes dans une recette, comme chez Datil, restaurant étoilé au guide Michelin, où « l’assiette met en valeur le végétal avant tout (fruits et légumes à égalité), agrémenté d’un soupçon de protéines animales ».
Cette méthode repose sur des options de personnalisation, laissant au client la liberté de composer lui-même un plat végétarien selon ses préférences. Elle s’appuie sur un besoin de flexibilité et d’adaptation aux mangeurs dits « combinatoires ».
Ces derniers naviguent entre différents régimes alimentaires (omnivore, flexitarien, végétarien) et souhaitent ajuster leur choix au gré des occasions. Cette approche est largement développée dans de nombreux modèles de restauration : pizzerias, crêperies, bars à tacos, cafétérias ou chaînes de fast-food comme Subway…
Dans ces formats, les clients peuvent librement sélectionner leurs ingrédients, sans nuire à l’organisation du service.
En restauration gastronomique, on pourrait imaginer un service sur chariot, présentant une sélection d’éléments à combiner soi-même, à l’image du traditionnel plateau de fromages.
Il s’agit d’incorporer des alternatives végétariennes dans un menu traditionnellement carné, sans modifier l’identité globale de la marque ni son positionnement historique.
C’est une approche courante dans des enseignes comme Hard Rock Café, Léon ou La Criée, dans lesquelles les propositions végétariennes existent, mais sont souvent diluées dans la carte.
Elles sont généralement intégrées sans rubrique spécifique ni signalétique particulière, et occupent une place marginale dans l’offre globale. Parfois, ces alternatives ne figurent même pas : le convive peut simplement demander la suppression de la viande ou du poisson dans la recette.
Ce type d’adaptation est également fréquent en restauration gastronomique où les menus sont adaptés selon les régimes des mangeurs.
Mais, selon un constat empirique issu de nos observations de terrain, cette pratique reste souvent insatisfaisante. De nombreux végétariens font état de leur frustration lorsqu’on leur sert uniquement les accompagnements des plats carnés, aboutissant à des assiettes peu équilibrées et perçues comme une solution de second choix.
Cette stratégie consiste à faire du végétal un pilier identitaire de la marque, en l’affichant comme une preuve d’engagement éthique.
Ici, le végétal n’est pas une option marginale : il devient une valeur centrale revendiquée. L’enseigne s’adresse directement aux mangeurs militants, soucieux de l’environnement, de leur santé et du bien-être animal. Il s’agit d’une rupture assumée, marquant une position forte en matière de responsabilité sociale.
Des enseignes comme Cojean illustrent bien cette approche, avec plus de 60 % de leur carte consacrée à des plats végétariens ou végétaliens. On retrouve également des propositions engagées chez Paul, qui communique sur le développement d’une offre végétale.
Certains restaurants gastronomiques se positionnent aujourd’hui avec cette stratégie, comme Culina Hortus ou encore Racines.
« Importer » consiste à proposer une expérience gastronomique complète, codifiée et légitime, mais issue d’une autre culture que la tradition occidentale. Plutôt que de transformer les plats habituels, elle s’appuie sur des cuisines où la place du végétal est historiquement centrale et socialement valorisée.
On retrouve cette approche dans les thalis indiens, les bibimbaps coréens, la cuisine macrobiotique japonaise ou encore les mezzés méditerranéens. Ces modèles offrent des repas complets, structurés et socialement reconnus, sans que la viande en soit nécessairement l’élément principal.
Ils permettent finalement de déléguer la légitimité à une culture alimentaire valorisée, et d’éviter aux mangeurs une dissonance cognitive.
En restauration gastronomique, ces plats importés peuvent être sublimés et laisser libre cours à la créativité des chefs.
Ces sept stratégies ne s’excluent pas : elles peuvent coexister et se combiner au sein d’une même offre, d’un même restaurant, voire d’un même repas gastronomique.
L’imitation, l’expérience, la reconversion, la coproduction, la coexistence, l’engagement et l’importation ne sont pas des chemins parallèles, mais des leviers complémentaires que les chefs et les restaurateurs peuvent mobiliser avec créativité et cohérence.
En mélangeant ces approches, il devient possible d’ancrer progressivement de nouvelles représentations sociales, de végétaliser les pratiques sans brusquer les traditions, et surtout de transmettre aux jeunes générations une autre façon de penser le « vrai bon repas ».
Au-delà des enjeux culturels et environnementaux, la dimension économique mérite aussi d’être soulignée. Pour les chefs engagés, l’offre végétale peut devenir un signe distinctif et renforcer leur image auprès d’un public soucieux d’éthique, de nutrition et d’environnement. Pour les grandes enseignes, elle représente un levier de différenciation commerciale et un moyen d’attirer une clientèle plus large.
Enfin, dans un contexte où la viande reste coûteuse, la rentabilité des plats peut être améliorée sans perte de qualité, grâce à l’acte culinaire du chef, qui mobilise son savoir-faire pour valoriser les ingrédients végétaux. Dans les écoles hôtelières, inspecteurs, proviseurs et enseignants, sensibles à la végétalisation, conduisent déjà des actions de formation, organisent des événements et réforment les programmes pour accompagner cette transition.
Bruno Cardinale ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
12.09.2025 à 15:06
Sabine Ruaud, Professeur de marketing, EDHEC Business School
Rose K. Bideaux, Chercheur·e en arts et en études de genre, Université Paris 8 – Vincennes Saint-Denis
Chaque époque a ses couleurs emblématiques : les pastels rassurants des boomers, le rose poudré des milléniaux, le jaune éclatant et le vert tape-à-l’œil de la Gen Z. Reflets d’émotions collectives et de tendances sociétales, ces teintes en disent souvent plus long que de simples effets de mode.
Chaque génération semble s’approprier certaines teintes, mais il serait réducteur d’y voir une donnée biologique ou universelle. Si la couleur est l’effet visuel résultant de la composition spectrale de la lumière qui est envoyée, transmise ou réfléchie par des objets, la façon dont on l’envisage est avant tout une construction sociale et culturelle qui reflète les mœurs, les évolutions idéologiques et les influences médiatiques d’une époque.
En effet, comme l’a commenté Michel Pastoureau, ce n’est pas la nature qui fait les couleurs ni même l’œil ou le cerveau, mais la société qui leur attribue des significations variables selon les époques. Elles deviennent ainsi des témoins privilégiés des mutations de chaque décennie.
Dans un chapitre récemment publié, « La couleur, marqueur créatif générationnel ? », nous nous sommes intéressés à la façon dont les générations successives se caractérisent par un ensemble de valeurs, de croyances et de comportements qui se manifestent visuellement, notamment à travers des couleurs qui leur sont propres.
Ainsi, la segmentation par générations – boomers, générations X, Y, Z, Alpha – permet d’observer des affinités chromatiques qui ne relèvent pas seulement du goût individuel, mais d’un rapport collectif au temps, aux aspirations et aux codes esthétiques dominants.
Les boomers (nés entre la fin de la Seconde Guerre mondiale et le milieu des années 1960) et la génération X (née entre 1965 et 1980) se caractérisent par une préférence pour des palettes dites traditionnelles, dominées par des tons neutres et pastels auxquels s’ajoutent, à partir des années 1970, des couleurs inspirées de la nature comme les verts, les bruns et les rouges terreux.
La génération Y, ou les millennials (en français les milléniaux ; nés entre 1980 et le milieu des années 1990), a quant à elle été marquée par l’émergence d’un rose emblématique, le « millennial Pink ». Plus qu’une simple teinte, ce rose pâle s’est imposé dans les années 2010 comme un symbole de légèreté, d’optimisme et surtout de remise en question des codes de genre.
Pour la génération Z (née entre 1995 et 2010), c’est d’abord un jaune vif, le « Gen-Z Yellow », qui s’est imposé, au tournant de 2018, en contraste avec le rose singulier de ses aînés. Rapidement, le violet est venu compléter cette palette, couleur historiquement liée au pouvoir, à la créativité et aux luttes féministes et, désormais, associée à l’expression de soi et à l’inclusivité. Plus récemment, le vert a gagné en importance : d’un côté, comme couleur associée aux enjeux écologiques, fréquemment mobilisée et récupérée dans le champ politique ; de l’autre, comme tendance numérique et provocante, le « Brat Green », popularisé, en 2024, par la chanteuse britannique Charli XCX.
La génération Alpha, encore en formation, oscille pour sa part entre un attrait pour les tons naturels et réconfortants et une exposition précoce aux couleurs franches et artificielles de l’univers digital.
Si ces repères générationnels sont séduisants, il est essentiel de ne pas les figer. Les couleurs ne se laissent pas réduire à des étiquettes fixes : elles vivent, elles circulent, elles se réinventent. Elles reviennent parfois de manière cyclique, à l’image de la mode, et se rechargent de nouvelles significations. C’est ce qui rend la couleur si puissante dans la communication. Elle permet d’ancrer une marque dans son époque tout en laissant place à la réinterprétation.
L’actualité chromatique de 2024–2025 en témoigne. À côté du vert néon insolent de l’album à succès Brat, de Charli XCX, l’entreprise Pantone a choisi « Mocha Mousse » comme couleur de l’année 2025, un brun cosy, gourmand et enveloppant qui traduit le besoin collectif de réassurance et d’ancrage. Le contraste entre ces deux signaux, l’un pop et ironique, l’autre discret et rassurant, illustre parfaitement la tension contemporaine entre exubérance et quête de stabilité.
Les recherches en marketing montrent, par ailleurs, que l’impact des couleurs ne réside pas seulement dans la teinte elle-même, mais aussi dans la manière dont elle est nommée.
Le « color naming » a un effet direct sur la préférence et l’intention d’achat : un nom de produit évocateur, poétique ou humoristique génère davantage d’engagement qu’un terme générique. Ce phénomène, encore peu documenté, rappelle aux marques que les mots façonnent autant que les couleurs la perception des produits. L’excès d’humour peut toutefois brouiller la mémorisation de la marque, d’où la nécessité d’un dosage subtil
Pour les entreprises, l’enjeu est donc double. Il s’agit, d’une part, de comprendre les codes chromatiques ponctuels qui circulent dans une génération donnée, afin de parler un langage immédiatement perceptible, et, d’autre part, de créer un système de couleurs qui reste cohérent et durable dans le temps.
Parler de « couleurs de génération » reste un outil utile de décryptage, mais uniquement si l’on accepte sa plasticité. Pour chaque génération, la couleur est une passeuse de messages, un support de signes tacites ou exprimés de toutes sortes, un témoin clé dont les nuances suscitent des émotions, véhiculent des significations et procurent des expériences variées.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
12.09.2025 à 11:53
Damien Lecomte, Chercheur associé en sciences politiques, Université Paris 1 Panthéon-Sorbonne
Dans les démocraties parlementaires européennes, des négociations – souvent longues – permettent la formation de coalitions gouvernementales fonctionnelles. En France, alors que le « bloc central » n’est pas majoritaire au Parlement, le nouveau premier ministre Sébastien Lecornu pourrait-il s’inspirer des pratiques éprouvées en Allemagne, en Belgique ou en Espagne, pour éviter l’échec de ses prédécesseurs ?
La nomination du troisième premier ministre proche d’Emmanuel Macron en à peine plus d’un an peut donner l’impression de poursuivre la même stratégie mise en échec par deux fois. En effet, ses orientations politiques et sa future coalition semblent, a priori, les mêmes que celles de Michel Barnier et de François Bayrou. Pourtant, un élément retient l’attention : Emmanuel Macron a chargé Sébastien Lecornu de « consulter les forces politiques représentées au Parlement en vue d’adopter un budget et [de] bâtir les accords indispensables aux décisions des prochains mois » avant de lui « proposer un gouvernement ». Cette démarche augure-t-elle une inflexion notable, tant sur le fond que sur la forme, et un mode de gouvernance se rapprochant des pratiques en vigueur dans les régimes parlementaires européens ?
Après des législatives, dans les régimes dits « parlementaires » ou dans les « démocraties de consensus », les forces politiques consacrent souvent un temps important à négocier, dans l’objectif de conclure un accord, voire un contrat de gouvernement et de législature. Dans la célèbre classification d’Arend Lijphart, ce dernier distingue les « démocraties de consensus » des « démocraties majoritaires » où le pouvoir est concentré dans une simple majorité, voire un seul parti et son chef, cas fréquent dans le modèle de Westminster (inspiré du Royaume-Uni, ndlr). Les « démocraties de consensus » sont celles où, par le mode de scrutin, par le système partisan et par la culture politique, des familles politiques aux orientations et intérêts parfois éloignés sont contraintes de se partager le pouvoir.
Les modalités de formation des gouvernements de coalition et des contrats de législature varient selon les pays et leurs propres traditions et systèmes partisans. Mais le principe central demeure le même : lorsqu’aucun parti ni aucune coalition préélectorale n’obtient de majorité suffisante pour prétendre gouverner, les forces parlementaires négocient un accord de compromis. Ce dernier comporte souvent deux aspects. D’une part, la répartition des postes ministériels, d’autre part, une base minimale de politiques publiques à mener – y compris pour obtenir un soutien sans participation ou une non-censure de la part des groupes qui n’entrent pas au gouvernement.
De telles négociations ont le défaut d’être souvent très longues – des semaines, voire des mois –, et parfois de passer par plusieurs échecs avant d’aboutir à un compromis à l’équilibre délicat. Toutefois, lorsque ce compromis est trouvé, il peut permettre une relative stabilité pendant plusieurs années, et a l’avantage de réunir des parlementaires qui représentent une majorité effective de l’électorat – tandis que les gouvernements français s’appuient sur un soutien populaire de plus en plus étroit.
L’Allemagne est prise en exemple pour sa tradition de coalitions. Celles-ci sont négociées pendant des semaines, formalisées dans des contrats prévoyant des politiques gouvernementales précises pour la durée du mandat. Après les élections fédérales du 26 septembre 2021, il a fallu attendre deux mois pour que soit signé un contrat de coalition inédite entre trois partis – sociaux-démocrates, écologistes et libéraux. En 2025, après les élections du 23 février, l’accord pour une nouvelle grande coalition entre conservateurs et socialistes n’est conclu que le 9 avril.
La période de discussion entre partis politiques représentés au Parlement peut même être encore plus longue. Le cas est fréquent en Belgique, où les divisions régionales et linguistiques s’ajoutent à la fragmentation partisane. Près de huit mois se sont ainsi écoulés entre l’élection de la Chambre des représentants, le 9 juin 2024, et la formation du nouveau gouvernement, entré en fonctions le 3 février 2025, composé de la « coalition Arizona » entre chrétiens-démocrates, socialistes, nationalistes flamands et libéraux wallons.
Les procédures sont largement routinisées. Après chaque scrutin fédéral, le roi des Belges nomme un « formateur » chargé de mener les consultations et négociations nécessaires pour trouver une majorité fonctionnelle pour gouverner. En cas de succès, le « formateur » devient alors le premier ministre. L’identification du formateur le plus susceptible de réussir sa mission est une prérogative non négligeable du souverain.
Lorsqu’un régime politique se heurte à une configuration partisane et parlementaire inédite, il arrive que l’adaptation à cette nouvelle donne prenne du temps. L’Espagne offre cet exemple. Après les élections générales d’avril 2019, aucune majorité claire ne s’est dégagée et Pedro Sanchez, président du gouvernement sortant et chef du Parti socialiste arrivé en tête, a d’abord voulu conserver un gouvernement minoritaire et uniquement socialiste. Ce n’est qu’après deux échecs lors de votes d’investiture en juillet, puis une dissolution et de nouvelles élections en novembre, que le Parti socialiste et Podemos se sont finalement mis d’accord sur un contrat de coalition pour un gouvernement formé en janvier 2020 – première coalition gouvernementale en Espagne depuis la fin de la IIe République (1931-1939).
Un élément notable de ces pratiques parlementaires est que l’identification du camp politique et du candidat en mesure de rassembler une majorité n’est pas toujours immédiatement évidente, et qu’un premier échec peut se produire avant de devoir changer d’option. Ainsi, en août 2023, toujours en Espagne, lorsque le roi a d’abord proposé la présidence du gouvernement au chef du Parti populaire (droite espagnole), arrivé en tête des élections de juillet. Ce n’est qu’après l’échec du vote d’investiture de ce dernier que Pedro Sanchez a pu à nouveau tenter sa chance. Grâce à un accord de coalition avec la gauche radicale Sumar et un accord de soutien sans participation avec les partis indépendantistes catalans et basques, il a finalement été réinvesti président du gouvernement.
Au regard des pratiques dans les régimes parlementaires européens habitués aux hémicycles très fragmentés et sans majorité évidente, la France n’a pas su, jusqu’ici, gérer la législature ouverte par la dissolution de juin 2024. Le temps record (pour la France) passé entre l’élection de l’Assemblée nationale et la formation d’un gouvernement n’a pas été mis à profit.
Ainsi, malgré les consultations menées par le président Macron pour former le gouvernement, la coalition du « socle commun » entre le « bloc central » et le parti Les Républicains (LR), base des gouvernements Barnier et Bayrou, n’a fait l’objet d’aucune négociation préalable ni d’aucune sorte de contrat de législature. De même, les concessions faites par François Bayrou aux socialistes pour éviter la censure du budget 2025 n’ont pas donné lieu à un partenariat formalisé, et les relations se sont rapidement rompues.
En confiant à son nouveau chef de gouvernement, Sébastien Lecornu, la charge de mener les consultations pour « bâtir les accords indispensables », le président Macron semble avoir acté qu’il n’était pas en position de le faire lui-même. Reste que le premier ministre devra montrer, pour durer, une capacité à obtenir des accords et des compromis supérieure à celle de ses deux prédécesseurs – et pour cela, une volonté d’infléchir la politique gouvernementale.
Pour former son gouvernement, Sébastien Lecornu se tournera à l’évidence vers la reconduction du « socle commun » entre la macronie et le parti LR, lui qui est membre de la première et issu du second. Mais si la coalition gouvernementale est la même, le premier ministre peut innover en parvenant à un accord formel de non-censure avec au moins l’un des groupes d’opposition. Un tel accord devrait porter sur le budget 2026 et s’accompagner d’un engagement à laisser faire la délibération parlementaire sur chaque texte, en échange de l’absence de censure.
Sébastien Lecornu peut certes essayer de trouver son salut dans la tolérance de l’extrême droite, comme Michel Barnier l’a lui-même tenté à ses risques et périls. La détermination du Rassemblement national (RN) à obtenir une dissolution rend cet interlocuteur imprévisible. Si le premier ministre devait chercher la non-censure d’une partie de la gauche, alors il devrait pour cela leur faire des concessions substantielles. Car les socialistes estiment avoir été maltraités par François Bayrou malgré leur ouverture à la discussion, et risquent d’être moins enclins à faire un pas vers le gouvernement.
Une inflexion de la politique gouvernementale apte à trouver une majorité de compromis avec la gauche (solution par ailleurs plus conforme au front républicain des législatives de 2024) nécessiterait des avancés sur la taxation des plus riches, sur la réforme des retraites, sur les aides sans contrepartie aux entreprises ou sur la modération de l’effort budgétaire demandé aux ménages. Avec aussi l’impératif de faire accepter ces concessions aux membres du « socle commun » !
Le nouveau premier ministre a promis des « ruptures » tant sur la méthode que sur le fond et a donné des signaux en ce sens, avec la réouverture du débat sur les retraites. Des voix se font entendre, y compris parmi les LR, pour accepter l’idée d’une contribution des plus grandes fortunes à l’effort budgétaire. Si Sébastien Lecornu parvient effectivement à s’émanciper du bilan qu’Emmanuel Macron a, jusqu’ici, voulu défendre à tout prix, alors son gouvernement pourrait durer. Mais faute d’un vrai changement de fond de la politique gouvernementale, le changement de méthode risque de ne pas suffire à le préserver du sort de ses deux prédécesseurs.
Damien Lecomte ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
11.09.2025 à 22:51
Jérôme Viala-Gaudefroy, Spécialiste de la politique américaine, Sciences Po
« Du fait de cet acte de haine, la voix de Charlie est devenue plus grande et sera plus entendue que jamais auparavant. » C’est par ces mots que Donald Trump a conclu son intervention de quatre minutes consacrée à l’assassinat, ce 10 septembre, de Charlie Kirk, 31 ans, en plein discours pendant sa tournée « American Comeback Tour », sur le campus de l’université d’Utah Valley, à Orem, dans l’État de l’Utah. Qui était Charlie Kirk (dont l’assassin n’a toujours pas été arrêté au moment de la publication de cet entretien) ? Comment son influence se déployait-elle ? Que dit son assassinat du climat actuel aux États-Unis ? Et quelles pourraient en être les conséquences ? Ce sont les questions que nous avons posées à Jérôme Viala-Gaudefroy, spécialiste de la politique américaine et de la rhétorique des présidents des États-Unis.
Quelle était la place de Charlie Kirk au sein de la galaxie trumpiste ?
C’était avant tout – mais pas exclusivement, tant s’en faut – l’un des principaux porte-voix de Donald Trump auprès de la jeunesse. S’il a été assassiné à un âge très jeune, cela faisait déjà longtemps qu’il était bien connu des Américains.
En 2012, avant même d’avoir vingt ans, au moment où Barack Obama était en train d’achever son premier mandat et s’apprêtait à effectuer son second, il avait créé Turning Point USA, une organisation destinée à rassembler les étudiants conservateurs, et qui a rapidement obtenu les faveurs de nombreux riches donateurs. Kirk n’a pas terminé ses études ; il s’est lancé à corps perdu dans la politique. Les financements de TPUSA, dont Kirk est resté le président jusqu’à sa mort, n’ont cessé de croître au cours des années suivantes et l’organisation a pris une grande ampleur, cherchant notamment, à travers son programme « Professor Watchlist », à répertorier et à dénoncer les enseignants universitaires jugés trop à gauche.
Kirk a été repéré par les trumpistes et, s’il n’était au départ pas convaincu par le milliardaire new-yorkais (il était plutôt proche du Tea Party), il s’est vite totalement fondu dans son mouvement, se rapprochant nettement de son fils, Donald Trump Junior, et participant activement aux campagnes de 2016, 2020 et bien sûr 2024.
Il a joué un rôle non négligeable dans la victoire de Trump contre Kamala Harris, notamment grâce au succès de ses nombreuses tournées sur les campus, où il aimait à polémiquer publiquement avec des étudiants aux idées contraires aux siennes. Il faut d’ailleurs lui reconnaître un certain courage : il n’a jamais hésité à aller se confronter au camp opposé. Et comme il avait indéniablement un grand sens de la répartie et savait très bien mettre ses adversaires en colère et les cueillir d’une petite phrase bien sentie, ses duels oratoires ont donné lieu à de nombreuses vidéos virales qui ont eu un grand succès sur le Net parmi les jeunes de droite et, aussi, auprès de certains qui s’interrogeaient encore.
Au-delà de ces tournées, ses messages — diffusés par de nombreux moyens, mais avant tout par le biais de son très populaire podcast, le « Charlie Kirk Show » — ont eu un impact indéniable sur une jeunesse conservatrice qui se sentait souvent en minorité dans le monde universitaire.
Un peu comme les militants de la campagne Obama de 2008, il a consacré une grande partie de ses efforts à convaincre les jeunes qui n’étaient pas inscrits sur les listes électorales à s’enregistrer – et donc à voter Trump. Et une fois la victoire de Trump obtenue en novembre 2024, il a continué à soutenir sans relâche le président. Comme une partie considérable du mouvement MAGA, il a un peu fait la moue quand Trump a déclaré que le dossier Epstein — dont ses partisans attendaient qu’il en révèle le contenu, supposément explosif pour les démocrates — était vide. Mais il s’est vite rangé derrière le président sur ce point.
Sur le fond, son positionnement était assez classique au sein du monde trumpiste : ultra-conservatisme sur les questions sociétales (dénonciation des lois favorables aux personnes LGBT et de l’affirmative action, assimilation de l’avortement à un meurtre), religiosité portée en bandoulière (il était un fervent chrétien évangélique), hostilité assumée à l’immigration (systématiquement comparée à une invasion) et à l’islam, climato-scepticisme, rejet des mesures sanitaires prises pour endiguer la pandémie de Covid-19, grande perméabilité à diverses thèses complotistes, refus de la moindre entrave au port d’armes, alignement sur Israël, mansuétude voire sympathie à l’égard de Vladimir Poutine, etc.
Sur la forme, il avait été très inspiré par Rush Limbaugh, le fameux animateur de radio de droite radicale, très influent durant plusieurs décennies passés, volontiers clivant et provocateur, et à qui il a rendu un hommage appuyé quand ce dernier est décédé en 2021.
Dans sa réaction postée peu après l’annonce de la mort de Kirk, Donald Trump n’a pas hésité à en imputer la responsabilité à la gauche radicale, et à rapprocher ce qui venait de se produire non seulement de la tentative d’assassinat qui l’avait visé lui-même le 13 juillet dernier, mais aussi de celle commise contre l’élu républicain Steve Scalise en 2017 et, peut-être plus inattendu, de l’assassinat du PDG de UnitedHealthcare Brian Thompson à New York en décembre dernier, et des actes de violence à l’encontre de certains agents de ses services de lutte contre l’immigration illégale (ICE) lorsque ceux-ci arrêtent des migrants supposément clandestins…
Il a parlé de ces actes de violence-là, mais il n’a pas évoqué le tout récent meurtre d’une élue démocrate du Minnesota et de son époux par un homme qui avait sur lui une liste d’élus démocrates à abattre.
Trump présente l’assassinat de Kirk non pas comme le produit de l’ambiance détestable que l’on perçoit aujourd’hui dans le monde politique des États-Unis, et dont les représentants de tous les bords politiques sont les cibles de façon récurrente, mais uniquement comme la traduction en actes concrets des discours virulents dont les trumpistes font l’objet de la part de leurs adversaires – militants politiques et médias « mainstream » confondus. Ce faisant, et comme il fallait s’y attendre de sa part, il élude totalement sa propre responsabilité dans la déréliction de ce climat politique.
À lire aussi : Donald Trump à l’assaut des médias publics aux États-Unis
Trump n’est évidemment pas le premier politicien du pays à tenir un discours très agressif à l’encontre de ses opposants, mais jamais un président ne s’était exprimé comme il le fait chaque jour, avec une violence verbale constante encore soulignée par ses postures martiales et son recours récurrent aux messages en majuscules sur les réseaux sociaux. Cette manière de s’exprimer a largement infusé le débat public – cela dans le contexte de l’explosion des réseaux sociaux, propices comme chacun sait à la mise en avant des messages les plus virulents.
À lire aussi : Les mots de Trump : les ressorts d’une rhétorique efficace
Les partisans de Trump, qu’il s’agisse de dirigeants politiques de premier plan ou d’éditorialistes de droite dure, rivalisent donc de formules à l’emporte-pièce. On l’a encore vu ces dernières heures après la mort de Kirk, quand des personnalités comme Elon Musk, Laura Loomer, Steve Bannon et bien d’autres ont appelé à la vengeance et dénoncé non seulement la gauche radicale mais aussi la gauche dans son ensemble, Musk tweetant par exemple que « la gauche est le parti du meurtre » – soulignons à cet égard que les trois anciens présidents démocrates toujours en vie, à savoir Bill Clinton, Barack Obama et Joe Biden, ont tous trois condamné avec la plus grande fermeté l’assassinat de Kirk, et que des leaders de la gauche du Parti démocrate comme Bernie Saunders, Alexandria Ocasio-Cortez ou encore Zohran Mamdani en ont fait de même.
Pour autant, et même si aucune personnalité de premier plan ne s’est réjouie de la mort de Kirk, la gauche n’est évidemment pas immunisée contre ce durcissement, cette radicalisation du discours, cette trumpisation du discours en fait, qu’on observe parfois sous une forme ironique, comme quand le gouverneur de Californie, Gavin Newsom, reprend les codes de communication de Trump, mais qui prend aussi, sur les réseaux et dans certaines manifestations, des tonalités extrêmement agressives. Ce n’est d’ailleurs pas un hasard si Trump a mentionné le meurtre de Brian Thompson par Luigi Mangione, un meurtre que certaines voix se revendiquant de la gauche radicale ont salué.
À lire aussi : Luigi Mangione, accusé d’assassinat et glorifié sur Internet : ce que cette affaire dit des États-Unis
Les trumpistes ont beau jeu de se scandaliser des formules les plus excessives du camp d’en face, assimilé à une meute violente ; les adversaires de Trump, sous l’effet de cette intensification des débats, répondent avec encore plus de virulence ; c’est un cercle vicieux qui imprègne les esprits. Et bien qu’on ne sache rien à cette heure de l’identité du tireur, il faut souligner que cette hystérisation, cette colère mutuelle, a nécessairement des effets sur le grand public, y compris sur les nombreuses personnes ayant des problèmes psychiatriques et susceptibles de passer à l’acte – l’homme qui a essayé de tuer Trump en juillet dernier avait d’ailleurs ce profil.
Tout cela a des traductions très concrètes. L’année dernière, une étude du Brennan Center a montré que le nombre de menaces visant des personnalités politiques, locales ou nationales, avait triplé entre 2017 et 2024. Les élus, mais aussi les militants politiques, à tous les niveaux, ainsi que les juges, ont peur. Entre 2020 et 2024, 92 % des élus ont pris des mesures de sécurité supplémentaires pour réduire les risques pesant contre eux-mêmes et contre les processus électoraux. Le climat est plus délétère que jamais.
Le contexte que vous décrivez est d’autant plus crispé que Donald Trump est actuellement dans une confrontation ouverte avec plusieurs villes et États dirigés par des démocrates, où il fait intervenir l’armée afin de mener à bien ses procédures d’expulsion, et aussi en tension maximale avec de nombreux juges de divers niveaux, jusqu’à la Cour suprême, du fait de ses tentatives de s’arroger toujours plus de prérogatives. Au vu des appels à durcir le ton face à la gauche venus du camp républicain, est-il envisageable que la mort de Kirk soit le prétexte invoqué pour adopter de nouveaux décrets qui donneraient au président encore plus de pouvoir ?
C’est loin d’être impossible. Trump a du mal à faire passer de nouvelles lois – il faut pour cela disposer de 60 sièges au Sénat, ce qui n’est pas le cas. Mais il use et abuse des décrets présidentiels. Ceux-ci peuvent être contestés en justice, mais en attendant, il les met en application. Il est déjà tourné vers les élections de mi-mandat qui auront lieu dans un an, et il peut instrumentaliser ce meurtre pour, par exemple, au nom de la supposée menace exceptionnelle que la gauche fait peser sur le pays, interdire des manifestations, arrêter des gens encore plus facilement qu’aujourd’hui, les menacer de peines sévères en cas de résistance à la police, et ainsi de suite. La présence de militaires dans certaines villes, de ce point de vue, n’a pas grand-chose de rassurant.
Charlie Kirk aura alors en quelque sorte autant servi les projets de Trump dans sa mort que dans sa vie…
Tout assassinat est un drame, et quoi qu’on puisse penser des idées de Kirk, et bien que lui-même disait mépriser le sentiment d’empathie, cet assassinat-là n’échappe évidemment pas à la règle. Mais effectivement, ce ne serait pas la première fois qu’un pouvoir radical utiliserait le meurtre de l’un de ses partisans pour justifier son propre durcissement, le renforcement de ses prérogatives et sa répression à l’encontre de ses adversaires politiques.
Ce qui est sûr, c'est que Trump ne lésine pas sur les symboles. La Maison Blanche a ordonné que, en sa mémoire, les drapeaux soient mis en berne dans tout le pays, ainsi que dans les ambassades ou encore sur les navires en mer. Avec Kirk, le trumpisme tient un martyr — c’est le mot de Trump, qui l’a qualifié de « martyr de la liberté » — parfait. L’homme était une sorte d’idéal-type du trumpisme : jeune, beau, blanc, charismatique, marié, deux enfants, self-made man, ultra-patriote, chrétien très pratiquant…
Quand Trump dit que le nom de Charlie Kirk ne sera pas oublié de sitôt, il dit sans doute vrai : lui-même et l’ensemble du monde MAGA avaient déjà leur image héroïque avec cette photo impressionnante du 13 juillet sur laquelle Trump, ensanglanté, brandit le poing après le tir qui a failli lui coûter la vie. Il est fort à parier que l’image de Charlie Kirk parlant au pupitre quelques instants avant d’être tué rejoindra cette photo iconique au panthéon du trumpisme…
Propos recueillis par Grégory Rayko
Jérôme Viala-Gaudefroy ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
11.09.2025 à 17:20
Bérénice Hamidi, Professeure en esthétiques et politiques des arts vivants, Université Lumière Lyon 2
Le mouvement international #MeToo de lutte contre les violences sexuelles et sexistes a, en quelques années, mis en évidence le poids et l'enracinement historique des dominations exercées sur les femmes dans la société moderne. Que signifie l’expression « culture du viol » apparue dès lors dans l’espace public pour en rendre compte ? Quelle réalité traduit-elle ?
Depuis #MeToo, on commence à reconnaître le caractère massif et structurel des violences sexuelles et sexistes. Mais il reste à percer un mystère : pourquoi sont-elles si omniprésentes dans nos sociétés ? C’est ce que vise à comprendre l’expression « culture du viol », qui a émergé dans le débat public, mais qui est souvent mal comprise et semble donc exagérée à beaucoup, qui rétorquent :
« Mais enfin, nous ne vivons pas dans une société qui promeut le viol ! Tous les hommes ne sont pas des violeurs ! »
C’est vrai. Mais l’expression « culture du viol » vise à analyser une réalité bien plus diffuse et dérangeante. La notion a été élaborée dans les années 1970 aux États-Unis par des sociologues féministes pour saisir un point aveugle de notre organisation sociale. Elle désigne à la fois une contradiction puissante et la stratégie collective de défense qui nous permet de faire avec.
Quand on pense au mot « viol », on a en tête une scène bien identifiée : l’agression sauvage d’une femme, jeune et jolie et court vêtue, au fond d’un parking, par un inconnu armé et dangereux. Cette image nous repousse… mais elle nous rassure aussi. Car elle est aux antipodes de la réalité statistique des violences sexuelles et sexistes (VSS).
Dans la vie réelle, les agressions sont avant tout commises par des proches, et n’impliquent donc que rarement une violence déchaînée, mais plutôt d’autres formes de contrainte moins visibles (économique, affective, psychologique, etc.).
Et ce n’est pas un hasard si notre image type du viol nous empêche de voir en face la réalité des violences sexistes et sexuelles. Elle est faite pour ça, pour nous empêcher de voir ou plutôt nous permettre de ne pas voir. Et pour rendre ainsi supportable le gouffre qui sépare, d’un côté, les valeurs d’une société démocratique moderne qui se veut acquise à l’égalité femmes/hommes ; d’un autre côté, ou plutôt en dessous de cette surface lisse et valorisante, un imaginaire collectif bien plus sombre. Lequel nourrit encore nos normes et nos institutions et continue à invisibiliser, normaliser et érotiser des formes d’asymétrie, de domination et de violences exercées par le groupe social des hommes.
C’est cela, la culture du viol. Dans mon essai le Viol, notre culture (2025), j’interroge spécifiquement la responsabilité des productions culturelles dans sa perpétuation. Si le fait d’associer le mot « culture », qui évoque les arts, le savoir, le raffinement, à celui de « viol » choque nos oreilles et notre sensibilité, il n’en reste pas moins que, selon moi, la culture du viol est un problème indissolublement politique et esthétique. Car les abus sexuels sont toujours aussi des abus de langage et impliquent une déformation de nos perceptions.
Les professionnels de la prise en charge des auteurs de violences sexistes et sexuelles ont repéré une stratégie de défense, à la fois psychique et rhétorique, récurrente chez les personnes qui commettent ces violences, résumée par l’acronyme anglo-saxon « DARVO » pour :
Mais, à vrai dire, cette stratégie de défense largement inconsciente n’est pas seulement le fait des personnes qui commettent des violences, elle est partagée par beaucoup d’entre nous. Il faut dire que voir les violences et croire les personnes qui les dénoncent, impliquerait d’agir. Or, cela a un coût : se mettre à dos une personne qui a quasiment toujours plus de pouvoir que ses victimes – car, autre idée reçue, les VSS ne sont pas une question de pulsion sexuelle, mais de domination.
Au tribunal, comme au café du coin, aujourd’hui encore, on croit beaucoup plus les hommes que les femmes (ou les enfants), et la priorité demeure la réputation des premiers plus que la vie des secondes.
Il est une autre notion clé sur laquelle s’accordent les experts des VSS, mais qui passe encore mal dans le débat public, parce qu’elle implique la remise en cause de comportements beaucoup plus fréquents et banalisés que les agressions les plus graves : la notion de continuum. C’est qu’il est difficile d’admettre que, de la blague sexiste au viol ou au féminicide, il existe une différence de degré, bien sûr, mais pas de nature.
Ces mécanismes et ces systèmes de valeur, nous les absorbons par le biais de nos récits collectifs et notamment des représentations culturelles, qui jouent ainsi un rôle important dans la perpétuation de cette culture du viol. Elles façonnent nos manières de sentir, de percevoir et d’interpréter ce qui nous arrive et beaucoup (trop souvent) nous apprennent à douter de nos perceptions en matière de violences sexistes et sexuelles.
Certains veulent croire que cette culture du viol serait limitée à certaines époques – le « monde d’avant », situé quelque part entre l’Ancien Régime et les années 1970 – ou à certains genres de productions culturelles – le rap ou la pop culture. C’est faux. Elle traverse toutes les époques, tous les arts et tous les styles. On la retrouve dans les grands classiques de la littérature d’hier comme dans la culture légitime d’aujourd’hui.
De Blanche-Neige et les Sept nains (1937), dont on retient que l’héroïne de conte de fées est sauvée par son prince charmant en oubliant qu’il l’a embrassée sans son consentement, jusqu’aux comédies romantiques comme Love Actually (2003), où le harcèlement est sublimé en preuve d’amour, l’histoire des arts et du divertissement regorge d’images où les viols, les féminicides et d’autres formes d’abus plus ou moins graves se cachent sous le désir brûlant ou sous la passion amoureuse. Elle nourrit en chacun de nous un imaginaire saturé par le male gaze, autre notion clé pour comprendre comment opère la culture du viol.
Contrairement à ce que l’expression pourrait laisser croire, ce regard prédateur n’est pas tant un regard masculin que masculiniste et misogyne. Il réduit en effet les personnages de femmes à des corps, et ces corps à des objets de désir et même à des proies à chasser. La culture du viol passe par ce regard qui opère sur plusieurs plans :
L’image (la caméra qui déshabille l’actrice).
Le récit (le plus souvent construit selon des scripts sexuels et relationnels où l’homme jouit de conquérir du terrain et de faire céder sa partenaire, laquelle se trouve comblée de se soumettre à ce désir insistant plutôt que d’écouter le sien).
Le mode de narration et d’énonciation, soit le point de vue qui nous est présenté à la fois comme digne de confiance et comme universel dans les œuvres, puisque c’est celui depuis lequel le monde et les personnages sont regardés. C’est l’outil le plus puissant pour nous faire incorporer le male gaze, car il implique que l’on s’identifie tous et toutes à ce regard masculin, qu’il nous profite ou non.
C’est ce qui explique l’empathie différenciée pour ce point de vue masculin (l’himpathy, selon la philosophe Kate Manne) de l’empathie pour celles qui subissent ces assauts – non seulement dans les fictions mais aussi dans la vraie vie. Ce que nous enseignent les œuvres qui relèvent de la culture du viol, c’est, in fine, de voir le monde dans la version de l’agresseur. Et cet apprentissage est d’autant plus efficace que les stratégies esthétiques sont diverses. J’en ai repéré trois principales.
La première stratégie consiste à assumer fièrement la violence misogyne. C’est ce qu’on voit par exemple dans certaines chansons de rap d’Orelsan (« Sale Pute » et « Suce ma bite pour la Saint-Valentin » notamment) qui ont donné lieu à des procès intentés par des associations féministes pour « incitation à la haine envers les femmes ». Cette violence décomplexée a de quoi faire peur tant elle s’affiche aujourd’hui dans le discours d’hommes politiques de premier plan à l’échelle internationale (Trump, Erdogan, etc.) aussi bien que sur les réseaux sociaux où les discours masculinistes prolifèrent. Cependant, cette stratégie n’est pas la plus dangereuse pour nos imaginaires. Elle a en effet le mérite d’être claire.
Les deux autres sont bien plus retorses et ancrent d’autant plus la culture du viol qu’elles nous leurrent. Elles maquillent en effet les violences jusqu’à les rendre méconnaissables.
La seconde stratégie consiste à dénoncer le viol… tout en érotisant les violences sexuelles et en les banalisant, les transformant en simple ressort dramatique. Je consacre un chapitre entier au film Irréversible, de Gaspard Noé (2002), exemplaire de cette stratégie.
La troisième, enfin, consiste à maquiller la violence en amour ou en humour. En amour, c’est le féminicide caché du roman Rebecca, de Daphné du Maurier (1938), et de l’adaptation Hitchcock du même nom (1940) ; c’est aussi l’érotisation de la zone grise comme dans la chanson Blurred Line, de Pharrell Williams et Robin Thicke (2013) ; c’est encore le culte des amours toxiques qui a toujours le vent en poupe en 2025, dans les dernières séries de dark romance pour adolescentes ou dans le blockbuster français L’Amour Ouf, de Gilles Lellouche (2024).
En humour, ce sont les grosses blagues qui tachent d’un Jean-Marie Bigard ou d’un Patrick Sébastien, dont la mécanique comique repose intégralement sur les stéréotypes sexistes, ou le rire d’humiliation pratiqué à l’écran, sur les plateaux ou dans la chambre à coucher par le cinéaste culte estampillé « de films d’auteur » Bertrand Blier.
Face à celles et à ceux qui critiquent cette culture du viol, on crie volontiers à la « cancel culture » et à la censure, et on en appelle à la défense de la liberté d’expression.
Sans développer les diverses réponses que j’aborde dans l’essai que j’ai publié, je veux insister ici sur le fait que, pour la plupart de celles et ceux qui dénoncent la culture du viol, il n’est pas question d’interdire les œuvres. Il s’agit tout au contraire, pour les œuvres d’aujourd’hui comme d’hier, d’apprendre à les lire/relire, à les contextualiser et à voir et à nommer les violences, à développer un regard critique qui n’empêche pas l’amour des œuvres, mais permette de les regarder en face, avec lucidité et en rompant avec le déni de ce qu’elles racontent.
L’expression « culture du viol » n’est pas un slogan, mais une grille de lecture qui permet de mieux comprendre comment les productions culturelles participent de la perpétuation d’un imaginaire qui promeut les violences de genre tout en les invisibilisant. Elle invite à un regard nouveau, critique sans être ascétique, sur notre héritage culturel. Elle permet aussi, par contraste, de mettre en lumière les œuvres qui déjouent cette culture du viol aujourd’hui comme hier, et d’explorer les stratégies esthétiques qu’elles déploient pour rendre les violences visibles comme telles, mais aussi pour valoriser d’autres imaginaires érotiques et affectifs fondés sur la liberté, sur l’égalité et sur la réciprocité du désir et du plaisir pour toutes et pour tous.
Bérénice Hamidi a reçu des financements de l'IUF, la MSH Lyon Saint Etienne.
11.09.2025 à 17:19
Dubet François, Professeur des universités émérite, Université de Bordeaux
Dans nos sociétés fondées sur l’égalité des chances, les discriminations sont devenues l’expression centrale de l’injustice. Elles nourrissent à la fois la légitimation des inégalités, le sentiment de mépris et la fragmentation des luttes sociales. Quelle pourrait être la forme de la représentation politique de discriminations individuelles ou collectives toujours plus fractionnées ? Extraits d’un article du sociologue François Dubet, paru dans l’ouvrage collectif l’Universalisme dans la tempête (éditions de l’Aube, 2025), sous la direction de Michel Wieviorka et de Régis Meyran.
Depuis quelques décennies et avec une accélération continue, les discriminations sont devenues l’expérience élémentaire des injustices, le sentiment de mépris une des émotions politiques dominantes. Progressivement, la « vieille » question sociale dérivée des inégalités de conditions de travail et des « rapports de production » semble s’effacer devant celle des discriminations subies par les minorités, y compris celles qui sont majoritaires, comme les femmes. En France, comme dans bien des pays comparables, les débats liés à l’égalité des chances et à la reconnaissance des identités l’emportent parfois sur les conflits de redistribution des richesses qui ont eu longtemps une sorte de monopole des conceptions de la justice.
Si on accepte ce constat, au moins comme une hypothèse, il reste à l’expliquer et en tirer des conséquences politiques en termes de représentations de la justice. Il faut notamment s’interroger sur les mises à l’épreuve des conceptions de la solidarité qui, jusque-là, reposaient sur l’interdépendance des liens « organiques » du travail et de la production, et sur des imaginaires nationaux hiérarchisant des identités et, parfois, les dissolvant dans une nation perçue comme universelle. Sur quels principes et sur quels liens de solidarité pourraient être combattues des discriminations de plus en plus singulières ? Comment reconnaître des identités sans mettre à mal ce que nous avons de commun ?
Le plus sensible des problèmes est celui de la représentation politique de discriminations individuelles ou collectives toujours fractionnées. Dès lors que les individus et les collectifs discriminés ne se sentent pas représentés, ils ont l’impression d’être méprisés, soit parce qu’ils sont invisibles, soit parce qu’ils sont trop visibles, réduits à des stéréotypes et à des stigmates. Personne ne peut véritablement parler pour moi, personne ne me représente en tant que femme, que minorité sexuelle, que musulman, que handicapé, qu’habitant d’un territoire abandonné… On reproche alors aux porte-parole des discriminés d’être autoproclamés pendant que le sentiment de mépris accuse les responsables politiques, mais aussi les médias « officiels », les intellectuels, les experts… Sentiment d’autant plus vif que chacun peut aujourd’hui avoir l’impression d’accéder directement à l’information et à la parole publique par la grâce des réseaux et de la Toile. Avec les inégalités multiples et les discriminations, le sentiment de mépris devient l’émotion politique élémentaire.
Si on avait pu imaginer, ne serait-ce que sous l’horizon d’une utopie, une convergence des luttes des travailleurs et des exploités, celle-ci est beaucoup plus improbable dans l’ordre des inégalités multiples et des discriminations. D’une part, ces dernières sont infinies et « subtiles », d’autre part, le fait d’être discriminé ne garantit pas que l’on ne discrimine pas à son tour. On peut être victime de discriminations tout en discriminant soi-même d’autres groupes et d’autres minorités. Le fait d’être victime du racisme ne protège pas plus du racisme et du sexisme que celui d’être victime de discriminations de genre ne préserve du racisme… Ainsi peut se déployer une concurrence des victimes qui ne concerne pas seulement la mobilisation des mémoires des génocides, des ethnocides et des crimes de masse, mais qui traverse les expériences banales de celles et de ceux qui se sentent inégaux « en tant que ».
De manière plus étonnante, l’extension du règne de l’égalité des chances et des discriminations affecte celles et ceux qui ne peuvent faire valoir aucune discrimination reconnue mais qui, pour autant, ne vivent pas tellement mieux que les discriminés reconnus comme tels. Victimes d’inégalités sociales mais non discriminés, les individus se sentent méprisés et, paradoxalement, discriminés à leur tour : méprisés parce qu’ils seraient tenus pour pleinement responsables de leur situation, discriminés parce qu’ils souffriraient de discriminations invisibles alors que les autres, des discriminés reconnus, seraient aidés et soutenus. Ainsi, les hommes blancs et les « Français de souche » pauvres seraient paradoxalement discriminés parce qu’ils ne peuvent faire valoir aucune discrimination reconnue et parce qu’ils « méritent leur sort » dans l’ordre de l’égalité des chances. Le basculement politique des petits blancs méprisés et « discriminés sans qu’on le sache » est suffisamment spectaculaire aux États-Unis, en Europe et en France pour qu’il ne soit pas nécessaire d’insister : le vote populaire des vaincus des compétitions économiques et scolaires a basculé vers des populismes de droite dénonçant la « disparition » du peuple quand la lecture des inégalités en termes de discriminations semble les avoir effacés.
Si on en croit les individus que nous avons interrogés (François Dubet, Olivier Cousin, Éric Macé, Sandrine Rui) dans Pourquoi moi ? (Seuil, 2013), l’expérience des discriminations conduit vers une double logique de mobilisation, vers deux principes d’action.
Le premier participe pleinement de l’universalisme démocratique affirmant l’égalité des individus et de leurs droits. Il faut donc lutter contre toutes les formes de ségrégation, de stigmatisation et de discrimination, garantir l’équité des procédures et développer la capacité de porter plainte contre le racisme, le sexisme, l’homophobie et toutes les formes de discrimination « à » : à l’emploi, au logement, aux études, aux loisirs, aux contrôles policiers…
En principe, cette logique ne se heurte à aucun obstacle, sinon au fait, disent les individus concernés, qu’elle est difficile à mettre en œuvre. D’abord, il n’est pas toujours facile d’établir la preuve d’une discrimination sans témoignages, sans matérialité incontestable des faits, et la plupart des individus concernés disent renoncer, le « prix » de la plainte étant trop élevé. Ensuite, il existe des obstacles plus subjectifs et plus profonds. Dans la mesure où les discriminations sont des blessures souvent imprévisibles relevant de situations ambiguës, on sait que l’on a été discriminé sans en avoir la preuve, bien des individus ne veulent pas devenir « paranos » et préfèrent faire « comme si ce n’était pas si grave » afin de continuer à vivre plus ou moins « normalement ».
Enfin, beaucoup de personnes que nous avons interrogées ne veulent pas renoncer à leur autonomie et répugnent à se vivre comme des victimes. En fait, si chacun sait qu’il est victime de discriminations, beaucoup répugnent à adopter le statut de victime. On peut donc ne rien ignorer des discriminations, tout en refusant d’être totalement défini par elles. En dépit de ces difficultés, il reste que du point de vue légal et de celui des procédures, la lutte pour l’égalité de traitement et pour l’équité est essentielle et que, dans ce cadre, l’universalisme démocratique et la lutte contre les discriminations vont de pair.
La seconde logique déployée par les acteurs concerne moins les discriminations proprement dites que les stigmatisations. Dans ce cas, les individus réclament un droit à la reconnaissance : ils veulent que les identités au nom desquelles elles et ils sont stigmatisés puis discriminés soient reconnues comme également dignes à celles des identités majoritaires perçues comme la norme. Cet impératif de reconnaissance doit être distingué de l’appel à la seule tolérance qui est sans doute une vertu et une forme d’élégance, mais qui n’accorde pas une égale dignité aux identités en jeu. On peut tolérer des différences et des identités dans la mesure où elles ne mettent pas en cause l’universalité supposée de la norme majoritaire. Ainsi on tolère une religion et une sexualité minoritaires puisqu’elles ne mettent pas en cause la religion ou la norme hétérosexuelle majoritaire tenue pour « normale » et donc pour universelle.
La demande de reconnaissance est d’une tout autre nature que celle de l’égalité de traitement dans la mesure où l’égale dignité des identités fait que des normes et des identités majoritaires perdent leur privilège : si je reconnais le mariage pour tous et la procréation assistée, la famille hétérosexuelle devient une forme familiale parmi d’autres ; si je reconnais d’autres cultures, l’identité nationale traditionnelle est une identité parmi d’autres… Des identités et des normes qui se vivaient comme universelles cessent de l’être et se sentent menacées. Ce qui semblait aller de soi cesse d’être une évidence partagée. Il me semble que le débat n’oppose pas tant l’universalisme aux identités qui le menaceraient qu’il clive le camp universaliste lui-même. Par exemple, le débat laïque n’oppose plus les laïques aux défenseurs du cléricalisme, mais les « républicains » aux défenseurs d’une laïcité « ouverte ». Le supposé consensus laïque des salles de professeurs n’a pas résisté à l’assassinat de Samuel Paty. De la même manière se pose la question du récit national enseigné à l’école quand bien des élèves se sentent français, mais aussi algériens ou turcs… Comment distinguer la soumission des femmes à une tradition religieuse et leur droit universel à choisir sa foi et à la manifester ? En fait, ce que nous considérons comme l’universalisme se fractionne car, au-delà des principes, l’universel se décline dans des normes et des cultures particulières. Ainsi, nous découvrons qu’il existe des manières nationales d’être universels derrière le vocabulaire partagé des droits, de la laïcité et de la démocratie.
Plutôt que de parler d’universel, mieux vaudrait essayer de définir ce que nous avons ou pouvons avoir de commun dans les sociétés où nous vivons. En effet, la reconnaissance d’une identité et d’une différence n’est possible que si nous savons ce que nous avons de commun, à commencer par les droits individuels bien sûr, mais aussi par ce qui permet de vivre ensemble au-delà de nos différences. Il faut donc renverser le raisonnement commun : on ne reconnaît pas des différences sur la base de ce qui nous distingue, mais sur la base de ce que nous avons de commun et que ne menace pas une différence. Mais ce commun suppose de reconstruire ce que nous appelions une société, c’est-à-dire des mécanismes de solidarité, d’interdépendance dans le travail, dans la ville, dans l’éducation et dans l’État-providence lui-même qui, ne cessant de fractionner ses cibles et ses publics, est devenu « illisible ». Pour résister aux vertiges des identités et aux impasses de la reconnaissance et des peurs qu’elles engendrent, il serait raisonnable de radicaliser et d’approfondir la vie démocratique, de fonder une école qui ne soit pas réduite au tri continu des élèves, de réécrire sans cesse le récit national afin que les nouveaux venus dans la nation y aient une place, de détruire les ghettos urbains, de rendre lisibles les mécanismes de transferts sociaux, de s’intéresser au travail et pas seulement à l’emploi… Soyons clairs, il ne s’agit pas de revenir vers la société de classes et les nations communautaires, mais sans la construction patiente et méthodique d’un commun, je vois mal comment nous résisterons à la guerre des identités et à l’arrogance de l’universel.
Nous vivons aujourd’hui une mutation sociale et normative sans doute aussi profonde que celle qui a marqué le passage des sociétés traditionnelles vers des sociétés démocratiques, industrielles et nationales. Il est à craindre que cette mutation ne soit pas plus facile que la précédente et il m’arrive de penser que les sciences sociales, au lieu d’éclairer ces débats, ces enjeux, et de mettre en lumière les expériences sociales ordinaires, participent parfois à ce qu’elles dénoncent quand chacun est tenté d’être le témoin et le militant de « sa » discrimination et de « son » inégalité selon la logique des « studies ». Même si la société n’est plus La Société que nous imaginions à la manière de Durkheim, et dont beaucoup ont la nostalgie, nous ne devrions pas renoncer à l’idée que nous sommes interdépendants et que le choix de l’égalité sociale reste encore une des voies les plus sûres pour atténuer l’inégalité des chances. Le désir de ne pas réduire la question de la justice à celle des discriminations et des identités impose le vieux thème de la solidarité – et ce, d’autant plus que les enjeux écologiques appelleront un partage des sacrifices, et pas seulement un partage des bénéfices.
Dubet François ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
11.09.2025 à 17:17
Benjamin Cordrie, Enseignant-chercheur, titulaire de la chaire économie sociale et circulaire, UniLaSalle
Victor Bayard, Docteur en génie urbain. Chercheur en socio-économie., UniLaSalle
Aux côtés des acteurs associatifs historiques du réemploi – Emmaüs, ressourceries et recycleries – et des plateformes, comme Vinted et Leboncoin, de nombreuses enseignes de la grande distribution développent aujourd’hui des offres de seconde main. Faut-il s’en réjouir ? Qui en sort vainqueur ?
Les activités liées à la seconde vie des produits connaissent en France un essor sans précédent. Faut-il se réjouir de l’avènement d’une économie circulaire plus vertueuse, limitant le gaspillage des ressources et la production de déchets ? C’est l’une des interrogations qui oriente les travaux menés dans le cadre de la Chaire Économie sociale et circulaire.
Deux modèles coexistent derrière la promesse vertueuse de la seconde main. Le premier, porté par les acteurs de l’économie sociale et solidaire, repose sur la pratique du réemploi : une activité fondée sur le don, articulée à des finalités sociales (insertion, solidarité) et écologiques (réduction des déchets, sobriété matérielle).
Le second relève du marché de l’occasion. Il repose sur la revente, mobilisée comme levier de profit, et tend à intensifier la circularité, sans remettre en cause les volumes de production et de consommation. Autrement dit, l’un cherche à réduire à la fois les déchets et la surconsommation, l’autre vise à prolonger la durée de vie des produits sans sortir de la logique marchande. Les deux modèles ne sont pas équivalents, ni dans leurs objectifs ni dans leurs effets.
Pour quel avenir du marché de seconde main ?
Plusieurs facteurs expliquent les velléités de la grande distribution à investir le marché de la seconde main. Dans un contexte où les injonctions à adopter des comportements de consommation responsables se multiplient, la croissance de ce marché est estimée à 15 % par an.
Elle s’appuie sur une revalorisation sociale de la seconde main, devenue tendance, voire chic. C’est sur cette corde que jouent les campagnes de communication des plates-formes comme Vinted. D’autre part, une étude marketing comme celle du cabinet Enov (dont l’illustration ci-dessous est tirée) offre à la fois l’intérêt de quantifier le marché de la seconde main et de témoigner de son intérêt auprès d’acteurs aux modèles économiques lucratifs.
Ces mutations s’inscrivent dans le sillage de la loi Anti-Gaspillage pour une économie circulaire (AGEC) adoptée en 2020. La réglementation sur la reprise « 1 pour 1 » oblige les distributeurs à collecter les produits usagés qu’ils commercialisent, soumis à la responsabilité élargie du producteur (REP). En 2023, ces filières REP pèsent 152 millions de tonnes de produits, 12,6 millions de produits et déchets collectés pour 8,2 millions de tonnes recyclées.
Ainsi voit-on fleurir, dans les grandes surfaces, des offres de produits de seconde vie, qu’il s’agisse d’électroménager, d’articles de sport, ou encore de bricolage.
Le secteur du réemploi s’est historiquement structuré autour d’acteurs de l’économie sociale et solidaire comme Emmaüs, les ressourceries ou les entreprises d’insertion Envie. Leur activité combine deux aspects : la collecte basée sur le don, dite « non écrémante » car indépendante de la valeur marchande des objets, et la revente à prix solidaires. Ces acteurs participent à la prévention, en détournant du flux de déchets, la partie pouvant être réemployée.
Ces structures entretiennent une relation distante avec le profit, ce qui leur permet de rendre accessibles des biens aux catégories les plus précaires de la population. Nombre d’entre elles sont des actrices de l’insertion par l’activité économique (IAE). Elles proposent des emplois accompagnés à des personnes éloignées du marché du travail, et font du réemploi des objets un support à l’insertion socioprofessionnelle des personnes.
L’ancrage territorial de ces structures, et les modes démocratiques de gouvernance qui s’y exercent ouvrent la voie à des formes de réappropriation citoyenne des enjeux de gestion des déchets. Dans les sociétés industrielles modernes, ces enjeuxsont délégués à des entreprises spécialisées et circonscrits à des choix techniques. Les structures du réemploi solidaire mobilisent des bénévoles, des salariés, des collectivités et des habitants, et contribuent en cela à repolitiser ces enjeux en redonnant aux citoyens un pouvoir de décider et d’agir.
Le modèle développé par la grande distribution est radicalement différent. Il repose sur un système de bons d’achat : en échange d’un produit usagé rapporté en magasin, les consommateurs reçoivent un bon de réduction à valoir sur l’achat d’un produit neuf. Ce dispositif stimule la consommation, y compris de produits neufs, et contribue à un effet rebond. Les bénéfices environnementaux attendus de la prolongation de la vie des produits peuvent se retrouver annulés par l’augmentation de la consommation globale.
Il s’agit moins de réemploi que de l’intégration d’une offre d’occasion. En témoignent les partenariats entre des enseignes de grande distribution et des professionnels du secteur. Carrefour s’est par exemple associé à Cash Converters, entreprise spécialisée dans l’achat-vente de biens d’occasion, pour installer des corners dédiés à l’occasion dans ses hypermarchés. Les activités liées à la seconde vie sont ici une opportunité de diversification commerciale, voire de verdissement de l’image de l’entreprise.
Ces évolutions exercent une pression croissante sur les acteurs du réemploi solidaire, en particulier lorsque les segments les plus rentables – la « crème » des gisements – sont captés. Ces objets de qualité, en très bon état et avec une forte valeur marchande, représentent une part réduite des apports, mais jouent un rôle très important dans l’équilibre économique des structures.
À lire aussi : Vieux vêtements, nouveaux problèmes : le recyclage ne règle pas tout
Les revenus issus des ventes à prix solidaires représentent jusqu’à 80 % des ressources de certaines structures comme Envie. Les difficultés rencontrées par la filière textile, submergée par des volumes croissants de vêtements à bas coût issus de la fast fashion, illustrent bien la fragilité de cet équilibre.
Comme le rappelle la socioéconomie, l’application d’un principe de marché librement concurrentiel favorise les acteurs dominants. Face aux moyens des grandes enseignes, les campagnes de plaidoyer des structures solidaires peinent à se faire entendre. Une réponse politique plus ambitieuse paraît nécessaire, à même de garantir la pérennité des activités solidaires.
Des partenariats existent entre ESS et entreprises privées, comme celui qui unit la fédération Envie au groupe Fnac-Darty. Puisque ces coopérations reposent uniquement sur des démarches RSE non contraignantes, leur pérennité reste fragile. Rien n’empêche les enseignes de s’en détourner dès lors qu’elles identifient un intérêt économique à développer leur propre filière de seconde main.
Au niveau local, certaines collectivités soutiennent activement les acteurs de l’ESS à travers des aides financières, des mises à disposition de locaux ou des clauses sociales et environnementales dans les marchés publics. À Rennes, la métropole a initié la création d’une plateforme territoriale du réemploi, fédérant plusieurs structures solidaires.
Comme l’affirme la géographe Nicky Gregson, « il est impossible de comprendre le problème global des déchets en commençant par le déchet ». Autrement dit, il faut interroger les dynamiques de production et de consommation qui sous-tendent ces flux. C’est à cette échelle qu’il est possible de penser le réemploi solidaire, non comme un débouché opportun à une surproduction irréversible, mais comme un espace en marge du capitalisme que les pouvoirs publics peuvent choisir de soutenir, ou de fragiliser.
Cet article est le fruit des travaux menés dans le cadre de la chaire économie sociale et circulaire, portée par UniLaSalle Rennes et financée par l'éco-organisme Valdelia. Benjamin Cordrie est membre de l'Association Française d'Economie Politique (AFEP).
Mes recherches postdoctorales sont financées par un programme de recherche, la Chaire Économie Sociale et Circulaire, dont les financements proviennent d'un accord de mécénat avec l'éco-organisme Valdelia, agréé par l’État (filière du mobilier professionnel et des produits et matériaux de construction du bâtiment).
11.09.2025 à 17:11
Thomas Zeroual, Enseignant-chercheur en Economie, ESCE International Business School
Le tri des biodéchets (c’est-à-dire, les déchets verts et les déchets alimentaires) est obligatoire depuis 2024. Mais, pour que ces biodéchets soient intéressants à valoriser, encore faut-il que la facture environnementale du transport par camion ne déséquilibre pas l’équation ! Une récente étude menée dans un quartier de Romainville, en Seine-Saint-Denis, montre comment choisir l’approche la plus efficace à l’échelle d’un territoire.
Depuis le 1er janvier 2024, le tri des biodéchets, c’est-à-dire les déchets biodégradables de nos ordures ménagères comme les restes alimentaires, est obligatoire pour les professionnels comme pour les citoyens. Cette réglementation semble encourageante d’un point de vue environnemental. En effet, mieux trier peut réduire la quantité de déchets incinérés – et donc les émissions de gaz à effet de serre associées – tout en encourageant la production énergétique de compost ou de biogaz.
Encore faut-il transporter ces déchets vers les lieux de valorisation… Et c’est là que les choses se compliquent : selon le scénario considéré, les impacts environnementaux du transport grimpent considérablement.
À lire aussi : Déchets alimentaires : à quoi va servir le nouveau tri à la source ?
Selon le Code de l’environnement, les biodéchets sont définis comme « les déchets non dangereux biodégradables de jardin ou de parc » (qu’on appelle couramment déchets verts) ainsi que « les déchets alimentaires ou de cuisine ».
Chaque année, 18 millions de tonnes de biodéchets sont produites par les ménages en France. Les marges de manœuvre pour les réduire sont importantes : une grande partie des déchets organiques est aujourd’hui incinérée ou mise en décharge, ce qui n’est pas du tout optimal. La hiérarchie définie par la directive cadre de l’Union européenne est très claire : ces modes de traitement ne doivent être utilisés qu’en dernier recours. En théorie, il convient de respecter l’ordre de priorité suivant : dans un premier temps, prévenir la constitution du déchet, ensuite le réemploi, puis le recyclage et enfin l’élimination.
Incinérer ou mettre en décharge les biodéchets ne respecte pas cette hiérarchie. Cela génère de surcroît des émissions de CO2 (en cas d’incinération) et de méthane (en cas de mise en décharge), sans parler du gaspillage d’espace et d’énergie.
En France, la gestion des biodéchets représente le principal gisement d’évitement (c’est-à-dire, la part d’un flux de déchets pouvant être évitée grâce à des actions de prévention en amont), selon l’Agence de la transition écologique (Ademe).
Des changements dans l’organisation du ramassage de ces déchets, par exemple, pourraient entraîner une baisse significative du volume de ces déchets.
Chaque année en France, 355 millions de tonnes de déchets sont transportés, ce qui représente 30 % des émissions de gaz à effet de serre générées par le secteur de la gestion des déchets, soit 2,4 millions de tonnes équivalent CO2.
Face à ces impacts environnementaux, il est utile d’identifier et d’évaluer une meilleure gestion des transports des biodéchets. Différentes options doivent être envisagées, car il n’existe pas de solution unique.
Nous avons récemment mené une étude dont le terrain était un quartier situé à Romainville, en Seine-Saint-Denis, ville connue pour avoir déjà expérimenté des solutions de collecte de biodéchets.
Ce quartier comprend une population de 3 995 habitants répartis sur une aire de 47 hectares. Les déchets sur cette surface sont collectés et acheminés vers une plate-forme de transit à la déchetterie de Romainville, puis ils sont répartis dans des conteneurs en vue de leur recyclage ou de leur élimination par des filières spécialisées, comme le centre d’incinération à Saint-Ouen-sur-Seine.
Le modèle que nous avons utilisé incluait plusieurs variables liées au transport, comme les itinéraires de collecte, la taille du parc de véhicules, leurs poids, la taille et le nombre de tournée… Il intègre aussi des variables environnementales, comme la part de compostage et de méthanisation sur ces déchets et la consommation de carburant des camions utilisés pour leur transport.
Dans nos travaux sur ce quartier, nous avons retenu quatre scénarios.
Le scénario n°1 correspond à un compostage de proximité avec une gestion in situ, autrement dit une gestion volontaire et locale vers un site de compostage partagé. Nous avons supposé que 30 % des biodéchets finissaient dans une poubelle individuelle et que 70 % restants étaient valorisés dans un compost collectif. Ce scénario n’est toutefois crédible que si le taux de participation est suffisant. Conformément au seuil établi par la littérature scientifique, nous avons fixé ce taux à 45 %.
Les autres scénarios se rapportent à une collecte centralisée organisée par des professionnels. Le scénario n°2 correspond à un ramassage en porte à porte vers un centre de transit où l’on groupe les déchets avant de les envoyer dans un centre de valorisation.
Le scénario n°3 s’effectue en porte à porte, mais sans point de transit : c’est le scénario le plus utilisé en France.
Enfin, le scénario n°4 est une collecte en porte-à-porte, sans point de transit, mais avec des bacs collectifs plus grands que les poubelles individuelles.
Quel scénario est le plus intéressant ? Par ordre du plus au moins intéressant :
Le scénario n°1 de compostage de proximité s’avère être le scénario à privilégier. En effet, il exclut l’étape du transport : les biodéchets sont soit compostés à l’échelle individuelle au sein des habitats privés, soit à l’échelle collective, où chaque habitant d’une résidence collective amène ses biodéchets dans des bioseaux vers des composteurs partagés aux pieds d’immeuble, dans les jardins ou des parcs publics.
Le deuxième meilleur est le scénario de collecte dans des bacs plus grands (scénario n°4) : il est préférable au scénario en porte-à-porte avec transit (scénario n°2). Et cela, même avec une distance parcourue plus élevée (210 km contre 142 km) et une consommation en carburant supérieure (53 litres contre 37 litres), car les camions de collecte s’arrêtent, en proportion pour une quantité de déchets ramassés équivalente, moins souvent.
Enfin, le scénario de collecte n°3 en porte-à-porte sans point de transit est celui qui génère le plus d’externalités. C’est le scénario le plus émetteur de CO2, du fait du nombre d’arrêts. Ce scénario est pourtant celui qui est actuellement le plus appliqué !
Le compost apparaît ainsi comme la solution préférable et optimale pour les biodéchets d’un point de vue environnemental. Composter en proximité, c’est participer à la réduction des émissions de gaz à effet de serre.
En attendant que le compost devienne un réflexe citoyen, l’étude permet de quantifier l’impact des autres scénarios de collecte.
Le recours à des centres de transit permet certes de diminuer de plus de 27 % les émissions de CO2, mais utiliser des bacs collectifs sans transit permet de les réduire de plus de 57 %.
En définitive : plus le citoyen est sollicité et participe au traitement de ses déchets, meilleurs sont les résultats en termes climatiques. Si on le sollicite moins, alors il faut davantage miser sur de la mutualisation du transport.
Ces travaux offrent des perspectives intéressantes pour la. Nous pourrons à l’avenir y intégrer le méthane et/ou les particules fines issues de l’incinération et même comptabiliser les émissions des sites de compostage, ce qui n’a pas été fait pour le moment. Enfin, notre évaluation pourrait intégrer différentes flottes de camions hybride et/ou électrique d’un remplacement de ces véhicules.
À lire aussi : Poids lourds et pollution : comment accélérer l’électrification ?
Thomas Zeroual ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
11.09.2025 à 12:48
Anne-Claude Ambroise-Rendu, Professeur d'histoire contemporaine, Université de Versailles Saint-Quentin-en-Yvelines (UVSQ) – Université Paris-Saclay
Pacifisme, écologisme et féminisme : Petra Kelly a marqué le mouvement environnementaliste allemand de son engagement. D’abord impliquée dans les mouvements antinucléaires, elle s’est mobilisée en faveur d’une écojustice qui mettrait fin aux inégalités entre pays du Nord et du Sud. Co-fondatrice des Verts outre-Rhin dans les années 1980, celle qui fut aussi députée au Bundestag pendant sept ans s’est distinguée par un militantisme de terrain au sein des mouvements sociaux.
Entrée dans la vie publique en protestant contre l’installation de missiles nucléaires de l’Organisation du traité de l’Atlantique Nord (Otan) en Allemagne de l'Ouest, en 1979, Petra Kelly (1947-1992) a été l’une des premières figures politiques à associer la défense de l’environnement et le refus du nucléaire, le pacifisme intransigeant et le féminisme radical. Fondatrice et figure de proue du parti des Verts allemands (Die Grünen), elle a incarné l’un des plus vastes mouvements contestataires de l’Allemagne des années 1970 et 1980. Pourtant, c’est aujourd’hui une figure en partie oubliée.
Née en 1947 en Bavière puis émigrée aux États-Unis, c’est au cours de ses études de sciences politiques à Washington, que Petra Kelly découvre sur les campus la contestation de la guerre du Vietnam, le féminisme et la non-violence du mouvement pour les droits civiques. En 1968, elle s’engage dans la campagne présidentielle de Robert Kennedy. À cette occasion, elle forge les principes moraux qui vont la guider toute sa vie : un engagement féministe et une conviction pacifiste très profonde qui vont nourrir ses combats ultérieurs.
En février 1970, la mort de sa sœur à l’âge de 10 ans, victime d’un cancer, est décisive dans son approche de l’usage civil et militaire des radiations. C’est donc par la question du nucléaire que Petra Kelly entre dans les mouvements écologistes au début des années 1970. Elle perçoit tout le potentiel qu’offre l’activisme antinucléaire, qui propose une critique de fond du système économique et politique occidental, pour promouvoir une politique européenne alternative et réellement sociale. Après un passage par l’Université d’Amsterdam, elle travaille dix ans, de 1972 à 1982, à la Commission européenne à Bruxelles, où elle comprend que le changement social ne se fera pas sans associer davantage les citoyens aux décisions politiques.
Rentrée en République fédérale d’Allemagne (RFA) en 1979, elle s’éloigne rapidement du SPD (parti social-démocrate) auquel elle avait adhéré, en raison de la politique nucléaire et militaire du gouvernement d’Helmut Schmidt. Elle se présente sans succès aux élections européennes de 1979 dans le camp des Verts, le parti écologiste allemand à la création duquel elle a œuvré avec son compagnon Gert Bastian, ancien général de la force de défense fédérale allemande.
En 1983, elle figure parmi les 28 premiers élus du parti des Verts qui fait ainsi, avec 5,6 % des voix, son entrée au Bundestag avec le soutien de l’écrivain Heinrich Böll, prix Nobel de littérature. Rare femme à siéger dans cette institution où elle restera députée jusqu’en 1990, Petra Kelly travaille inlassablement à faire reconnaître les droits des femmes en politique et raille le sexisme qui règne au Parlement allemand, la chambre basse allemande :
« Peu importe le succès qu’une femme peut avoir, il y a toujours un homme qui surveille ses faits et gestes et qui laisse son empreinte sur tout ce qu’elle fait. »
Fustigeant l’organisation et la pensée sclérosées des partis politiques, elle ambitionne d’insuffler l’énergie qui l’a séduite dans le mouvement antinucléaire à la vie politique allemande. Elle participe à toutes les manifestations, sit-in et débats télévisés et devient ainsi la figure de l’écologisme et du pacifisme allemand, sa célébrité dépassant alors de très loin les frontières nationales et même européennes.
Son activisme est délibérément spectaculaire. En 1980, lors de la crise des euromissiles provoquée par le déploiement d’un arsenal d’armes conventionnelles et atomiques, elle signe, comme bientôt deux millions de personnes, l’appel de Krefeld contre les décisions de l’Otan. Comprenant que l’appel est partisan et ne vise que l’Otan mais pas les pays du bloc de l’Est, elle prend bientôt ses distances avec les signataires. Reçue à la fin de l’année 1983, avec d’autres représentants des Verts, par Erich Honecker, président du Conseil de la République démocratique allemande (RDA), qui espérait trouver en eux des alliés contre le militarisme de l’Ouest, elle ne transige pas : vêtue d’un tee-shirt orné du slogan du mouvement pour la paix est-allemand, elle demande la libération des opposants politiques incarcérés en RDA et remet à Honecker un traité de paix symbolique.
Pour protester contre la course aux armements, elle organise la crémation d’un énorme missile de papier fabriqué avec de vieilles affiches de la CDU (Union chrétienne-démocrate) et du SPD devant le quartier général de ce dernier. Dans une lettre ouverte à Willy Brandt, président du SDP, publiée dans le Frankfurter Rundschau en 1982, elle affirme :
« La paix, c’est la protection de l’environnement, c’est empêcher la déforestation pour y installer des bases de missiles, c’est lutter contre l’implantation de centrales nucléaires. »
Rare députée allemande à parler couramment l’anglais, elle parcourt le monde tout au long des années 1970 et 1980, sans cesser de déplorer l’étroitesse de vue de la vie politique de l’Allemagne de l’Ouest, renfermée au sein des frontières du pays. Elle se partage entre les capitales occidentales et les mobilisations antinucléaires, tout en s’associant aux combats des minorités autochtones, qu’elles soient aborigènes en Australie ou lakotas aux États-Unis.
En 1982, elle reçoit, en hommage à son engagement indéfectible et international en faveur de l’environnement et de la justice sociale, le Right Livelihood Award, Nobel de la paix alternatif. En 1987, elle soumet au Bundestag une résolution sur le Tibet. Au sein du Parlement, comme devant la Maison Blanche à Washington, sur l’Alexanderplatz à Berlin-Est ou à l’ambassade ouest-allemande à Pretoria (Afrique du Sud), il s’agit pour elle de créer des réseaux transnationaux favorisant la circulation des informations et des pratiques de contestation.
Dès 1990, elle promeut la notion d’écojustice dans un texte resté fameux qui plaide pour une refonte totale du modèle économique occidental et la fin de la logique productiviste et consommatrice, qui génère de plus en plus d’inégalités nord-sud. Elle souligne la responsabilité des pays riches à l’égard des autres pays du monde, autant en matière de commerce que d’environnement. Elle y dénonce la déforestation du Costa Rica et l’expropriation des populations locales pour le profit des chaînes de fast- food qu’elle appelle à boycotter, ainsi que l’envoi de déchets industriels toxiques dans les pays pauvres. Elle insiste sur le lien qui existe entre la pauvreté profonde des deux tiers de l’humanité, les dégradations environnementales et la militarisation du monde.
Appel à une réponse non violente, le texte n’est pas qu’un réquisitoire. Il invite à refonder les mentalités des pays industriels en mesurant le bien-être à l’aune de critères nouveaux : la santé, l’air pur, l’eau claire, une nourriture saine et le partage de l’environnement avec les plantes et les animaux. L’écojustice n’est rien d’autre, écrit-elle que « prendre au sérieux la destinée de l’humanité et de la planète sur laquelle nous vivons. S’il y a un futur, il sera vert ».
Mais être une activiste populaire et intransigeante, célèbre dans le monde entier et siéger au Parlement s’avère parfois délicat, surtout quand on est devenue le visage des Verts. Les médias la présentent comme la Jeanne d’Arc de l’âge nucléaire, qualificatif qu’elle déteste. Or, si certains verts saluent son activisme infatigable, d’autres jugent qu’il est incompatible avec le sérieux attendu d’une députée et y voient un risque de discrédit du parti. Elle est donc progressivement marginalisée au sein d’un parti qui gagne en influence et dont les idées se banalisent. En 1990, elle tente sans succès de figurer sur la liste des Verts pour les élections au Bundestag et son parti divisé, échoue à siéger au Parlement faute d’avoir obtenu les 5 % nécessaires.
En 1992, à 45 ans, elle est assassinée dans son sommeil par son compagnon, lui aussi ancien député des Grünen, Gert Bastian qui se donne ensuite la mort. Les raisons de ce crime restent inconnues.
L’année suivante, le 22 avril, jour de la Terre, on inaugurait à Barcelone (Espagne) le jardin Petra Kelly, situé sur la colline de Montjuïc. Cette figure charismatique n’est pas oubliée de tous et continue d’être une inspiratrice : lauréate à titre posthume du prix Lumière de la vérité en 2002, décerné par le dalaï-lama, qu’elle avait rencontré, elle est classée 45e dans la liste des personnalités ayant œuvré pour sauver la planète par l’Agence de l’environnement du Royaume-Uni en 2006. De la même façon, la Fondation Heinrich-Böll a créé le prix Petra-Kelly, récompensant une personnalité ayant contribué à faire progresser les droits humains universels et la paix dans le monde.
Anne-Claude Ambroise-Rendu ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
11.09.2025 à 12:46
Sean McMahon, Reader in Astrobiology, University of Edinburgh
Les analyses d’une roche trouvée sur Mars par le rover Perseverance ont été publiées hier dans la revue Nature. Cette roche présente des taches qu’on explique mal à l’heure actuelle. Proviennent-elles d’une activité microbienne, il y a quatre milliards d’années, ou de réactions encore inconnues ? Ces observations, loin de mettre un point final à la quête de traces de vie sur Mars, ne sont en fait que le début d’une longue enquête… qui nécessite de rapporter la roche sur Terre.
Il y a un peu plus d’un an, la Nasa a fait une grande annonce : le rover Perseverance, qui explore la surface de Mars, avait trouvé des signes potentiels d’une vie ancienne sur Mars. Les détails de cette découverte ont maintenant été évalués par les pairs et publiés dans la revue Nature. Un article qui, malgré sa formulation plutôt modeste, pourrait finalement s’avérer être l’un des plus importants de l’histoire des sciences.
Pour faire court : ces traces pourraient être des signes de vie passée, mais il faudrait ramener les échantillons sur Terre pour en être sûrs. Le rover Perseverance a collecté et analysé un fragment de la roche en question… il ne reste plus qu’à aller le chercher.
Et une mission visant à se rendre sur Mars, à récupérer les échantillons de roche collectés par Perseverance et à les ramener sur Terre a été élaborée par la Nasa et l’Agence spatiale européenne – ceci inclut l’échantillon de roche qui fait l’objet de l’étude publiée dans Nature. Mais cette mission, Mars Sample Return, rencontre des difficultés en raison de l’augmentation des coûts de la mission ([le budget proposé en mars 2025 par le président Trump n’inclut pas cette mission, ndlr]).
Au milieu de l’année 2024, le rover Perseverance a découvert un bloc de mudstone ancien, une roche sédimentaire composée à l’origine d’argile ou de boue, surnommée Cheyava Falls, qui se distingue par sa teinte rouge brique. Cette roche a été déposée par l’eau, il y a environ quatre milliards d’années.
Alors que la plupart des roches martiennes sont rouges à cause d’une couche de poussière d’oxyde de fer, Cheyava Falls est rouge jusqu’à son cœur : l’oxyde de fer se trouve dans la roche elle-même.
Plus intriguant encore, Cheyava Falls est parsemée de douzaines de minuscules taches pâles, de tailles généralement inférieures à un millimètre. Ces taches sont bordées d’un minéral sombre, riche en phosphore, qui apparaît également sous forme de minuscules points dispersés entre les autres taches et que l’on appelle « graines de pavot ». Ce minéral plus sombre est associé à des traces d’anciens composés organiques : des composés qui contiennent du carbone et qui sont essentiels à la vie sur Terre… mais qui existent également en l’absence de vie et d’activité biologique.
Tous les organismes vivants sur Terre collectent l’énergie grâce à des réactions d’oxydoréduction (réactions redox) qui transfèrent des électrons entre des substances chimiques appelées réducteurs (qui cèdent des électrons) et d’autres, appelées oxydants (qui les acceptent).
Sur Terre par exemple, dans les cellules animales, des structures appelées « mitochondries » transfèrent des électrons du glucose (un réducteur) à l’oxygène (un oxydant). Certaines bactéries vivant dans les roches utilisent d’autres types de composés organiques à la place du glucose et, à la place de l’oxygène, de l’oxyde ferrique (un type d’oxyde de fer auquel il manque trois électrons par rapport au métal fer).
Lorsque l’oxyde ferrique est réduit en un autre oxyde de fer appelé oxyde ferreux (il ne manque plus que deux électrons par rapport au métal fer), il devient soluble dans l’eau. Il peut ensuite être dispersé ou réagir pour former de nouveaux minéraux, de couleur plus claire.
Il en résulte que de nombreuses roches et sédiments rouges sur Terre contiennent de petites taches blanchies, appelées « taches de réduction », qui ressemblent de manière frappante à celles trouvées à Cheyava Falls.
Sur Mars, Perseverance a également repéré des caractéristiques blanchies encore plus évocatrices de taches de réduction sur un site appelé Serpentine Rapids. Malheureusement, le rover n’y a passé que trop peu de temps pour les analyser et n’a prélevé aucun échantillon.
Le nouvel article développe des résultats présentés lors de la Lunar and Planetary Science Conference, à Houston (États-Unis), en mars 2025, avec plus de détails. Pour être publiés dans Nature, les résultats ont été évalués par des pairs (d’autres chercheurs spécialistes du domaine), ce qui ajoute du crédit à l’annonce de la Nasa. Ainsi, la nouvelle publication confirme que les taches pâles sont associées à des matières organiques et qu’elles contiennent du fer ferreux et du soufre, plus précisément un minéral de sulfure de fer.
L’interprétation la plus plausible est que des réactions d’oxydoréduction se sont produites à l’intérieur de la roche après sa formation. Elles ont transféré des électrons des matières organiques vers l’oxyde ferrique et le sulfate, ce qui a produit les zones décolorées, où l’oxyde ferrique est réduit en oxyde ferreux.
Le point crucial est que ces réactions, en particulier la réduction des sulfates, ne se produisent normalement pas aux températures relativement basses auxquelles la roche de Chevaya Falls a été soumise au cours de son histoire… à moins que des microbes ne soient intervenus pour aider la réaction à se produire. L’oxydation microbienne de la matière organique peut également produire des minéraux phosphatés, comme ceux trouvés à Cheyava Falls.
Si nous ne ramenons pas les échantillons dans des laboratoires sur Terre, nous ne pourrons pas savoir ce qui s’est réellement passé à Cheyava Falls il y a quatre milliards d’années.
Mais malgré cela, pour l’instant, nous n’avons pas identifié d’explication « non biologique » (qui n’implique pas d’organisme vivant) qui soit entièrement satisfaisante et rende compte de l’ensemble des observations faites par Perseverance. Le nouvel article détaille ces potentielles explications, en examinant les possibilités une par une.
Mais, quoi qu’il en soit, en astrobiologie, l’absence d’explication non biologique ne marque pas la fin de la recherche de vie, mais plutôt… son commencement. L’histoire nous enseigne que lorsque nous ne trouvons pas d’explication non biologique à un phénomène, ce n’est généralement pas parce qu’il n’y en a pas… c’est simplement parce que nous n’y avons pas encore pensé.
À lire aussi : Comment cherche-t-on des traces de vie sur Mars ?
Tout d’abord, les astrobiologistes du monde entier doivent étudier quelles réactions d’oxydoréduction impliquant le fer, le soufre, les composés organiques et le phosphate auraient pu se produire, avec ou sans organismes vivants, dans des conditions similaires à celles de Cheyava Falls.
Ensuite, la NASA et d’autres agences spatiales devront faire preuve d’un leadership audacieux dans le cadre de la mission Mars Sample Return. Oui, cela coûtera cher, peut-être des dizaines de milliards de dollars, mais le résultat pourrait être la découverte scientifique la plus importante jamais réalisée.
À lire aussi : La politique spatiale de la Chine déjoue-t-elle le narratif imposé par les Etats-Unis ? Une conversation avec Isabelle Sourbès-Verger
Sean McMahon a reçu des financements de la NASA par le passé.
11.09.2025 à 12:07
Anne Lavigne, Professeure de Sciences économiques, Université d’Orléans
Le nouveau premier ministre Sébastien Lecornu a indiqué vouloir rouvrir le dossier des retraites. Lors du conclave, la retraite par capitalisation avait été rapidement évoquée. De quoi parle-t-on quand on évoque ce système de financement ? Est-il vraiment opposé à la retraite par répartition ? Quels sont ses réels atouts économiques et financiers ? Les risques qui lui sont associés le discréditent-ils, comme le disent ces critiques ?
Plus connue sous l’appellation « conclave », la délégation paritaire permanente installée le 27 février dernier s’est soldée par un échec, malgré une redéfinition par les partenaires sociaux eux-mêmes du périmètre des thématiques à aborder. Le financement des retraites par capitalisation a notamment été évoqué, avec prudence par les organismes syndicaux et plus d’enthousiasme par les représentants du patronat.
Parallèlement, le 11 juillet dernier, le comité de suivi des retraites a rendu son 12ᵉ avis. Il relève :
« Le recours accru à la capitalisation ne peut pas constituer à court terme une réponse au déséquilibre de notre système par répartition, et peut même avoir pour effet de détourner des ressources du financement des régimes »,
et souligne que :
« Recherche de rendement, préservation de la volatilité, financement de l’économie nationale, investissements souverains constituent autant d’objectifs qui ne sont pas forcément conciliables avec un seul outil dont l’objectif principal reste de verser des retraites aux anciens actifs. »
Dans un système de retraite par répartition, les cotisations des travailleurs actifs ont vocation à financer les pensions des retraités. S’y ajoutent, dans la plupart des pays, des prélèvements fiscaux. Si les cotisants d’une année donnée financent les pensions des retraités la même année, et non leur propre retraite, ils acquièrent un droit à pension financé par les générations ultérieures et garanti par la nation.
À lire aussi : Retraites : l’allongement de la durée du travail, la moins mauvaise des solutions ?
Dans un système de retraite par capitalisation, les cotisations versées une année donnée sont placées dans des actifs financiers ou immobiliers, dont les rendements se cumulent au fil du temps. Les revenus des placements sont réinvestis année après année jusqu’à la retraite, et le capital accumulé pendant la vie active est versé à la liquidation des droits à la retraite, selon des modalités propres à chaque régime de capitalisation, en une rente viagère, en versements programmés ou en un versement unique.
Historiquement, les régimes de retraite professionnels en capitalisation se sont développés lorsque les pays se sont industrialisés. L’objectif des employeurs était de fidéliser une main-d’œuvre par la promesse d’un salaire direct, mais également d’un salaire conditionnel (versement d’une pension d’invalidité en cas d’accident) ou différé (versement d’une pension de retraite lorsque la vieillesse rendait le travailleur inapte au travail).
Dans cette évolution historique, la France a emprunté une voie singulière : si des dispositifs de retraite par capitalisation ont été effectivement instaurés à la fin du XIXe et au début du XXe siècle, ils n’ont pas résisté aux turbulences économiques et financières de l’entre-deux-guerres. À la Libération, la nation a fait le choix d’un système public obligatoire en répartition pour l’ensemble des salariés, avec des caisses de retraite complémentaires professionnelles également financées en répartition.
Ce choix collectif pour la répartition est singulier. Dans tous les autres pays, la retraite de base est en répartition mais les retraites professionnelles sont en capitalisation. Dans le débat qui se rouvre aujourd’hui en France, la question posée est : jusqu’où et comment déplacer le curseur vers la capitalisation ?
Pour certains, la question ne se pose même pas. Par principe, la répartition doit rester l’unique mode de financement des retraites. En effet, développer la capitalisation reviendrait à renforcer le pouvoir actionnarial au détriment du travail, à démanteler la protection sociale solidaire, à accentuer les inégalités à la retraite (les épargnants plus fortunés ont une meilleure capacité à obtenir des rendements financiers plus élevés).
Au-delà de ce principe, qui a sa légitimité, quels arguments peut-on faire valoir pour introduire une dose de capitalisation dans notre système de retraite ? La capitalisation est-elle plus efficace, en termes de rendement et de risque, que la répartition dans sa capacité à procurer un revenu de remplacement pendant la retraite ?
Comparer le rendement de la retraite en répartition ou en capitalisation revient à se demander : pour chaque euro cotisé pendant ma vie active, combien d’euros obtiendrai-je sous forme de pension une fois à la retraite ?
Évaluer le rendement de la capitalisation est en théorie simple, plus délicat en pratique. En théorie, pour un cotisant, le rendement de la capitalisation est le rendement obtenu sur les placements effectués tout au long de sa carrière à partir des cotisations versées. Bien sûr, ces cotisations sont périodiques : celles de début de carrière seront capitalisées sur un temps très long, celles effectuées en fin de carrière sur un temps plus court. Et personne ne connaît avec certitude le nombre des années passées à la retraite, de sorte que le rendement de l’épargne retraite dépend de la durée probable de survie au départ à la retraite.
En définissant le taux de rendement interne (TRI) comme le taux qui égalise la somme (actuelle probable) des cotisations versées et des pensions reçues, le rendement de la capitalisation correspond au taux de rendement des placements dans lesquels ont été investies les cotisations, sous l’hypothèse que les pensions reçues sont actualisées à ce taux.
En pratique, on présente souvent le rendement de la capitalisation comme le rendement moyen observé sur des placements financiers. Pour cela, on calcule le rendement moyen, par exemple sur une durée de quarante ans, d’un indice boursier, par exemple le CAC 40 et on affirme « Si on avait introduit la capitalisation en 1982, les retraités toucheraient 300 euros de plus que la pension offerte par l’actuel système en ayant cotisé deux fois moins ».
Cette expérience de pensée est en réalité fallacieuse. Aucun fonds de pension (a fortiori un épargnant individuel) ne place la totalité de ses actifs dans des actions. D’une part, pour diversifier les risques financiers ; d’autre part, parce qu’au départ à la retraite, il faut convertir le capital de cotisations accumulées en flux de pension. Et cette phase de décumulation nécessite d’avoir des actifs suffisamment liquides et dont la valeur de revente n’est pas (trop) volatile.
Évaluer le « rendement » de la répartition est aussi discutable, puisque la répartition n’est pas une opération financière intertemporelle. Sur un plan individuel, calculer un taux de rendement interne n’a pas grand sens, puisque précisément, on ne cotise pas pour soi-même. On peut néanmoins s’intéresser au rendement collectif d’un régime par répartition.
La capacité d’un système de retraite par répartition à assurer un bon niveau de pension aux retraités dépend de manière cruciale du nombre de travailleurs effectivement employés et de leur productivité. Si le taux d’emploi augmente, cela fait plus de cotisants et si la productivité des travailleurs augmente, cela se traduit généralement par des rémunérations plus élevées, et donc une assiette de cotisations plus importante.
Schématiquement, la croissance démographique et le progrès technique jouent le même rôle dans le rendement implicite de la répartition. Pour x euros cotisés en répartition quand ils sont actifs, les salariés « récupèrent » lorsqu’ils partent à la retraite les x euros revalorisés de la somme du taux de croissance de la population (supposée employée pendant toute sa vie active) et du taux de croissance de la productivité.
On comprend donc que la capitalisation est plus rentable que la répartition si le taux de rendement du capital est supérieur au taux de croissance cumulé de la population et de la productivité, qu’on peut assimiler au taux de croissance économique en première approximation. Qu’en est-il dans les faits ?
Même si la crise financière de 2007 a ébranlé quelques certitudes, il ressort des études historiques sur longue période que le rendement réel des placements financiers est supérieur au taux de croissance économique dans les principaux pays industrialisés.
Dans une vaste fresque historique, Jordá et al. ont calculé que l’écart entre le taux de rendement de la richesse et le taux de croissance économique s’élevait à 2,68 % en moyenne pour un ensemble de 16 pays sur la période 1950-2015. En très longue période (1870-2015), leur étude montre que le rendement réel de la richesse est supérieur au taux de croissance réel dans tous les pays, sauf pendant les sous périodes de guerre.
Cette étude confirme, par ailleurs, un résultat observé par de nombreuses contributions antérieures : en moyenne, le rendement réel des actions est supérieur au rendement réel des actifs sans risque (obligations et actifs monétaires). La prime de risque, qui mesure l’écart entre rendement des actions et des actifs sans risque, s’élevait à environ 4 % en moyenne avant la Première Guerre mondiale, pour devenir légèrement négative lors de la grande dépression, puis s’envoler jusqu’à 14 % au début des années 1950 et revenir à son niveau séculaire autour de 4 % depuis 2000. Cette évolution tendancielle se retrouve dans tous les pays, à des niveaux de taux de rendement différents d’un pays à l’autre. Entre 1980 et 2015, la prime de risque en France se situe légèrement en dessous de la moyenne globale, à 2,14 %.
Pour autant, pour les individus, ce n’est pas le rendement moyen du système en longue période qui importe, mais le montant de la rente viagère qu’ils pourront obtenir chaque mois lorsqu’ils seront à la retraite. Observer qu’en moyenne, chaque année, sur une très longue période, le rendement du capital est supérieur à la croissance économique n’implique pas qu’il faille choisir la capitalisation pour couvrir le risque vieillesse, pour au moins trois raisons.
Pour autant, cela ne signifie pas que détenir des actions pendant une longue période, par exemple jusqu’à la retraite, ne soit pas risqué. En effet, pour quelqu’un qui souhaite financer sa retraite par un placement financier, ce qui importe, ce n’est pas le rendement annuel moyen de son placement sur trente ans, mais bien le rendement total qu’il obtiendra au bout de trente ans quand il partira à la retraite. Et il est possible que le rendement annuel moyen sur vingt-neuf ans soit favorable, mais qu’il soit anéanti par un krach boursier l’année suivante.
La troisième raison, c’est qu’à la base, financer sa retraite, c’est se couvrir contre les risques liés à la vieillesse (être dans l’incapacité physique ou mentale de travailler à âge élevé et ignorer combien de temps on passera à la retraite). Dans cette optique, il serait paradoxal de couvrir un risque (le risque vieillesse) en en prenant un autre (le risque financier).
Ce dernier argument ne suffit pas, toutefois, à disqualifier la capitalisation, d’autant que la répartition comporte aussi des risques.
Anne Lavigne est membre du Conseil d'administration de l'Etablissement de retraite additionnelle de la fonction publique, en qualité de personnalité qualifiée. Cette fonction est assurée à titre bénévole.