LePartisan.info À propos Podcasts Fil web Écologie Blogs REVUES Médias
Souscrire à ce flux
L’expertise universitaire, l’exigence journalistique

ACCÈS LIBRE UNE Politique International Environnement Technologies Culture

▸ les 50 dernières parutions

15.09.2025 à 12:28

Pourquoi la construction des villages JO de Paris 2024 fut une réussite

Geneviève Zembri-Mary, Professeure en Urbanisme et Aménagement, CY Cergy Paris Université

Le village des athlètes et le village des médias ont été livrés à temps et trouvent aujourd’hui une seconde vie avec des habitations, des commerces et des entreprises. Comment l’expliquer ?
Texte intégral (1755 mots)
La construction des villages et du centre aquatique olympique ainsi que les aménagements urbains ont coûté 4,5 milliards d’euros, dont 2 milliards apportés par le secteur privé. AntoninAlbert/Shutterstock

Le village des athlètes et le village des médias ont été livrés à temps. Ils trouvent aujourd’hui une seconde vie avec des habitations, des commerces et des entreprises. Comment l’expliquer ? En partie grâce à la loi de 2018 relative à l’organisation des Jeux olympiques et paralympiques. Ce sont également des bâtiments bas carbone et étudiés pour être réversibles, en particulier dans le cas du village des athlètes.


Le contrat de ville hôte signé entre Paris 2024 et le Comité international olympique (CIO) pour accueillir les Jeux olympiques et paralympiques (JOP) a prévu de réaliser seulement trois ouvrages nouveaux : le village des médias, le village des athlètes et le centre aquatique olympique. Ces constructions devaient être durables, avec une empreinte carbone réduite, et faire partie de l’héritage des JOP.

Les Jeux olympiques et paralympiques ont pu être critiqués par des mouvements citoyens en raison de leur coût, de l’absence de garantie gouvernementale sur les risques des projets ou de leur empreinte carbone liée aux déplacements des visiteurs et à la construction de nouvelles infrastructures. Le CIO a donc établi des recommandations pour limiter le nombre de nouveaux sites olympiques et leur empreinte carbone avec l’agenda olympique.

Cela implique pour la ville hôte d’agir dans deux domaines :

  • Faire en sorte que la réalisation des infrastructures et des projets urbains rencontre le moins d’incertitudes pour être livrée à temps.

  • Construire des infrastructures sportives et des projets urbains durables avec une empreinte carbone réduite pour la phase « Héritage ».

Pour quel bilan de ces ouvrages olympiques ? Avec quelles innovations ? Dans notre étude, nous analysons tout particulièrement les nouveautés juridiques du droit de l’urbanisme mises en œuvre pour les JOP de Paris et la réversibilité des ouvrages olympiques.

Livrer à temps

Le contrat de ville hôte oblige à livrer le centre aquatique olympique, le village des athlètes et le village des médias pour la date des JOP. La Société de livraison des ouvrages olympiques (Solideo) a été en charge de cette mission.

Les JOP bénéficiant d’une couverture médiatique mondiale, les enjeux financiers liés aux droits de retransmission télévisés perçus par le CIO sont particulièrement importants. Ces droits ont atteint 3,107 milliards de dollars pour Tokyo 2020. Une ville hôte cherche quant à elle à se mettre en valeur à l’échelle internationale, en étant sensible à tout risque réputationnel. Livrer à temps était une nécessité pour la SOLIDEO et les acteurs privés impliqués dans la construction.

L’organisme public a dû faire face aux incertitudes liées à ces projets d’infrastructures. Le village des médias a fait l’objet de deux recours par deux associations locales pour des raisons environnementales. La construction des ouvrages a été exposée à l’arrêt et au ralentissement de l’activité pendant la pandémie de Covid-19. D’autres incertitudes pouvaient impacter le planning, comme des délais allongés pour obtenir les permis de construire ou exproprier.

Mégaprojets urbains

Le village des athlètes de Saint-Denis, de Saint-Ouen et de l’Île-Saint-Denis, et le village des médias de Dugny, en Seine-Saint-Denis, sont les deux projets urbains des JOP. Le village des athlètes a pu accueillir 15 000 athlètes. Le village des médias a pu loger 1 500 journalistes et techniciens.

Les bâtiments deviennent aujourd’hui des logements, bureaux, services et commerces. Ils sont considérés comme des mégaprojets urbains. La zone d’aménagement concerté du village des athlètes a une surface de 52 hectares et accueillera 6 000 nouveaux habitants et 6 000 salariés, une fois l’ensemble des travaux de transformation terminés en 2025, et en fonction du rythme de vente. Les ventes sont en cours.

La zone d’aménagement concerté du village des médias compte 70 hectares, et 1 400 logements à terme. Elle est desservie par la gare du tramway T11 de Dugny-La Courneuve et le RER B du Bourget. Elle bénéficiera, comme le village des athlètes, de la desserte des futures lignes 16 et 17 du Grand Paris Express. Des parcs, des commerces, des équipements publics sont aussi réalisés. La construction des villages et du centre aquatique olympique, ainsi que les aménagements urbains ont coûté 4,5 milliards d’euros, dont 2 milliards apportés par le secteur privé.

Loi olympique et paralympique de 2018

Aussi pour faire face aux incertitudes pouvant affecter habituellement la réalisation des projets urbains et les livrer à temps, la Solideo a intégré par anticipation une marge au planning. La réalisation des villages et du centre aquatique olympiques a également bénéficié d’une loi olympique et paralympique votée en 2018. Elle a permis de réduire les délais et de sécuriser juridiquement la réalisation des projets pour la date des JOP par rapport aux procédures habituelles du code de l’urbanisme. Ont été mis en place :

  • Une procédure d’expropriation d’extrême urgence, qui a permis à la Solideo d’exproprier plus rapidement que la procédure classique, les propriétaires des terrains et immeubles des zones de construction des équipements olympiques. Les expropriations essentiellement faites pour le village des médias et le village des athlètes ont été peu nombreuses.

  • Des consultations publiques par voie électronique dans le cadre de la concertation. Ces consultations électroniques ont supprimé de fait les réunions publiques de discussion sur le projet, plus longues à mettre en place dans le cadre d’une concertation classique.

  • L’innovation juridique du permis de construire à double état. En une seule fois, il confie au maire le droit de donner un permis de construire pour les deux usages des bâtiments des villages : (i) la construction des logements des athlètes et des logements des journalistes de la phase Jeux et (ii) leur transformation en quartier d’habitations, de bureaux et de commerces classique lors de la phase Héritage des JOP.

  • La cour administrative de Paris, censée être plus rapide pour statuer, devait juger les éventuels recours contre les trois projets, en remplacement du tribunal administratif. Cela évitait que la réalisation des équipements olympiques ne prenne de retard par rapport à la date des JOP. La Cour administrative d’appel de Paris a eu notamment à statuer sur les deux recours contre le village des médias en avril 2021. Ces recours ont occasionné un retard d’un mois du début de la construction du projet.

Réversibilité bas carbone

La réversibilité consiste à concevoir un bâtiment pour que son usage puisse changer plusieurs fois dans le temps. Par exemple, le village des athlètes a été conçu pour :

  • Intégrer des chambres et des sanitaires lors de la phase Jeux pour les athlètes.

  • Transformer les espaces en logements familiaux lors de la phase Héritage. Par exemple, les réseaux d’arrivée d’eau et d’électricité pour les futures cuisines des logements ont été prévus lors de la construction, ainsi que la modification des cloisons.

Le village des médias, le village des athlètes et le centre aquatique olympique ont été conçus avec des principes de construction circulaire et bas carbone pour limiter leur impact environnemental. La construction circulaire permet par exemple de récupérer une partie des matériaux pour les réutiliser pour d’autres constructions après la phase Jeux.

Les sites olympiques devaient aussi avoir une empreinte carbone réduite. Dans le cas de Paris 2024, celle-ci est divisée par deux grâce à une conception bioclimatique des bâtiments, une bonne isolation, des protections solaires, la récupération d’énergie, le réemploi des matériaux, la construction bois et béton bas carbone, le transport fluvial des matériaux, le recyclage de ces derniers.

La réversibilité est en cours d’achèvement au village des athlètes où elle est la plus importante par rapport au village des médias. La vente des appartements, des bureaux et des commerces est en cours. Elle connaît cependant un ralentissement et une baisse des prix de vente au village des athlètes liée en partie au ralentissement plus général du marché.

The Conversation

Geneviève Zembri-Mary a reçu des financements de Cergy Paris université pour cette recherche.

PDF

15.09.2025 à 12:28

Concilier rentabilité et émission de carbone, c’est possible

Ethan Eslahi, Professeur de finance, spécialisé en économie et finance de l’énergie et de l’environnement, et en modélisation prédictive, IÉSEG School of Management

Pour que le principe « pollueur-payeur » soit pleinement efficace, il faut questionner la façon dont les entreprises définissent la performance… environnementale, financière ou les deux.
Texte intégral (1204 mots)
Un marché de quotas carbone est un système d’échange de droits d’émissions de gaz à effet de serre, de crédits carbone et de quotas carbone. AndriiYalanskyi/Shutterstock

Pour que le prix du carbone, et le principe du « pollueur-payeur », soient pleinement efficaces, il ne suffit pas d’agir sur le marché lui-même, mais sur la manière dont les entreprises définissent la notion même de performance… environnementale, financière ou les deux.


Le système d’échange de quotas d’émission de l’Union européenne (SEQE-UE), fondé sur le principe « pollueur-payeur », vise à inciter les entreprises à réduire leurs émissions de gaz à effet de serre en augmentant le coût de ces émissions. Dès 2005, ce mécanisme a constitué le cœur de la stratégie climatique de l’Union européenne.

Pour les entreprises, le prix du carbone a un double visage : il peut encourager les investissements verts, mais il alourdit aussi la facture des plus gros émetteurs. Alors, les entreprises réagissent-elles toutes pareillement à ce signal-prix ?

Dans notre étude, nous montrons que l’effet concret de ce signal dépend de la manière dont la performance est définie en interne – c’est-à-dire selon que l’on accorde plus ou moins de poids aux résultats financiers, environnementaux, ou à une combinaison des deux.

Définir sa performance

Les entreprises sont de plus en plus appelées à évaluer leur exposition aux risques liés au climat, par exemple via un prix interne du carbone utilisé dans leur planification stratégique. La manière dont elles définissent leur performance conditionne leur capacité à anticiper les coûts futurs du carbone et à ajuster leurs décisions en conséquence.

Cet enjeu de définition de la performance se traduit déjà dans certaines pratiques. En avril 2023, Getlink (ex-groupe Eurotunnel) a introduit une « marge de décarbonation ». Cet indicateur financier mesure la capacité de l’entreprise à s’adapter à la hausse des coûts carbone en soustrayant les coûts futurs d’émissions au résultat opérationnel (EBITDA).

Cette initiative illustre l’importance croissante de relier directement les dimensions financière et environnementale.

Rentabilité et émissions

Notre étude porte sur environ 3 800 entreprises soumises au SEQE-UE dans 28 pays européens, sur la période 2008–2022. Il s’agit d’un échantillon représentatif des entreprises couvertes par ce système, issues de secteurs comme l’énergie, l’acier, le ciment, la chimie, la papeterie ou l’aviation, qui déclarent chaque année leurs émissions vérifiées. À partir de ces données, nous construisons pour chaque entreprise un indicateur composite de performance combinant deux dimensions : la rentabilité opérationnelle (mesurée par la marge d’EBITDA) et les émissions de gaz à effet de serre.


À lire aussi : Le prix interne du carbone : un outil puissant pour les entreprises


Nous proposons un cadre d’analyse multidimensionnel : au lieu de traiter la performance financière et la performance environnementale comme des dimensions distinctes ou opposées, nous les combinons dans un indice unique. Nous faisons varier le poids relatif accordé à chacune des deux dimensions pour générer plusieurs profils types d’entreprises, allant d’une vision 100 % financière à une vision 100 % environnementale de la performance.

Nous analysons ensuite, à l’aide d’une modélisation prédictive, alimentée par le Stochastic Extreme Gradient Boosting, un outil avancé d’apprentissage automatique, dans quelle mesure le prix moyen du quota carbone d’une année peut prédire l’évolution de cette performance composite l’année suivante. Cela nous permet d’évaluer si – et pour quels profils – le signal-prix du carbone est effectivement pris en compte par les entreprises dans leurs décisions stratégiques.

Performance conditionnelle au prix du carbone

Nos résultats montrent que l’effet du prix du carbone dépend fortement de la pondération accordée aux deux dimensions de performance. Lorsque la performance est définie principalement selon la rentabilité financière, une hausse du prix du carbone a un effet négatif significatif sur la performance globale. Cela s’explique par le fait que les coûts supplémentaires induits par les quotas érodent la marge opérationnelle.

À l’inverse, lorsque la performance est définie en mettant davantage l’accent sur la réduction des émissions, le lien entre le prix du carbone et la performance devient beaucoup plus faible, voire inexistante. Ce résultat suggère que les entreprises ayant déjà intégré une logique de réduction des émissions peuvent être moins sensibles aux variations du prix du carbone – soit parce qu’elles ont déjà accompli l’essentiel des efforts, soit parce qu’elles réagissent davantage à d’autres types d’incitations (réglementaires, normatives ou réputationnelles).

Incitations alignées

Les investisseurs financiers peuvent intégrer ce type d’indice composite financier environnemental dans leur évaluation des entreprises. Cela leur permettrait d’identifier celles qui sont les plus vulnérables à une hausse du prix du carbone, ou au contraire les plus aptes à aligner performance économique et objectifs climatiques.

Pour les régulateurs du système d'échanges de quotas d'émissions (SEQE-UE), nos résultats confirment l’importance d’accompagner le signal-prix d’un cadre plus structurant : publication obligatoire d’indicateurs intégrés dans le cadre de la directive européenne Corporate Sustainability Reporting Directive (CSRD), mise en place de corridors de prix pour assurer la prévisibilité du marché, ou encore le soutien ciblé aux entreprises qui prennent des risques environnementaux sans retour immédiat sur la rentabilité.

Les citoyens peuvent également jouer un rôle actif en soutenant les initiatives qui rendent visibles les compromis entre rentabilité et réduction des émissions. Par exemple, ils peuvent exiger que les entreprises publient des indicateurs combinés permettant de suivre simultanément leur performance financière et environnementale.

The Conversation

Ethan Eslahi ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

15.09.2025 à 12:28

Quand Dexter inspire Shein : comment les antihéros transforment la publicité

Frédéric Aubrun, Enseignant-chercheur en Marketing digital & Communication au BBA INSEEC - École de Commerce Européenne, INSEEC Grande École

Les marques s’inspirent des antihéros de séries pour transformer leurs controverses en atouts marketing, exploitant notre tolérance pour neutraliser les critiques.
Texte intégral (1496 mots)
L’ambiguïté d’un personnage comme Dexter pose des problèmes quand elle devient un moteur de la publicité.

C’était fatal : le succès de séries mettant en avant des antihéros amoraux infuse dans la communication des entreprises, et notamment dans la publicité. Mais ce qui peut être accepté dans une série mettant en exergue l’ambiguïté humaine peut-il être acceptable quand il est manipulé par des publicitaires ?


Dexter Morgan (Dexter, 2006-2013), le tueur en série « éthique », Walter White (Breaking Bad, 2008-2013), le professeur devenu baron de la drogue, ou Joe Goldberg (You, 2018-2025), le stalker (harceleur) romantique… Ces personnages fascinent les téléspectateurs depuis deux décennies. Mais leur influence dépasse aujourd’hui l’écran : elle transforme les codes publicitaires.

« Je ne suis pas en danger, Skyler. Je suis le danger »

Cette réplique de Walter White dans Breaking Bad illustre parfaitement le succès des antihéros sériels : des personnages moralement ambigus qui franchissent les lignes rouges : ils tuent, trafiquent, harcèlent. Leur particularité ? Ils se présentent comme des justiciers suivant leur propre code moral – distinct des règles sociales et religieuses traditionnelles – tout en nous faisant éprouver de l’empathie pour eux. Désormais, cette nouvelle grammaire narrative inspire aussi certaines marques.

L’art de la transgression assumée

Un des exemples frappants est celui de Shein en 2025. Face aux critiques sur la fast-fashion et à un projet de loi français pénalisant sa promotion, la marque n’a pas choisi la discrétion. Sa campagne « La mode est un droit, pas un privilège » transforme la contrainte en opportunité narrative, se présentant comme victime d’une élite voulant priver les classes populaires d’accès à la mode.

Cette stratégie rappelle directement celle de Dexter Morgan et son fameux « code » : une ligne de conduite personnelle qui justifie ses meurtres en ne s’attaquant qu’aux méchants. Comme Shein avec sa défense de la démocratisation de la mode, Dexter se présente comme un justicier suivant des règles éthiques strictes.


À lire aussi : L’IA dans la publicité : l’humour comme stratégie de légitimation


Mais le parallèle va plus loin. Dexter, malgré son code, cause régulièrement des « dommages collatéraux » – des victimes innocentes qui échappent à sa logique initiale. De même, Shein brandit son éthique de l’accessibilité tout en générant des externalités négatives : pollution, conditions de travail précaires, surconsommation.

Les réactions sur les réseaux sociaux à la campagne Shein illustrent cette tension. L’analyste digitale Audrey Lunique (ATaudreylunique) a décortiqué cette stratégie sur X :

Détourner l’attention au nom d’un pseudo-code moral

Cette analyse révèle exactement le mécanisme de l’antihéros : utiliser un code moral (démocratisation de la mode) pour détourner l’attention des « dommages collatéraux » (exploitation, pollution). Comme Dexter qui justifie ses meurtres par sa lutte contre les « méchants », Shein présente ses pratiques destructrices pour l’environnement et les conditions de travail comme un combat pour la justice sociale.

D’autres marques adoptent ce genre de posture transgressive, comme, par exemple, Balenciaga, qui s’était approprié des codes de l’antihéros avec ses campagnes controversées de 2022. La maison de luxe avait provoqué un tollé en diffusant des photographies montrant des enfants tenant des sacs en forme d’ours équipés d’accessoires BDSM.

Attaquer puis se victimiser

Face aux accusations de sexualisation de mineurs, le directeur artistique Demna s’est d’abord défendu :

« Si j’ai voulu parfois provoquer à travers mon travail, je n’ai jamais eu l’intention de le faire avec un sujet aussi horrible que la maltraitance des enfants. »

Cette défense révèle le même schéma narratif : d’abord revendiquer un « code » artistique supérieur, puis admettre les dégâts quand la pression devient trop forte. Comme les antihéros de fiction, Balenciaga s’est positionné en incomprise, victime d’une société incapable de saisir sa vision créative.

Burger King illustre une version plus subtile de cette logique avec sa campagne « Moldy Whopper » (2020), qui montre délibérément un burger en décomposition. Comme Dexter qui expose la vérité crue de ses victimes, Burger King révèle la réalité de son produit sans conservateurs artificiels. La marque assume la laideur apparente (moisissure) pour revendiquer une supériorité éthique (naturalité).

Trois mécanismes de transfert culturel

Cette appropriation des codes de l’antihéros s’explique par trois phénomènes.

La saturation culturelle d’abord. Les plateformes de streaming ont démocratisé l’accès aux séries, créant un référentiel culturel partagé. Les publicitaires puisent dans ce répertoire pour créer une connivence immédiate avec leurs audiences.

La fatigue de l’authenticité performée ensuite. Après des années de communication corporate lisse, les consommateurs se méfient des discours trop parfaits. L’antihéros publicitaire apparaît paradoxalement plus crédible parce qu’il assume ses défauts. Ce phénomène s’inscrit dans une évolution plus large de la publicité face aux nouvelles technologies, où les marques cherchent constamment de nouveaux codes pour maintenir l’attention.

La légitimation par association culturelle enfin. En adoptant les codes d’œuvres « de prestige », les marques opèrent un transfert de légitimité. Si Walter White peut être fascinant malgré ses crimes, pourquoi Shein ne pourrait-elle pas être acceptable malgré ses controverses ?

L’empathie trouble au service du commerce

Le psychologue Jason Mittell a théorisé la notion d’« empathie trouble » que nous développons envers ces personnages complexes. Cette « empathie trouble »désigne notre capacité à nous attacher à des personnages (ou ici des marques) dont nous désapprouvons les actes. Nous savons que Walter White détruit sa famille, mais nous comprenons ses motivations initiales. Cette ambivalence émotionnelle, fascinante en fiction, devient manipulatoire quand elle sert des intérêts commerciaux dans la réalité.

Le succès durable de Dexter en témoigne : huit saisons initiales, puis New Blood (2021), Original Sin (2024) et Resurrection (2025).

Cette multiplication s’étend aux séries anthologiques comme Monsters (2022-2025), explorant les psychés de tueurs historiques.

Mais cette empathie devient problématique quand elle s’applique aux marques. La fiction nous apprend à suspendre notre jugement moral ; la publicité exploite cette suspension.

Vers un marketing de la transgression ?

Cette tendance soulève des questions cruciales pour l’avenir de la communication commerciale. La normalisation de la transgression publicitaire risque de déplacer les limites de l’acceptable, créant une spirale de surenchère provocatrice.

Les professionnels du marketing doivent développer une réflexivité critique. L’efficacité à court terme d’une campagne provocante doit être mise en balance avec ses externalités sociales : normalisation de comportements problématiques, érosion de la confiance, contribution à un climat de transgression généralisée.

Les séries nous ont appris à accepter la complexité morale. Mais quand cette leçon s’applique aux marques, elle peut devenir un outil de manipulation redoutable. À l’heure où 71 % des consommateurs attendent des marques qu’elles s’engagent sur des sujets de société, cette fascination pour la transgression interroge notre rapport à l’éthique commerciale.

The Conversation

Frédéric Aubrun ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

15.09.2025 à 12:27

Les leçons marketing d’un chef-d’œuvre télévisuel, « Mad Men »

Albéric Tellier, Professeur Agrégé des Universités en sciences de gestion, Université Paris Dauphine – PSL

Emeline Martin, Maîtresse de conférences en sciences de gestion, Université d’Angers

La série « Mad Men » suit les créateurs et les salariés d’une agence de publicité new-yorkaise, dans les années 1960. Mais ce qu’elle nous dit du marketing et de la publicité va bien au-delà.
Texte intégral (1651 mots)
Le surnom « _mad men_ » était donné aux dirigeants et créatifs des agences de publicité situées sur Madison Avenue à New York. Dans la série, les pérégrinations des personnages féminins mettent en évidence les permanences et les transformations des rapports entre femmes et hommes au cours des années 1960. AMC/Arte

Si vous ne l’avez vu, vous pouvez découvrir gratuitement sur Arte une série majeure de la dernière décennie : « Mad Men ». Ses personnages évoluent dans une agence de publicité new-yorkaise dans les années 1960. Au-delà de la fiction, que nous dit cette série sur le monde de la publicité et du marketing ?


Depuis la rentrée, Arte propose gratuitement l’intégrale de la série Mad Men. L’occasion idéale de (re)voir une série acclamée par la critique et d’en apprendre beaucoup sur l’histoire du marketing, ses évolutions et ses dérives.

Créée par Matthew Weiner, Mad Men propose aux spectateurs de suivre les destins croisés des membres de l’agence de publicité new-yorkaise Sterling Cooper et de leurs proches, tous confrontés aux transformations profondes, rapides et parfois brutales de la société américaine. Les 92 épisodes, regroupés en sept saisons, offrent une véritable plongée dans une décennie marquante pour les États-Unis : la séquence inaugurale nous emmène dans un bar de Manhattan en mars 1960, tandis que celle qui clôture la saga se déroule à la fin de l’année 1970 sur les hauteurs d’une falaise californienne. Entre ces deux dates, les personnages devront faire face à de nombreux changements politiques, sociaux, technologiques et culturels, impactant à la fois leurs situations personnelles et leurs activités professionnelles.

Au-delà de ses indéniables qualités qui ont fait l’objet de nombreuses analyses, cette immersion dans l’univers des professionnels chargés de vendre le rêve américain, notamment le directeur de la création Don Draper et la rédactrice-conceptrice Peggy Olson, nous offre une occasion idéale de comprendre l’essor du marketing, ses évolutions récentes et ses travers. Pour cela, les concepteurs se sont appuyés sur des faits et des cas réels, ou tout au moins crédibles. Tout au long des épisodes, les membres de Sterling Cooper travaillent pour des marques comme Chevrolet, Heineken, Heinz, Honda, Kodak, Lucky Strike, Playtex, etc.

Une saga pour comprendre l’essor du marketing…

La décennie couverte par Mad Men est une période charnière pour le marketing, celle où il s’impose définitivement comme une discipline sophistiquée qui doit impérativement être enseignée, et une fonction centrale dans l’entreprise au même titre que la production ou la finance. On assiste ainsi au fil des saisons à la transformation d’un domaine essentiellement pratique, largement nourri des expériences de terrain et des expérimentations des directions commerciales, à un corps de connaissances formalisées, enrichi de travaux de recherche dédiés et des apports d’autres sciences sociales comme la psychologie, la sociologie ou l’économie.


À lire aussi : L’art du marketing selon « Mad Men »


Dans ce contexte, les agences de publicité ne peuvent plus se contenter de concevoir des campagnes et de vendre des espaces publicitaires. Elles doivent se convertir en agences « à service complet », capables de prendre à leur compte des activités d’études de marché et de tests de produits afin de mettre au jour les attentes, freins et motivations d’un consommateur qui n’est pas toujours rationnel. Mais chez Sterling Cooper, la transformation n’est pas aisée car ses responsables ont débuté leur carrière au moment où la communication était avant tout affaire d’intuition et de « génie créatif ».

… et ses transformations

Bien entendu, depuis les années soixante, le marketing a connu d’importantes transformations, avec des contraintes qui s’additionnent, et qui peuvent être résumées en trois grandes périodes :

  • le marketing transactionnel (1950-1980)

  • le marketing relationnel (1980-2000)

  • le marketing expérientiel (2000-…).

Au sein de Sterling Cooper, l’accent est essentiellement mis sur la transaction. Il faut multiplier les ventes en maximisant la valeur de la prestation que le client obtiendra dans l’échange. Dans les années 1980 cependant, les priorités changent. La transaction reste déterminante, mais on cherche à construire des relations durables avec les clients et à conserver leur confiance sur le long terme. Enfin, au début des années 2000, le marketing devient « expérientiel ». Le consommateur est désormais plus individualiste et volatile. Il veut se sentir accompagné, voire choyé, tout au long du processus qui va le mener à l’achat et attend de la consommation qu’elle soit une activité agréable, divertissante mais aussi cohérente avec ses valeurs.

À la lecture de ce découpage chronologique, une question vient immédiatement à l’esprit : la série Mad Men se déroulant dans les années 1960, peut-on l’utiliser pour cerner les évolutions les plus récentes du marketing ?


À lire aussi : Le Moyen Âge a‑t‑il inventé la publicité ?


Des anachronismes bien utiles pour cerner les pratiques du marketing contemporain…

La série a été unanimement saluée pour l’exceptionnelle qualité de sa restitution de l’Amérique des sixties. Pour autant, les concepts et méthodes de marketing qui sont évoqués sont souvent plus en phase avec les connaissances et pratiques actuelles. Paradoxalement, ces anachronismes ajoutent un intérêt supplémentaire à la série.

Les personnages de Mad Men raisonnent et agissent souvent comme le feraient aujourd’hui de nombreux responsables marketing. Dans le dernier épisode de la première saison, Don Draper s’appuie sur le sentiment de nostalgie pour concevoir une campagne de communication, une approche très rare à l’époque mais désormais courante. Plus tard (saison 6, épisodes 1 et 2), il se montrera très en avance sur son temps en proposant aux responsables d’une chaîne hôtelière une approche typique du marketing expérientiel que nous évoquions plus haut :

« Ce que j’ai vécu était très différent des [vacances habituelles]. On ne doit pas vendre une destination géographique. On va vendre une expérience »

Un projet tellement novateur qu’il ne sera pas retenu… Sous la houlette de ce directeur de la création à la fois fascinant et détestable, les équipes de Sterling Cooper seront également amenées à travailler dans des contextes de plus en plus variés et à imaginer des actions inédites pour l’époque mais habituelles aujourd’hui. C’est ainsi que la série Mad Men permet d’aborder le marketing de l’innovation, le marketing social, le marketing public et territorial ou le marketing viral, alors qu’ils n’existaient qu’à un état embryonnaire dans les années 1960.

… mais aussi ses dérives

Loin d’être des « génies » du marketing, les membres de l’agence font parfois des erreurs, n’utilisent pas très bien les méthodes à leur disposition, et sont même parfois guidés par des intentions fort discutables. Quand nous faisons connaissance avec Don Draper, il est à la recherche des moyens qui permettraient au cigarettier Lucky Strike d’éviter une législation jugée trop contraignante et ne semble avoir aucun scrupule à manipuler les clients. Quand nous le retrouvons dans la quatrième saison, en train de tenir un discours engagé et percutant devant les membres d’une association de lutte contre le tabac, nous comprenons rapidement que son intention véritable est de trouver de nouveaux clients au moment où l’agence vit une période bien délicate.

Ainsi, la série Mad Men est un formidable support pour montrer la puissance du marketing mais aussi ses dérives. Celles-ci ne doivent pas être relativisées. Cependant, qu’on veuille critiquer les finalités et pratiques du marketing, les mettre à profit, ou les renouveler pour participer à l’essor d’un marketing responsable, il est nécessaire dans tous les cas de les comprendre. Un objectif que le visionnage de l’intégralité de Mad Men permet d’atteindre.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

14.09.2025 à 18:05

Le colostrum, premier lait maternel : bénéfices, méconnaissance et croyances

Joël Candau, Professeur émérite en anthropologie, Université Côte d’Azur

Véronique Ginouvès, Ingénieure de recherche, responsable du secteur Archives de la recherche, archives en sciences humaines et sociales, Aix-Marseille Université (AMU)

Les pratiques liées à l’allaitement maternel du bébé – et plus particulièrement le don de colostrum secrété après l’accouchement – varient dans le monde. Ses bienfaits sont pourtant démontrés.
Texte intégral (2420 mots)

Les bienfaits de l’allaitement maternel du nourrisson sont démontrés. Pourtant cette pratique varie dans le monde, notamment durant les deux premiers jours suivant l’accouchement, qui correspondent au don de colostrum. Un programme pluridisciplinaire, mené dans sept pays sur quatre continents et qui allie biologie et anthropologie, s’intéresse à ce fluide sécrété par les glandes mammaires.


En 2003, l’Organisation mondiale de la santé (OMS) et le Fonds des Nations unies pour l’enfance (Unicef) ont déployé deux stratégies visant l’initiation à l’allaitement maternel dans la première heure qui suit l’accouchement, ainsi que l’allaitement maternel exclusif pendant les six premiers mois de l’enfant. Ces stratégies étaient fondées sur les multiples bienfaits de l’allaitement maternel pour l’enfant.

Mais, encore aujourd’hui, on observe des disparités géographiques, socioéconomiques et culturelles en matière d’allaitement maternel, notamment au cours des deux premiers jours de l’alimentation du nouveau-né. Cette courte période correspond au don du colostrum, ce liquide jaunâtre sécrété par les glandes mammaires les premiers jours après un accouchement.

C’est avec l’objectif de comprendre ces disparités que nous avons développé entre 2013 et 2016 un programme de recherche fondamentale baptisé « Colostrum » qui a pour objectif d’inventorier et d’analyser les différentes pratiques de don du colostrum dans sept pays de quatre continents : Allemagne, Bolivie, Brésil, Burkina Faso, Cambodge, France et Maroc.

Les bénéfices de l’allaitement maternel pour le nourrisson

Les bienfaits de l’allaitement maternel sont multiples pour le nourrisson. Pratiqué dès la première heure, l’allaitement maternel réduit la mortalité néonatale (jusqu’à 28 jours d’âge) et infantile précoce (jusqu’à 6 mois d’âge). Il favorise également la réduction du risque de surpoids à tous les âges et le développement cognitif, selon des conclusions de l’Agence de sécurité sanitaire (Anses).

Des données suggèrent également d’autres effets positifs de l’allaitement maternel : sur l’immunité, sur les risques de diabète de type 1, de leucémies ou encore d’otites moyennes aiguës (mais seulement jusqu’à l’âge de 2 ans pour ces dernières), d’infections des voies urinaires ou encore d’asthme.

Des avantages aussi pour les parents et pour la mère

Enfin, l’allaitement maternel présente l’avantage économique d’être gratuit et l’avantage psychologique de renforcer le lien entre la mère et l’enfant.

Pour la mère, l’allaitement réduirait le risque de cancer ovarien. Des données scientifiques robustes montrent qu’il prévient le cancer du sein, améliore l’espacement des naissances et pourrait limiter le risque de diabète de type 2 chez la mère.

Peu de données sur le colostrum des premiers jours

On oublie souvent que cet éventail de bienfaits sur le plan de la santé n’est pas dû uniquement au lait maternel. En effet, les premiers jours du nourrissage du nouveau-né, la mère ne lui donne pas du lait mais du colostrum secrété par les glandes mammaires.

Sur le plan nutritif, le colostrum est plus riche en protéines mais plus pauvre en lactose et en lipides. Il se caractérise aussi par une teneur importante en anticorps – à un taux jusqu’à 100 fois plus élevé que dans le lait mature –, en agents anti-infectieux, etc. Bref, sa composition semble particulièrement adaptée pour favoriser le développement du nouveau-né et l’aider à se défendre contre les infections.

Toutefois, les études sur les bienfaits du colostrum restent insuffisantes, surtout dans une perspective bioculturelle.

Malgré le consensus scientifique sur les bienfaits de la pratique de l’allaitement, le colostrum est considéré dans diverses sociétés comme impur et, par conséquent, malsain pour l’enfant, la mère différant l’alimentation au sein jusqu’à ce que le lait s’y substitue.

Anthropologie et biologie du colostrum

Pour comprendre les disparités géographiques, socioéconomiques et culturelles en matière d’allaitement maternel, et notamment celles liées au don du colostrum, notre programme a réuni des chercheurs en sciences sociales et en sciences de la vie.

Notre communauté de chercheurs s’est donné un triple objectif :

  • i) documenter les pratiques et représentations relatives à cette substance,

  • ii) mieux connaître ses propriétés biologiques,

  • iii) contribuer à l’élaboration de messages efficaces de promotion de sa consommation.

Le programme comprenait trois volets : les deux premiers (anthropologique et biologique) concernaient la recherche proprement dite, le troisième (open science) l’archivage des données anthropologiques.

Le volet anthropologique a consisté à mener des enquêtes ethnographiques sur les pratiques et sur les représentations relatives au colostrum dans les sept pays cités afin d’identifier les variables culturelles susceptibles d’expliquer sa consommation ou sa non-consommation.

Le volet biologique comportait deux axes. Le premier, psychobiologique, a porté sur les propriétés sensorielles et fonctionnelles du colostrum chez la souris et dans l’espèce humaine. Le second, immunologique, s’est attaché à l’analyse du potentiel immunologique du colostrum et de son effet sur la prévention des allergies.

La perspective interdisciplinaire a consisté à mettre en regard les données anthropologiques avec la recherche des bénéfices biologiques du colostrum pour la santé de l’enfant et de la mère.

Dans sa globalité, l’ambition du programme était de produire des connaissances utiles aux politiques de santé publique menées dans les pays enquêtés.

Représentations, perceptions sensorielles et psychobiologie

Les données ethnographiques ont confirmé que cet acte a priori entièrement naturel qu’est le don du colostrum est l’objet de forts investissements culturels. Elles ont également montré que ces derniers se traduisent par une mosaïque de pratiques et de représentations qui est elle-même le fruit d’une hybridation et d’une hiérarchisation des savoirs académiques et traditionnels.

Ainsi, les données de terrain de l’étude que nous avons menée dans une maternité de Phnom Penh, la capitale cambodgienne, illustrent combien sont intriqués les savoirs qui circulent autour de la consommation du colostrum.

Extrait d’un entretien auprès d’une femme âgée de 36 ans ayant accouché de son deuxième enfant. Elle évoque sa crainte de ne pas avoir de lait :
« Il tète, mais il n’y a pas de lait. J’ai donné du lait du commerce sinon il va mourir parce que moi, la maman, je n’ai pas de lait. » (Octobre 2014.)

En Bolivie, les mères ont une connaissance fragmentée du colostrum, contrairement au personnel de santé. Certaines notent une différence avec le lait, d’autres connaissent le nom « colostrum », notamment lorsqu’elles ont déjà accouché en milieu hospitalier. D’autres encore utilisent un autre nom. Beaucoup ne savent rien. Plusieurs mères le considèrent comme de l’eau, « aguita », mettant en doute la qualité nutritive du liquide. D’autres craignent qu’il constipe leur bébé.

Autre exemple, au Burkina Faso, le colostrum est désigné par le terme kinndi en fulfulde (langue peule) qui signifie « quelque chose de trouble », « liquide amer » ou encore « liquide impropre ». La première nourriture du nouveau-né est mise en rapport avec les notions de pollution ou encore avec des croyances thérapeutiques (par exemple, le colostrum provoquerait des diarrhées ou des indigestions).

Quant aux données psychobiologiques, elles ont montré que les nouveau-nés s’orientent préférentiellement vers l’odeur du colostrum lorsqu’elle est simultanément présentée avec l’odeur du lait mature. Les effluves du colostrum sont particulièrement attractifs et appétitifs pour les bébés. Âgés de 2 jours, ils préfèrent l’odeur du colostrum à celle du lait mature.

Enfin, sur le plan immunologique, les expériences réalisées chez la souris ont mis en évidence l’impact majeur du colostrum murin sur la croissance du souriceau.

Auprès de grands prématurés, dans un hôpital de Nice

En termes de recherche appliquée, un projet d’étude clinique a été développé sur les bienfaits de l’administration de colostrum humain aux grands prématurés au sein du service de néonatalogie de l’hôpital l’Archet de Nice (Alpes-Maritimes), qui a accueilli le projet Colostrum après l’aval du comité d’éthique.

La présentation des résultats biologiques et anthropologiques aux sages-femmes, puéricultrices et pédiatres a stimulé l’intérêt pour le don de colostrum dans ce service. La mise en œuvre du programme a permis une augmentation significative du don du colostrum aux grands prématurés. Il est passé de 16 % en 2013 à 68 % en 2016. En outre, les mères recueillent du colostrum jusqu’à 5 fois par jour contre 0 à 1 fois auparavant, ce qui a impliqué le développement de pratiques de don artificiel.

Des données ethnographiques sonores accessibles à tous

Cette recherche a également permis le développement d’un volet science ouverte (voir encadré). Les données anthropologiques et administratives de l’ANR Colostrum sont accessibles sur la plateforme de l’enseignement supérieur et de la recherche Calames, en fonction des règles éthiques et juridiques.

Une science ouverte à toutes et à tous

  • Les données ethnographiques sonores de l’« ANR Colostrum » ont été déposées auprès du secteur Archives de la recherche – Phonothèque de la médiathèque de la Maison méditerranéenne des sciences de l’homme (MMSH) d’Aix-Marseille Université.
  • Huit collectes ont été enregistrées en allemand, arabe, espagnol, français, khmer, moré, portugais, tamazight – dans les sept pays des partenaires du programme – soit 92 heures d’enregistrement transcrites et traduites en langue française. Chaque entretien a fait l’objet d’une demande d’autorisation d’utilisation auprès de chaque témoin.

Ce programme peut donc servir de tremplin pour de nouvelles recherches bioculturelles sur cet « or liquide » qu’est le colostrum. L’accès à ces résultats est également rendu possible à tous les citoyens qui le souhaitent, sous réserve des dispositions légales.


Le projet « L’alimentation pré-lactée (don et consommation néonatale du colostrum) : pratiques, représentations et enjeux de santé publique. COLOSTRUM » a bénéficié du soutien de l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.

Ce programme a associé huit équipes des universités d’Aix-Marseille, de Bourgogne, de Nice et de Paris Descartes (France), de Francfort (Allemagne), de Pelotas (Brésil) et de Sidi-Mohamed-Ben-Abdellah à Fès (Maroc), ainsi que le Centre national de la recherche scientifique et technologique (CNRST) de Ouagadougou (Burkina Faso) et la maternité de l’hôpital Calmette à Phnom Penh (Cambodge).

Cet article est rédigé dans le cadre du Festival des sciences sociales et des arts d’Aix-Marseille Université. L’édition 2025 « Science & croyances » se tient du 16 au 20 septembre. Pendant le festival, une exposition est consacrée au programme Colostrum à la médiathèque de la Maison méditerranéenne des sciences de l’homme (MMSH).

The Conversation

Joël Candau a reçu des financements de l’Agence nationale de la recherche (ANR).

Véronique Ginouvès a reçu des financements de l'agence bibliographique de l'enseignement supérieur et de la recherche, l'agence nationale de la recherche, la commission européenne, l'institut français d'islamologie.

PDF

14.09.2025 à 12:03

Procès Bolsonaro : le Brésil montre la voie aux pays où la démocratie est attaquée

Jorge Jacob, Professor of Behavioral Sciences, IÉSEG School of Management

Frederico Bertholini, Professeur de Sciences Politiques à l’Institut de Sciences Politiques de l’Université de Brasilia., Universidade de Brasília (UnB)

L’ex-président a été condamné à 27 ans de prison. Malgré les pressions, la justice brésilienne a réussi à faire de ce procès sans précédent un modèle.
Texte intégral (2297 mots)

Malgré d’intenses pressions internes (venant des partisans du président déchu) et externes (exercées par Donald Trump), la justice brésilienne a condamné Jair Bolsonaro à 27 ans de prison pour son rôle dans la tentative de coup d’État du 8 janvier 2023. Bien d’autres pays où les processus électoraux, et même la démocratie au sens large, sont menacés, peuvent trouver dans l’inflexibilité des institutions judiciaires du Brésil une source d’inspiration.


Le Tribunal suprême fédéral (STF, équivalent de la Cour suprême) du Brésil vient de condamner à 27 ans de prison l’ancien président Jair Bolsonaro, qui devient ainsi le premier ex-chef d’État du pays à être condamné pour tentative de coup d’État. Bolsonaro peut encore présenter des recours devant le STF, mais seulement après la publication de l’arrêt écrit, ce qui peut prendre plus d’un mois. Ses avocats envisagent également de saisir des instances internationales, comme la Commission interaméricaine des droits de l’homme. Pour l’instant, il n’a pas été emprisonné et reste à Brasilia, en résidence surveillée, dans l’attente des décisions sur ses recours. Si tous les recours sont rejetés et les condamnations confirmées, il devra purger sa peine en régime fermé, probablement dans une superintendência de la Police fédérale.

Ce jugement marque un tournant dans l’histoire démocratique du pays et offre au monde des leçons importantes sur la manière de freiner les dérives autoritaires et de renforcer les institutions démocratiques.

Le 8 janvier 2023, illustration du rejet de l’alternance par l’extrême droite

L’épisode le plus emblématique des actions putschistes pour lesquelles Bolsonaro a été jugé a eu lieu le 8 janvier 2023, comme je l’ai analysé dans mon article précédent publié sur The Conversation France, au moment où ces événements se déroulaient.

Ce jour-là, des milliers de partisans de Bolsonaro, qui avait été vaincu par le candidat de gauche Lula au second tour de la présidentielle tenu le 30 octobre précédent et dont le mandat avait pris fin le 1er janvier, ont marché vers la Place des Trois-Pouvoirs, à Brasilia. Ils ont envahi et vandalisé le bâtiment du Congrès national, le siège de la Cour suprême et le palais présidentiel. À ce moment-là, il existait des indices, mais pas encore de preuves concrètes, de l’implication directe de Bolsonaro.

Le projet de l’extrême droite brésilienne repose en grande partie sur des stratégies de désinformation sur les réseaux sociaux, souvent fondées sur des récits conspirationnistes. Selon l’analyse de Frederico Bertholini, professeur à l’Université de Brasilia, toute personne (y compris les responsables politiques et les juges) qui s’oppose aux objectifs ou aux tactiques de l’extrême droite est automatiquement étiquetée comme « progressiste », « gauchiste » ou « communiste », même si cette catégorisation ne reflète pas nécessairement la réalité. Ces personnes sont alors présentées par les bolsonaristes comme représentant une menace pour les libertés individuelles des Brésiliens conservateurs et des soi-disant « gens de bien ».

Dans mon précédent article, j’ai montré comment les attaques contre les institutions, menées par l’extrême droite, aggravaient les divisions au sein de la société brésilienne. Elles représentaient un défi non seulement pour le nouveau gouvernement de Lula, mais surtout pour le pouvoir judiciaire. Une question demeurait en suspens : les institutions seraient-elles capables de garantir que la volonté exprimée dans les urnes prévaudrait et que la démocratie tiendrait bon ?

Tentative de renversement de l’ordre démocratique

Après près un peu plus de deux ans d’enquête, le procès s’est donc achevé cette semaine. Dans son vote rendu ce mardi 9 septembre, le juge instructeur de l’affaire au sein de la Cour suprême, Alexandre de Moraes, a estimé que les attaques survenues peu après l’investiture de Lula ne constituaient qu’un élément d’un plan plus vaste, bien coordonné et dirigé par Bolsonaro et son entourage politique d’extrême droite (plusieurs de ses proches ont également été condamnés à des peines de prison ferme).

Les enquêtes menées par la police fédérale et le parquet général du Brésil ont révélé les preuves d’une implication directe de l’ex-président et de ses alliés dans une tentative de renversement de l’ordre démocratique, qui a culminé avec le 8 janvier, mais dont certains des faits les plus graves se seraient produits auparavant.

Selon le parquet, dès la reconnaissance de sa défaite électorale face à Lula, Bolsonaro et ses proches auraient planifié un coup d’État. Les preuves incluent des messages interceptés, des réunions publiques et secrètes, ainsi que des témoignages d’anciens collaborateurs décrivant des plans pour annuler les résultats de la présidentielle, y compris un projet de décret instaurant l’état de siège et un plan visant à assassiner Alexandre de Moraes, Lula et son vice-président, Geraldo Alckmin.

L’implication de Washington

La conclusion du procès, qui survient dans un contexte de fortes tensions internes et internationales, met en lumière la résilience des institutions démocratiques brésiliennes. Face à la possibilité réelle de condamnation de son père, le député fédéral Eduardo Bolsonaro est parti en mars 2025 aux États-Unis pour solliciter un soutien politique de l’administration Trump. Pendant ce séjour (qui continue aujourd’hui encore), il a rencontré des membres du gouvernement états-unien,dénoncé la « persécution politique » visant son père au Brésil (termes qu’il a répétés une fois la condamnation de son père prononcée) et appelé à des sanctions contre le juge Alexandre de Moraes.

Ces démarches ont conduit à des mesures concrètes : Washington a ordonné des droits de douane de 50 % sur les produits brésiliens et des sanctions contre Moraes dans le cadre du Global Magnitsky Act (une loi qui « autorise le président à imposer des sanctions économiques et à refuser l’entrée aux États-Unis aux ressortissants étrangers identifiés comme se livrant à des violations des droits de l’homme ou à des actes de corruption »).

Aligné sur Jair Bolsonaro, avec lequel il partage une idéologie d’extrême droite, des stratégies de communication similaires et des intérêts géopolitiques communs, Donald Trump, qui a déclaré en juillet que son allié était la victime d’une « chasse aux sorcières », a donc exercé des pressions économiques et diplomatiques sur le Brésil. Sans succès. À l’annonce de la condamnation de son allié, Trump a estimé que c’était « très surprenant » et que Bolsonaro était un homme « bon » et « exceptionnel », tandis que le secrétaire d’État Marco Rubio promettait que les États-Unis « réagiraient de façon appropriée ».

Leçons pour les autres pays démocratiques

La condamnation de Bolsonaro pourrait constituer un précédent historique dans la responsabilisation des dirigeants élus au Brésil et ailleurs dans le monde lorsqu’ils attentent à l’ordre démocratique. Pour la France, qui connaît elle aussi une montée de mouvements nourris par la désinformation numérique, le cas brésilien fournit des éléments de réflexion utiles sur la manière de protéger la légitimité électorale et l’indépendance des institutions. Le bon fonctionnement démocratique repose sur un équilibre institutionnel. C’est sans doute la raison pour laquelle ces institutions deviennent des cibles privilégiées des populistes autoritaires.

La fermeté de la Cour suprême brésilienne dans la conduite du procès, malgré les pressions internes et externes, illustre l’importance pour un État de disposer d’institutions autonomes, capables de résister aux menaces diplomatiques ou aux pressions autoritaires.

Une autre leçon essentielle est que les systèmes démocratiques peuvent répondre à des crises institutionnelles sans rompre avec l’État de droit. Le cas brésilien montre qu’il est possible de juger des personnalités politiques puissantes sur la base de preuves solides, en respectant les procédures et la transparence. Cela contraste avec d’autres démocraties fragilisées, où les institutions reculent face à la peur de l’instabilité, comme on l’a vu aux États-Unis ou dans d’autres pays confrontés à la montée du populisme autoritaire. Le Brésil démontre que la stabilité démocratique repose sur la responsabilisation de ses dirigeants, aussi populaires soient-ils, lorsqu’ils s’attaquent à l’ordre républicain.

Fait intéressant : le soutien de Trump à Bolsonaro semble avoir eu l’effet inverse de celui escompté. Les sondages indiquent un renforcement politique de Lula, donné favori pour la prochaine élection présidentielle, qui aura lieu en 2026.

De plus, plus de la moitié des Brésiliens soutiennent l’emprisonnement de Bolsonaro, et une majorité estiment qu’Alexandre de Moraes agit dans le respect de la Constitution. Sur le plan économique, les efforts du gouvernement Lula pour diversifier les marchés d’exportation et réduire la dépendance aux États-Unis commencent à porter leurs fruits, réduisant l’impact des nouvelles taxes promulguées par Washington. Le Mexique, notamment, s’impose comme un partenaire stratégique, capable non seulement d’absorber une part croissante des exportations brésiliennes, mais aussi de servir d’intermédiaire grâce à ses habilitations pour vendre vers des marchés exigeants comme le Japon et la Corée du Sud.

La Une d’un grand journal brésilien, proclamant à l’issue du procès « La démocratie avant tout », est devenue virale sur les réseaux. Le titre détourne le slogan bolsonariste « Le Brésil avant tout, Dieu au-dessus de tous », étroitement lié à la mouvance évangélique. Dans la foulée de la condamnation, des citoyens progressistes ont transformé les rues de Rio de Janeiro en un carnaval hors saison, symbole de célébration et de résistance démocratique.

Les implications du procès de Jair Bolsonaro dépassent donc le seul Brésil : lorsque les institutions démocratiques sont solides et bien conçues, elles peuvent faire barrage aux avancées autoritaires. Avec son passé autoritaire récent (le pays a été gouverné par une junte de 1964 à 1985) et son présent marqué par une résistance institutionnelle, le Brésil montre qu’il est possible de faire face aux pressions et de préserver la démocratie quand elle est attaquée.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

14.09.2025 à 10:56

La crise économique au Liban en 1966 a-t-elle été provoquée par les États-Unis ?

Charbel Cordahi, Professeur de Finance & Economie, Grenoble École de Management (GEM)

En 1966, le Liban connaît une crise de liquidité et la faillite de la banque Intra. Son origine : un choc récessif des États-Unis ?
Texte intégral (2920 mots)
À partir du 1<sup>er</sup>&nbsp;août 1966, plusieurs banques libanaises et étrangères retirent de leurs comptes à l’Intra-Bank environ 18&nbsp;millions de livres libanaises. Les petits épargnants suivent&nbsp;: 52&nbsp;millions de livres sont retirés entre le 3 et le 14&nbsp;octobre 1966. Mohaymen Abk/Shutterstock

En 1966, deux événements se produisent simultanément : un choc de crédit aux États-Unis et une crise bancaire au Liban, avec pour conséquence la faillite de la banque Intra (ou Intra Bank). L’origine ? L’intégration de la « Suisse du Moyen-Orient » à l’économie mondiale. Mais comment ces évènements sont-ils liés ? Qui en est à l’origine ? Qui en a le plus pâti ?


Connaissez-vous l’effet papillon, cette théorie selon laquelle le battement d’ailes d’un papillon au Brésil peut provoquer une tornade au Texas ? En économie, s’il n’existe pas en tant que tel, une crise de crédit aux États-Unis peut tout à fait être une des causes d’une faillite bancaire au Liban.

C’est ce qui s’est passé en 1966. La plupart des analyses attribuent la crise libanaise à la faillite de la banque Intra cet automne-là, ou à un échec systémique, motivé par la cupidité, les luttes de pouvoir et les intérêts acquis d’une élite, sans approfondir davantage.

Notre étude montre pourtant que cette faillite découle largement du choc récessif états-unien, qui a entraîné une hausse des taux d’intérêt internationaux. Elle remet en cause l’idée que la seule faillite de la banque Intra ait provoqué la crise de liquidité. C’est même l’inverse qui s’est produit : la crise, déclenchée par le choc états-unien, a mené à la faillite d’Intra et d’autres banques, en poussant les taux d’intérêt internationaux à la hausse.

Crise de crédit bancaire aux États-Unis

En 1966, les États-Unis connaissent une baisse inattendue de l’offre de crédit bancaire, provoquée par la décision surprise de la Réserve fédérale, la banque centrale, de limiter la création monétaire et limiter l’offre de crédits. Ce choc de crédit états-unien fut l’un des plus marquants de l’après-guerre. En novembre 1966, les taux d’intérêt états-uniens atteignent un pic de 5,75 %.

En réponse, les entreprises se tournent vers l’émission d’effets de commerce. Ces titres de créance à court terme sont émis par les entreprises pour se financer directement auprès des investisseurs, sans passer par les banques. Ils sont remboursés à l’échéance au montant de leur valeur nominale (fixée dès l’émission).

Le taux de croissance annuel des effets de commerce passe de 7,8 % en 1965 à 46,6 % en 1966. Cette augmentation s’explique par la contraction monétaire, une baisse générale des cours boursiers, et, dans une moindre mesure, par le financement de la guerre du Vietnam.

Âge d’or du Liban

Le choc monétaire de 1966 n’a pas seulement touché l’économie des États-Unis, mais s’est aussi transmis à celle du Liban, à la fois petite, ouverte et fonctionnant sous un régime de change flottant en vigueur depuis 1948. Concrètement, alors que la majorité des pays adoptent un régime de change fixe dans les années 1950-1960, les autorités monétaires libanaises interviennent seulement de temps en temps sur le marché des changes. Le taux de change est largement déterminé par le marché réservé aux banques, qui s’échangent entre elles des actifs de gré à gré.

Des années 1950 aux années 1970, le Liban est présenté comme la « Suisse du Moyen-Orient », du fait de la présence de nombreuses banques. Wikimediacommons

Le Liban connaît une forte croissance dans les années 1950, autour de 8 %. Malgré les restrictions dans les autres pays, les capitaux circulent librement au Liban. Les pétrodollars s’y installent, attirant étudiants, professionnels et entreprises. Beyrouth devient un hub financier, intellectuel et touristique. La loi sur le secret bancaire de 1956 renforce encore sa place financière. Les années 1960 prolongent cette dynamique : création de la Banque centrale en 1964, développement du secteur bancaire, afflux de capitaux et d’investissements.

C’est dans ce contexte porteur que survient le choc de mai 1966.

De 11 banques en 1950 à 79 en 1964

En raison de l’importance de l’économie des États-Unis, la hausse des taux d’intérêt du pays de l’Oncle Sam fait grimper les taux mondiaux, y compris au Liban. Les taux libanais commencent à monter dès juin 1966, un mois après le choc de mai, en passant de 5,62 % à 5,82 % en juin et à 6,07 % en juillet. La hausse des taux d’intérêt au Liban est d’abord limitée, en raison de l’excès de liquidités dans les banques. Toutefois, cet excédent devait rapidement s’amenuiser sous l’effet de la fuite des capitaux.

Dans les années 1960, le système financier libanais se caractérise par une forte dispersion des dépôts bancaires. Entre 1950 et 1964, le nombre de banques passe de 11 à 79, limitant les dépôts par institution.

Seule la banque Intra fait exception : en 1965, elle détient à elle seule un quart des dépôts au Liban. Entre 1955 et 1965, ses dépôts croissent à plus de 40 % par an, contre 26 % pour les autres banques. Intra-Bank atteint 756 millions de livres libanaises de dépôts en 1965. Ne pouvant investir localement à hauteur de ses ressources, elle se tourne vers les marchés étrangers et devint la banque privilégiée des investisseurs du Proche-Orient, notamment du Golfe.

« Hot money » et fuite des capitaux

À l’époque, les flux de capitaux sont sensibles aux taux d’intérêt (« hot money »). Ces flux d’un pays à un autre permettent de réaliser un profit à court terme sur les différences de taux d’intérêt et/ou les variations anticipées des taux de change.

De facto, la hausse des taux d’intérêt aux États-Unis, puis au Royaume-Uni provoque une fuite des capitaux du Liban vers ces deux marchés plus rentables, déclenchant la crise de liquidité de 1966. La Banque centrale libanaise, sans outils adéquats – peu de réserves, pas d’opérations d’open market (achats ou ventes de titres publics par la banque centrale sur le marché afin de réguler la liquidité et influencer les taux d’intérêt) –, ne peut relever les taux d’intérêt locaux pour endiguer la fuite.


À lire aussi : En 1933, les États-Unis sont en défaut de paiement. L’histoire peut-elle se répéter ?


La situation se dégrade en octobre 1966 quand la banque Intra suspend ses paiements. Les agents économiques, comparant les taux étrangers à ceux du Liban, transfèrent leurs fonds vers l’étranger. Cela accentue la crise, affaiblit la liquidité locale et exerce des pressions sur la livre libanaise. Entre 1966 et 1970, le nombre de banques baisse de 94 à 74.

Plus de retraits que de dépôts

À partir du 1er août 1966, les retraits quotidiens à la banque Intra dépassent les dépôts. Cette tendance est accentuée quelques semaines plus tard par des rumeurs de crise. Plusieurs banques locales et étrangères retirent environ 18 millions de livres libanaises. Les petits épargnants suivent, retirant 52 millions entre le 3 et le 14 octobre 1966.

Parallèlement, dans un contexte de hausse des taux d’intérêt à l’étranger, les clients des banques libanaises commencent à transférer une partie de leurs avoirs vers des établissements à l’étranger. Étant la principale banque du pays et la cible persistante de rumeurs, Intra-Bank subit des retraits supérieurs à ceux enregistrés dans les autres banques.

Le 6 octobre 1966, la direction d’Intra sollicite l’aide de la Banque centrale du Liban, qui lui accorde un prêt d’un an de 15 millions de livres à un taux de 7 %, contre garanties réelles.

File d’attente devant la banque Intra, en 1966. Fourni par l'auteur

Grâce à ce soutien, la banque Intra reprend les paiements à ses déposants, mais les fonds sont rapidement épuisés. La banque demande une rallonge de 8 millions, refusée par la Banque du Liban. Ce refus s’explique avant tout par le fait que celle-ci était encore trop jeune et dépourvue de moyens suffisants pour jouer pleinement son rôle de prêteur en dernier ressort. L’absence de consensus politique autour du patron de l’Intra-Bank Youssef Beidas, d’origine palestinienne et sans vrai ancrage communautaire au Liban, combinée à l’opposition des élites financières, qui cherchaient à redistribuer ses actifs vers d’autres banques, ainsi que le poids systémique d’Intra, qui aurait impliqué de mobiliser des ressources énormes, ont scellé la faillite.

Entre-temps, la direction de la banque tente de rapatrier des dépôts de New York vers Beyrouth. Avec la poursuite de la hausse des taux d’intérêt aux États-Unis, les grands déposants institutionnels états-uniens ont déjà retiré l’essentiel de leurs avoirs pour les placer ailleurs.

Intra-Bank se retrouve en grande difficulté et annonce la cessation de ses paiements, le samedi 15 octobre 1966. La crise touche d’autres banques, les déposants accélérant leurs retraits après l’annonce d’Intra.

Réaction de la livre libanaise par rapport au dollar

À la suite du choc monétaire états-unien restrictif de 1966 et comme la Banque centrale du Liban ne dispose ni des moyens ni de la volonté d’intervenir sur le marché des changes pour soutenir la monnaie nationale, la livre libanaise se déprécie. Le taux de change passe de 3,11 £ pour un dollar fin avril 1966 à 3,20 £ en septembre. En un an, le taux moyen est passé de 3,07 £ en 1965 à 3,13 £ en 1966.

Taux de change de la livre libanaise de 1964 à 1968. Fourni par l'auteur

En somme, le choc de 1966 a perturbé la croissance pendant plusieurs mois. Il a déclenché une crise de liquidité, contribué à la faillite de la plus grande banque du pays (et à la panique bancaire qui s’en est suivie), et modifié la structure des échanges commerciaux. Il a également entraîné une hausse des taux d’intérêt, une sortie de capitaux et une forte volatilité du taux de change.

Mais le Liban trouve une issue à la crise. Les dépôts reviennent en passant de 2,6 millions en 1967 à 2,9 millions en 1968. La balance commerciale s’améliore en passant de -1,7 million en 1967 à 176,3 millions de livres libanaises en 1968. Le revenu national se rétablit en enregistrant une croissance notable de 12 % en 1968. Les crédits au secteur privé reprennent en passant de 2,3 millions en 1967 à 2,4 millions en 1968. La crise est passée.

The Conversation

Charbel Cordahi ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

13.09.2025 à 19:35

Un repas gastronomique sans viande est-il concevable en France ?

Bruno Cardinale, Maître de conférences et chercheur en marketing, Université Le Havre Normandie

La viande occupe une place centrale dans les repas festifs. Et si la réussite de notre transition alimentaire passait par la transformation du repas gastronomique&nbsp;?
Texte intégral (4201 mots)

Dans l’imaginaire collectif français, un repas de fête se passe difficilement de viande, perçue comme la pièce centrale sans laquelle le plat apparaît incomplet. À l’heure où les impératifs climatiques nous invitent à réduire notre consommation carnée, il est temps de montrer que le végétal aussi peut être le cœur de la gastronomie.


Les Français comptent parmi les plus gros consommateurs de viande au monde. Cette réalité peut sembler surprenante. D’abord, parce que le nombre de flexitariens augmente. Ensuite, parce que les enjeux sanitaires dûs à une consommation excessive de viande ne sont plus ignorés. Enfin, parce que cette habitude semble relativement nouvelle.

Comme le rapportent les historiens de l’alimentation, la tradition culinaire française s’est longtemps appuyée sur les céréales, sur les légumes secs et sur les soupes, la viande restant réservée aux grandes occasions. Nous en consommons en moyenne deux fois plus aujourd’hui qu’en 1920.

Dès lors, comment comprendre cet attachement à la viande, alors même que les discours écologiques se multiplient et que sa consommation diminue en moyenne en France ? Selon les données récentes du ministère de l’agriculture et de la souveraineté alimentaire, cette baisse s’explique en fait davantage par la hausse des prix des produits carnés que par une véritable préoccupation environnementale ou nutritionnelle.

Pour mesurer l’influence encore limitée des politiques publiques sur les pratiques alimentaires, il est particulièrement instructif de pencher sur un objet culturel emblématique : le repas gastronomique des Français, traditionnellement centré sur la viande. Incarnation de l’art de vivre à la française, ce repas structuré et codifié a été inscrit sur la liste du patrimoine culturel immatériel de l’Organisation des Nations unies pour l’éducation, la science et la culture (Unesco) en 2010. Selon la définition de cette dernière, le patrimoine culturel immatériel est

« traditionnel, contemporain et vivant à la fois : il ne comprend pas seulement les traditions héritées du passé, mais également les pratiques rurales et urbaines contemporaines, propres à divers groupes culturels ».

Autrement dit, le repas gastronomique, en tant que pratique vivante, peut lui aussi évoluer face aux enjeux de transition alimentaire.

Cette évolution est d’autant plus nécessaire que la gastronomie joue un rôle central dans la transmission des normes alimentaires. C’est souvent à travers ces repas que les enfants apprennent ce qu’est un « vrai bon repas ».

La définition même du repas gastronomique des Français insiste sur cette fonction éducative :

« Des personnes reconnues comme étant des gastronomes, qui possèdent une connaissance approfondie de la tradition et en préservent la mémoire, veillent à la pratique vivante des rites et contribuent ainsi à leur transmission orale et/ou écrite, aux jeunes générations en particulier. »

Dès lors, la diminution globale de la consommation de viande touche-t-elle également ces repas gastronomiques ? Que transmet-on aujourd’hui, implicitement, lors de ces moments qui continuent de structurer l’apprentissage culinaire des plus jeunes ?

Le repas gastronomique, moment de partage résolument carné

Mariage, communion, anniversaire… dès qu’un événement prend une dimension gastronomique, la viande (et en particulier la viande rouge) reste le point d’orgue du repas. Notre étude des représentations sociales, menée auprès de 424 mangeurs, confirme que la viande occupe une place centrale dans l’imaginaire collectif du repas gastronomique.

Sur le terrain, nous avons également observé plus de 18 000 mangeurs lors de 226 repas de mariage. Les chiffres sont éloquents : plus de deux convives sur trois choisissent une viande rouge, principalement du bœuf, qui, à lui seul, pèse presque autant que toutes les autres options réunies. Le poisson additionné aux plats végétariens ne représentent qu’un dixième des choix, tandis que la volaille et le veau assurent une transition limitée. La demande pour les plats végétariens, l’agneau ou le porc demeure marginale, voire inexistante.

Ces constats soulèvent une question centrale : si les moments symboliques de partage sont systématiquement centrés sur la viande, peut-on réellement transmettre à nos enfants une culture alimentaire plus végétale ?

Bien que les plus jeunes soient sensibilisés aux questions écologiques et qu’ils consomment moins de viande que leurs parents, prescrire un repas végétarien par semaine à la cantine ne suffit pas à optimiser la transition alimentaire.

Transformer les représentations du « vrai repas »

Textures et saveurs de petits pois. Bruno Cardinale, Fourni par l'auteur

Il faut transformer durablement les représentations sociales, en agissant notamment sur le noyau central. Celui-ci désigne les éléments cognitifs les plus stables, les plus partagés et les moins questionnés. Ces idées perçues comme évidentes structurent notre manière de penser ce qu’est, par exemple, un « vrai repas ».

Selon la théorie des représentations sociales, agir sur les éléments les plus visibles et les plus partagés permet de modifier en profondeur les ancrages collectifs.

En tant que modèle normatif à forte valeur symbolique, le repas gastronomique constitue donc un levier stratégique. En transformant ce moment d’exception, on peut potentiellement influencer les pratiques du quotidien.

Dès lors, comment végétaliser davantage le menu gastronomique ?

Pour répondre à cette question, nous avons analysé les cartes de 43 restaurants aux positionnements divers, allant du fast-food au restaurant gastronomique. Notre étude fait émerger sept stratégies mobilisées au sein de diverses formules de restauration et directement transposables au repas gastronomique.

L’imitation

L’une des approches consiste à supprimer les produits animaux normalement présents dans la recette, par exemple le chili sin carne, ou d’en proposer une version pescétarienne, par exemple le cassoulet de poisson), afin de préserver un visuel proche du plat original.

Le cuisinier peut aussi utiliser des substituts très proches de la viande en apparence. Certaines marques, comme Redefine Meat, développent des « viandes végétales » appelées new meats, déjà implantées dans des chaînes comme Hippopotamus. Sur le site de Redefine Meat, la rubrique « Trouver un restaurant » illustre le déploiement de ces alternatives végétales.

Illusion d’un foie gras. Bruno Cardinale, Fourni par l'auteur

Dans un cadre gastronomique, l’imitation peut prendre des formes plus artisanales, par exemple la création d’un foie gras végétal à partir de produits bruts.

L’expérience

Ici, l’objectif n’est pas de copier la viande, mais de proposer une expérience culinaire végétarienne esthétique et narrative capable de séduire par son originalité et sa mise en scène. Il s’agit, la plupart du temps, d’une stratégie particulièrement prisée des chefs de la restauration gastronomique.

Soupe au pistou. Bruno Cardinale, Fourni par l'auteur

Des établissements comme Culina Hortus ou des recettes comme le célèbre gargouillou de Michel Bras incarnent l’expérience gastronomique végétale, dans une logique d’auteur, artistique, éthique et sensorielle.

La reconversion

Cette stratégie consiste à puiser dans la mémoire culinaire collective, en mobilisant des hors-d’œuvre ou des accompagnements traditionnellement végétariens, comme plats principaux.

On peut par exemple proposer en guise de plat, des ravioles de Royan par essence végétales, une soupe au pistou ou des légumes rôtis.

Légumes rôtis. Bruno Cardinale, Fourni par l'auteur

Dans cette logique de reconversion, il est aussi question d’inverser la proportion de légumes et de viandes dans une recette, comme chez Datil, restaurant étoilé au guide Michelin, où « l’assiette met en valeur le végétal avant tout (fruits et légumes à égalité), agrémenté d’un soupçon de protéines animales ».

La coproduction

Cette méthode repose sur des options de personnalisation, laissant au client la liberté de composer lui-même un plat végétarien selon ses préférences. Elle s’appuie sur un besoin de flexibilité et d’adaptation aux mangeurs dits « combinatoires ».

Tacos végétariens à réaliser soi-même. Bruno Cardinale, Fourni par l'auteur

Ces derniers naviguent entre différents régimes alimentaires (omnivore, flexitarien, végétarien) et souhaitent ajuster leur choix au gré des occasions. Cette approche est largement développée dans de nombreux modèles de restauration : pizzerias, crêperies, bars à tacos, cafétérias ou chaînes de fast-food comme Subway…

Dans ces formats, les clients peuvent librement sélectionner leurs ingrédients, sans nuire à l’organisation du service.

En restauration gastronomique, on pourrait imaginer un service sur chariot, présentant une sélection d’éléments à combiner soi-même, à l’image du traditionnel plateau de fromages.

La coexistence

Il s’agit d’incorporer des alternatives végétariennes dans un menu traditionnellement carné, sans modifier l’identité globale de la marque ni son positionnement historique.

C’est une approche courante dans des enseignes comme Hard Rock Café, Léon ou La Criée, dans lesquelles les propositions végétariennes existent, mais sont souvent diluées dans la carte.

Elles sont généralement intégrées sans rubrique spécifique ni signalétique particulière, et occupent une place marginale dans l’offre globale. Parfois, ces alternatives ne figurent même pas : le convive peut simplement demander la suppression de la viande ou du poisson dans la recette.

Ce type d’adaptation est également fréquent en restauration gastronomique où les menus sont adaptés selon les régimes des mangeurs.

Mais, selon un constat empirique issu de nos observations de terrain, cette pratique reste souvent insatisfaisante. De nombreux végétariens font état de leur frustration lorsqu’on leur sert uniquement les accompagnements des plats carnés, aboutissant à des assiettes peu équilibrées et perçues comme une solution de second choix.

L’engagement

Cette stratégie consiste à faire du végétal un pilier identitaire de la marque, en l’affichant comme une preuve d’engagement éthique.

Ici, le végétal n’est pas une option marginale : il devient une valeur centrale revendiquée. L’enseigne s’adresse directement aux mangeurs militants, soucieux de l’environnement, de leur santé et du bien-être animal. Il s’agit d’une rupture assumée, marquant une position forte en matière de responsabilité sociale.

Des enseignes comme Cojean illustrent bien cette approche, avec plus de 60 % de leur carte consacrée à des plats végétariens ou végétaliens. On retrouve également des propositions engagées chez Paul, qui communique sur le développement d’une offre végétale.

Certains restaurants gastronomiques se positionnent aujourd’hui avec cette stratégie, comme Culina Hortus ou encore Racines.

L’importation

« Importer » consiste à proposer une expérience gastronomique complète, codifiée et légitime, mais issue d’une autre culture que la tradition occidentale. Plutôt que de transformer les plats habituels, elle s’appuie sur des cuisines où la place du végétal est historiquement centrale et socialement valorisée.

Thali. Bruno Cardinale, Fourni par l'auteur

On retrouve cette approche dans les thalis indiens, les bibimbaps coréens, la cuisine macrobiotique japonaise ou encore les mezzés méditerranéens. Ces modèles offrent des repas complets, structurés et socialement reconnus, sans que la viande en soit nécessairement l’élément principal.

Ils permettent finalement de déléguer la légitimité à une culture alimentaire valorisée, et d’éviter aux mangeurs une dissonance cognitive.

En restauration gastronomique, ces plats importés peuvent être sublimés et laisser libre cours à la créativité des chefs.

Des stratégies complémentaires

Ces sept stratégies ne s’excluent pas : elles peuvent coexister et se combiner au sein d’une même offre, d’un même restaurant, voire d’un même repas gastronomique.

L’imitation, l’expérience, la reconversion, la coproduction, la coexistence, l’engagement et l’importation ne sont pas des chemins parallèles, mais des leviers complémentaires que les chefs et les restaurateurs peuvent mobiliser avec créativité et cohérence.

En mélangeant ces approches, il devient possible d’ancrer progressivement de nouvelles représentations sociales, de végétaliser les pratiques sans brusquer les traditions, et surtout de transmettre aux jeunes générations une autre façon de penser le « vrai bon repas ».

Au-delà des enjeux culturels et environnementaux, la dimension économique mérite aussi d’être soulignée. Pour les chefs engagés, l’offre végétale peut devenir un signe distinctif et renforcer leur image auprès d’un public soucieux d’éthique, de nutrition et d’environnement. Pour les grandes enseignes, elle représente un levier de différenciation commerciale et un moyen d’attirer une clientèle plus large.

Enfin, dans un contexte où la viande reste coûteuse, la rentabilité des plats peut être améliorée sans perte de qualité, grâce à l’acte culinaire du chef, qui mobilise son savoir-faire pour valoriser les ingrédients végétaux. Dans les écoles hôtelières, inspecteurs, proviseurs et enseignants, sensibles à la végétalisation, conduisent déjà des actions de formation, organisent des événements et réforment les programmes pour accompagner cette transition.

The Conversation

Bruno Cardinale ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

12.09.2025 à 15:06

Millennial pink, Gen-Z Yellow, Brat Green… Décris-moi tes couleurs préférées, je devinerai ta génération

Sabine Ruaud, Professeur de marketing, EDHEC Business School

Rose K. Bideaux, Chercheur·e en arts et en études de genre, Université Paris 8 – Vincennes Saint-Denis

Chaque époque a ses couleurs emblématiques&nbsp;: les pastels rassurants des boomers, le rose tendre des milléniaux, le jaune éclatant et le vert tape-à-l’œil de la génération&nbsp;Z.
Texte intégral (1212 mots)

Chaque époque a ses couleurs emblématiques : les pastels rassurants des boomers, le rose poudré des milléniaux, le jaune éclatant et le vert tape-à-l’œil de la Gen Z. Reflets d’émotions collectives et de tendances sociétales, ces teintes en disent souvent plus long que de simples effets de mode.


Chaque génération semble s’approprier certaines teintes, mais il serait réducteur d’y voir une donnée biologique ou universelle. Si la couleur est l’effet visuel résultant de la composition spectrale de la lumière qui est envoyée, transmise ou réfléchie par des objets, la façon dont on l’envisage est avant tout une construction sociale et culturelle qui reflète les mœurs, les évolutions idéologiques et les influences médiatiques d’une époque.

En effet, comme l’a commenté Michel Pastoureau, ce n’est pas la nature qui fait les couleurs ni même l’œil ou le cerveau, mais la société qui leur attribue des significations variables selon les époques. Elles deviennent ainsi des témoins privilégiés des mutations de chaque décennie.

Dans un chapitre récemment publié, « La couleur, marqueur créatif générationnel ? », nous nous sommes intéressés à la façon dont les générations successives se caractérisent par un ensemble de valeurs, de croyances et de comportements qui se manifestent visuellement, notamment à travers des couleurs qui leur sont propres.

Ainsi, la segmentation par générations – boomers, générations X, Y, Z, Alpha – permet d’observer des affinités chromatiques qui ne relèvent pas seulement du goût individuel, mais d’un rapport collectif au temps, aux aspirations et aux codes esthétiques dominants.

À chaque génération, son code couleur

Les boomers (nés entre la fin de la Seconde Guerre mondiale et le milieu des années 1960) et la génération X (née entre 1965 et 1980) se caractérisent par une préférence pour des palettes dites traditionnelles, dominées par des tons neutres et pastels auxquels s’ajoutent, à partir des années 1970, des couleurs inspirées de la nature comme les verts, les bruns et les rouges terreux.

La génération Y, ou les millennials (en français les milléniaux ; nés entre 1980 et le milieu des années 1990), a quant à elle été marquée par l’émergence d’un rose emblématique, le « millennial Pink ». Plus qu’une simple teinte, ce rose pâle s’est imposé dans les années 2010 comme un symbole de légèreté, d’optimisme et surtout de remise en question des codes de genre.

Pour la génération Z (née entre 1995 et 2010), c’est d’abord un jaune vif, le « Gen-Z Yellow », qui s’est imposé, au tournant de 2018, en contraste avec le rose singulier de ses aînés. Rapidement, le violet est venu compléter cette palette, couleur historiquement liée au pouvoir, à la créativité et aux luttes féministes et, désormais, associée à l’expression de soi et à l’inclusivité. Plus récemment, le vert a gagné en importance : d’un côté, comme couleur associée aux enjeux écologiques, fréquemment mobilisée et récupérée dans le champ politique ; de l’autre, comme tendance numérique et provocante, le « Brat Green », popularisé, en 2024, par la chanteuse britannique Charli XCX.

La génération Alpha, encore en formation, oscille pour sa part entre un attrait pour les tons naturels et réconfortants et une exposition précoce aux couleurs franches et artificielles de l’univers digital.

S’ancrer dans son époque

Si ces repères générationnels sont séduisants, il est essentiel de ne pas les figer. Les couleurs ne se laissent pas réduire à des étiquettes fixes : elles vivent, elles circulent, elles se réinventent. Elles reviennent parfois de manière cyclique, à l’image de la mode, et se rechargent de nouvelles significations. C’est ce qui rend la couleur si puissante dans la communication. Elle permet d’ancrer une marque dans son époque tout en laissant place à la réinterprétation.

L’actualité chromatique de 2024–2025 en témoigne. À côté du vert néon insolent de l’album à succès Brat, de Charli XCX, l’entreprise Pantone a choisi « Mocha Mousse » comme couleur de l’année 2025, un brun cosy, gourmand et enveloppant qui traduit le besoin collectif de réassurance et d’ancrage. Le contraste entre ces deux signaux, l’un pop et ironique, l’autre discret et rassurant, illustre parfaitement la tension contemporaine entre exubérance et quête de stabilité.

Les recherches en marketing montrent, par ailleurs, que l’impact des couleurs ne réside pas seulement dans la teinte elle-même, mais aussi dans la manière dont elle est nommée.

Le « color naming » des marques

Le « color naming » a un effet direct sur la préférence et l’intention d’achat : un nom de produit évocateur, poétique ou humoristique génère davantage d’engagement qu’un terme générique. Ce phénomène, encore peu documenté, rappelle aux marques que les mots façonnent autant que les couleurs la perception des produits. L’excès d’humour peut toutefois brouiller la mémorisation de la marque, d’où la nécessité d’un dosage subtil

Pour les entreprises, l’enjeu est donc double. Il s’agit, d’une part, de comprendre les codes chromatiques ponctuels qui circulent dans une génération donnée, afin de parler un langage immédiatement perceptible, et, d’autre part, de créer un système de couleurs qui reste cohérent et durable dans le temps.

Parler de « couleurs de génération » reste un outil utile de décryptage, mais uniquement si l’on accepte sa plasticité. Pour chaque génération, la couleur est une passeuse de messages, un support de signes tacites ou exprimés de toutes sortes, un témoin clé dont les nuances suscitent des émotions, véhiculent des significations et procurent des expériences variées.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

12.09.2025 à 11:53

Lecornu en quête de majorité : comment nos voisins européens créent le consensus

Damien Lecomte, Chercheur associé en sciences politiques, Université Paris 1 Panthéon-Sorbonne

Dans les démocraties parlementaires européennes, des négociations permettent la formation de coalitions gouvernementales. Le premier ministre Sébastien Lecornu s’en inspirera-t-il&nbsp;?
Texte intégral (1956 mots)

Dans les démocraties parlementaires européennes, des négociations – souvent longues – permettent la formation de coalitions gouvernementales fonctionnelles. En France, alors que le « bloc central » n’est pas majoritaire au Parlement, le nouveau premier ministre Sébastien Lecornu pourrait-il s’inspirer des pratiques éprouvées en Allemagne, en Belgique ou en Espagne, pour éviter l’échec de ses prédécesseurs ?


La nomination du troisième premier ministre proche d’Emmanuel Macron en à peine plus d’un an peut donner l’impression de poursuivre la même stratégie mise en échec par deux fois. En effet, ses orientations politiques et sa future coalition semblent, a priori, les mêmes que celles de Michel Barnier et de François Bayrou. Pourtant, un élément retient l’attention : Emmanuel Macron a chargé Sébastien Lecornu de « consulter les forces politiques représentées au Parlement en vue d’adopter un budget et [de] bâtir les accords indispensables aux décisions des prochains mois » avant de lui « proposer un gouvernement ». Cette démarche augure-t-elle une inflexion notable, tant sur le fond que sur la forme, et un mode de gouvernance se rapprochant des pratiques en vigueur dans les régimes parlementaires européens ?

La tradition parlementaire dans « les démocraties de consensus »

Après des législatives, dans les régimes dits « parlementaires » ou dans les « démocraties de consensus », les forces politiques consacrent souvent un temps important à négocier, dans l’objectif de conclure un accord, voire un contrat de gouvernement et de législature. Dans la célèbre classification d’Arend Lijphart, ce dernier distingue les « démocraties de consensus » des « démocraties majoritaires » où le pouvoir est concentré dans une simple majorité, voire un seul parti et son chef, cas fréquent dans le modèle de Westminster (inspiré du Royaume-Uni, ndlr). Les « démocraties de consensus » sont celles où, par le mode de scrutin, par le système partisan et par la culture politique, des familles politiques aux orientations et intérêts parfois éloignés sont contraintes de se partager le pouvoir.

Les modalités de formation des gouvernements de coalition et des contrats de législature varient selon les pays et leurs propres traditions et systèmes partisans. Mais le principe central demeure le même : lorsqu’aucun parti ni aucune coalition préélectorale n’obtient de majorité suffisante pour prétendre gouverner, les forces parlementaires négocient un accord de compromis. Ce dernier comporte souvent deux aspects. D’une part, la répartition des postes ministériels, d’autre part, une base minimale de politiques publiques à mener – y compris pour obtenir un soutien sans participation ou une non-censure de la part des groupes qui n’entrent pas au gouvernement.

De telles négociations ont le défaut d’être souvent très longues – des semaines, voire des mois –, et parfois de passer par plusieurs échecs avant d’aboutir à un compromis à l’équilibre délicat. Toutefois, lorsque ce compromis est trouvé, il peut permettre une relative stabilité pendant plusieurs années, et a l’avantage de réunir des parlementaires qui représentent une majorité effective de l’électorat – tandis que les gouvernements français s’appuient sur un soutien populaire de plus en plus étroit.

L’Allemagne est prise en exemple pour sa tradition de coalitions. Celles-ci sont négociées pendant des semaines, formalisées dans des contrats prévoyant des politiques gouvernementales précises pour la durée du mandat. Après les élections fédérales du 26 septembre 2021, il a fallu attendre deux mois pour que soit signé un contrat de coalition inédite entre trois partis – sociaux-démocrates, écologistes et libéraux. En 2025, après les élections du 23 février, l’accord pour une nouvelle grande coalition entre conservateurs et socialistes n’est conclu que le 9 avril.

La période de discussion entre partis politiques représentés au Parlement peut même être encore plus longue. Le cas est fréquent en Belgique, où les divisions régionales et linguistiques s’ajoutent à la fragmentation partisane. Près de huit mois se sont ainsi écoulés entre l’élection de la Chambre des représentants, le 9 juin 2024, et la formation du nouveau gouvernement, entré en fonctions le 3 février 2025, composé de la « coalition Arizona » entre chrétiens-démocrates, socialistes, nationalistes flamands et libéraux wallons.

Les procédures sont largement routinisées. Après chaque scrutin fédéral, le roi des Belges nomme un « formateur » chargé de mener les consultations et négociations nécessaires pour trouver une majorité fonctionnelle pour gouverner. En cas de succès, le « formateur » devient alors le premier ministre. L’identification du formateur le plus susceptible de réussir sa mission est une prérogative non négligeable du souverain.

Lorsqu’un régime politique se heurte à une configuration partisane et parlementaire inédite, il arrive que l’adaptation à cette nouvelle donne prenne du temps. L’Espagne offre cet exemple. Après les élections générales d’avril 2019, aucune majorité claire ne s’est dégagée et Pedro Sanchez, président du gouvernement sortant et chef du Parti socialiste arrivé en tête, a d’abord voulu conserver un gouvernement minoritaire et uniquement socialiste. Ce n’est qu’après deux échecs lors de votes d’investiture en juillet, puis une dissolution et de nouvelles élections en novembre, que le Parti socialiste et Podemos se sont finalement mis d’accord sur un contrat de coalition pour un gouvernement formé en janvier 2020 – première coalition gouvernementale en Espagne depuis la fin de la IIe République (1931-1939).

Un élément notable de ces pratiques parlementaires est que l’identification du camp politique et du candidat en mesure de rassembler une majorité n’est pas toujours immédiatement évidente, et qu’un premier échec peut se produire avant de devoir changer d’option. Ainsi, en août 2023, toujours en Espagne, lorsque le roi a d’abord proposé la présidence du gouvernement au chef du Parti populaire (droite espagnole), arrivé en tête des élections de juillet. Ce n’est qu’après l’échec du vote d’investiture de ce dernier que Pedro Sanchez a pu à nouveau tenter sa chance. Grâce à un accord de coalition avec la gauche radicale Sumar et un accord de soutien sans participation avec les partis indépendantistes catalans et basques, il a finalement été réinvesti président du gouvernement.

Vers une lente parlementarisation du régime français ?

Au regard des pratiques dans les régimes parlementaires européens habitués aux hémicycles très fragmentés et sans majorité évidente, la France n’a pas su, jusqu’ici, gérer la législature ouverte par la dissolution de juin 2024. Le temps record (pour la France) passé entre l’élection de l’Assemblée nationale et la formation d’un gouvernement n’a pas été mis à profit.

Ainsi, malgré les consultations menées par le président Macron pour former le gouvernement, la coalition du « socle commun » entre le « bloc central » et le parti Les Républicains (LR), base des gouvernements Barnier et Bayrou, n’a fait l’objet d’aucune négociation préalable ni d’aucune sorte de contrat de législature. De même, les concessions faites par François Bayrou aux socialistes pour éviter la censure du budget 2025 n’ont pas donné lieu à un partenariat formalisé, et les relations se sont rapidement rompues.

En confiant à son nouveau chef de gouvernement, Sébastien Lecornu, la charge de mener les consultations pour « bâtir les accords indispensables », le président Macron semble avoir acté qu’il n’était pas en position de le faire lui-même. Reste que le premier ministre devra montrer, pour durer, une capacité à obtenir des accords et des compromis supérieure à celle de ses deux prédécesseurs – et pour cela, une volonté d’infléchir la politique gouvernementale.

Pour former son gouvernement, Sébastien Lecornu se tournera à l’évidence vers la reconduction du « socle commun » entre la macronie et le parti LR, lui qui est membre de la première et issu du second. Mais si la coalition gouvernementale est la même, le premier ministre peut innover en parvenant à un accord formel de non-censure avec au moins l’un des groupes d’opposition. Un tel accord devrait porter sur le budget 2026 et s’accompagner d’un engagement à laisser faire la délibération parlementaire sur chaque texte, en échange de l’absence de censure.

Sébastien Lecornu peut certes essayer de trouver son salut dans la tolérance de l’extrême droite, comme Michel Barnier l’a lui-même tenté à ses risques et périls. La détermination du Rassemblement national (RN) à obtenir une dissolution rend cet interlocuteur imprévisible. Si le premier ministre devait chercher la non-censure d’une partie de la gauche, alors il devrait pour cela leur faire des concessions substantielles. Car les socialistes estiment avoir été maltraités par François Bayrou malgré leur ouverture à la discussion, et risquent d’être moins enclins à faire un pas vers le gouvernement.

Une inflexion de la politique gouvernementale apte à trouver une majorité de compromis avec la gauche (solution par ailleurs plus conforme au front républicain des législatives de 2024) nécessiterait des avancés sur la taxation des plus riches, sur la réforme des retraites, sur les aides sans contrepartie aux entreprises ou sur la modération de l’effort budgétaire demandé aux ménages. Avec aussi l’impératif de faire accepter ces concessions aux membres du « socle commun » !

Le nouveau premier ministre a promis des « ruptures » tant sur la méthode que sur le fond et a donné des signaux en ce sens, avec la réouverture du débat sur les retraites. Des voix se font entendre, y compris parmi les LR, pour accepter l’idée d’une contribution des plus grandes fortunes à l’effort budgétaire. Si Sébastien Lecornu parvient effectivement à s’émanciper du bilan qu’Emmanuel Macron a, jusqu’ici, voulu défendre à tout prix, alors son gouvernement pourrait durer. Mais faute d’un vrai changement de fond de la politique gouvernementale, le changement de méthode risque de ne pas suffire à le préserver du sort de ses deux prédécesseurs.

The Conversation

Damien Lecomte ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

11.09.2025 à 22:51

Charlie Kirk, le martyr du trumpisme

Jérôme Viala-Gaudefroy, Spécialiste de la politique américaine, Sciences Po

Charlie Kirk, tué ce 10 septembre, était une voix très écoutée au sein de la galaxie trumpiste, spécialement par les jeunes. Son assassinat aura sans doute de nombreuses conséquences.
Texte intégral (3110 mots)

« Du fait de cet acte de haine, la voix de Charlie est devenue plus grande et sera plus entendue que jamais auparavant. » C’est par ces mots que Donald Trump a conclu son intervention de quatre minutes consacrée à l’assassinat, ce 10 septembre, de Charlie Kirk, 31 ans, en plein discours pendant sa tournée « American Comeback Tour », sur le campus de l’université d’Utah Valley, à Orem, dans l’État de l’Utah. Qui était Charlie Kirk (dont l’assassin n’a toujours pas été arrêté au moment de la publication de cet entretien) ? Comment son influence se déployait-elle ? Que dit son assassinat du climat actuel aux États-Unis ? Et quelles pourraient en être les conséquences ? Ce sont les questions que nous avons posées à Jérôme Viala-Gaudefroy, spécialiste de la politique américaine et de la rhétorique des présidents des États-Unis.


Quelle était la place de Charlie Kirk au sein de la galaxie trumpiste ?

C’était avant tout – mais pas exclusivement, tant s’en faut – l’un des principaux porte-voix de Donald Trump auprès de la jeunesse. S’il a été assassiné à un âge très jeune, cela faisait déjà longtemps qu’il était bien connu des Américains.

En 2012, avant même d’avoir vingt ans, au moment où Barack Obama était en train d’achever son premier mandat et s’apprêtait à effectuer son second, il avait créé Turning Point USA, une organisation destinée à rassembler les étudiants conservateurs, et qui a rapidement obtenu les faveurs de nombreux riches donateurs. Kirk n’a pas terminé ses études ; il s’est lancé à corps perdu dans la politique. Les financements de TPUSA, dont Kirk est resté le président jusqu’à sa mort, n’ont cessé de croître au cours des années suivantes et l’organisation a pris une grande ampleur, cherchant notamment, à travers son programme « Professor Watchlist », à répertorier et à dénoncer les enseignants universitaires jugés trop à gauche.

Kirk a été repéré par les trumpistes et, s’il n’était au départ pas convaincu par le milliardaire new-yorkais (il était plutôt proche du Tea Party), il s’est vite totalement fondu dans son mouvement, se rapprochant nettement de son fils, Donald Trump Junior, et participant activement aux campagnes de 2016, 2020 et bien sûr 2024.

Il a joué un rôle non négligeable dans la victoire de Trump contre Kamala Harris, notamment grâce au succès de ses nombreuses tournées sur les campus, où il aimait à polémiquer publiquement avec des étudiants aux idées contraires aux siennes. Il faut d’ailleurs lui reconnaître un certain courage : il n’a jamais hésité à aller se confronter au camp opposé. Et comme il avait indéniablement un grand sens de la répartie et savait très bien mettre ses adversaires en colère et les cueillir d’une petite phrase bien sentie, ses duels oratoires ont donné lieu à de nombreuses vidéos virales qui ont eu un grand succès sur le Net parmi les jeunes de droite et, aussi, auprès de certains qui s’interrogeaient encore.

Au-delà de ces tournées, ses messages — diffusés par de nombreux moyens, mais avant tout par le biais de son très populaire podcast, le « Charlie Kirk Show » — ont eu un impact indéniable sur une jeunesse conservatrice qui se sentait souvent en minorité dans le monde universitaire.

Un peu comme les militants de la campagne Obama de 2008, il a consacré une grande partie de ses efforts à convaincre les jeunes qui n’étaient pas inscrits sur les listes électorales à s’enregistrer – et donc à voter Trump. Et une fois la victoire de Trump obtenue en novembre 2024, il a continué à soutenir sans relâche le président. Comme une partie considérable du mouvement MAGA, il a un peu fait la moue quand Trump a déclaré que le dossier Epstein — dont ses partisans attendaient qu’il en révèle le contenu, supposément explosif pour les démocrates — était vide. Mais il s’est vite rangé derrière le président sur ce point.

Sur le fond, son positionnement était assez classique au sein du monde trumpiste : ultra-conservatisme sur les questions sociétales (dénonciation des lois favorables aux personnes LGBT et de l’affirmative action, assimilation de l’avortement à un meurtre), religiosité portée en bandoulière (il était un fervent chrétien évangélique), hostilité assumée à l’immigration (systématiquement comparée à une invasion) et à l’islam, climato-scepticisme, rejet des mesures sanitaires prises pour endiguer la pandémie de Covid-19, grande perméabilité à diverses thèses complotistes, refus de la moindre entrave au port d’armes, alignement sur Israël, mansuétude voire sympathie à l’égard de Vladimir Poutine, etc.

Sur la forme, il avait été très inspiré par Rush Limbaugh, le fameux animateur de radio de droite radicale, très influent durant plusieurs décennies passés, volontiers clivant et provocateur, et à qui il a rendu un hommage appuyé quand ce dernier est décédé en 2021.

Dans sa réaction postée peu après l’annonce de la mort de Kirk, Donald Trump n’a pas hésité à en imputer la responsabilité à la gauche radicale, et à rapprocher ce qui venait de se produire non seulement de la tentative d’assassinat qui l’avait visé lui-même le 13 juillet dernier, mais aussi de celle commise contre l’élu républicain Steve Scalise en 2017 et, peut-être plus inattendu, de l’assassinat du PDG de UnitedHealthcare Brian Thompson à New York en décembre dernier, et des actes de violence à l’encontre de certains agents de ses services de lutte contre l’immigration illégale (ICE) lorsque ceux-ci arrêtent des migrants supposément clandestins…

Il a parlé de ces actes de violence-là, mais il n’a pas évoqué le tout récent meurtre d’une élue démocrate du Minnesota et de son époux par un homme qui avait sur lui une liste d’élus démocrates à abattre.

Trump présente l’assassinat de Kirk non pas comme le produit de l’ambiance détestable que l’on perçoit aujourd’hui dans le monde politique des États-Unis, et dont les représentants de tous les bords politiques sont les cibles de façon récurrente, mais uniquement comme la traduction en actes concrets des discours virulents dont les trumpistes font l’objet de la part de leurs adversaires – militants politiques et médias « mainstream » confondus. Ce faisant, et comme il fallait s’y attendre de sa part, il élude totalement sa propre responsabilité dans la déréliction de ce climat politique.


À lire aussi : Donald Trump à l’assaut des médias publics aux États-Unis


Trump n’est évidemment pas le premier politicien du pays à tenir un discours très agressif à l’encontre de ses opposants, mais jamais un président ne s’était exprimé comme il le fait chaque jour, avec une violence verbale constante encore soulignée par ses postures martiales et son recours récurrent aux messages en majuscules sur les réseaux sociaux. Cette manière de s’exprimer a largement infusé le débat public – cela dans le contexte de l’explosion des réseaux sociaux, propices comme chacun sait à la mise en avant des messages les plus virulents.


À lire aussi : Les mots de Trump : les ressorts d’une rhétorique efficace


Les partisans de Trump, qu’il s’agisse de dirigeants politiques de premier plan ou d’éditorialistes de droite dure, rivalisent donc de formules à l’emporte-pièce. On l’a encore vu ces dernières heures après la mort de Kirk, quand des personnalités comme Elon Musk, Laura Loomer, Steve Bannon et bien d’autres ont appelé à la vengeance et dénoncé non seulement la gauche radicale mais aussi la gauche dans son ensemble, Musk tweetant par exemple que « la gauche est le parti du meurtre » – soulignons à cet égard que les trois anciens présidents démocrates toujours en vie, à savoir Bill Clinton, Barack Obama et Joe Biden, ont tous trois condamné avec la plus grande fermeté l’assassinat de Kirk, et que des leaders de la gauche du Parti démocrate comme Bernie Saunders, Alexandria Ocasio-Cortez ou encore Zohran Mamdani en ont fait de même.

Pour autant, et même si aucune personnalité de premier plan ne s’est réjouie de la mort de Kirk, la gauche n’est évidemment pas immunisée contre ce durcissement, cette radicalisation du discours, cette trumpisation du discours en fait, qu’on observe parfois sous une forme ironique, comme quand le gouverneur de Californie, Gavin Newsom, reprend les codes de communication de Trump, mais qui prend aussi, sur les réseaux et dans certaines manifestations, des tonalités extrêmement agressives. Ce n’est d’ailleurs pas un hasard si Trump a mentionné le meurtre de Brian Thompson par Luigi Mangione, un meurtre que certaines voix se revendiquant de la gauche radicale ont salué.


À lire aussi : Luigi Mangione, accusé d’assassinat et glorifié sur Internet : ce que cette affaire dit des États-Unis


Les trumpistes ont beau jeu de se scandaliser des formules les plus excessives du camp d’en face, assimilé à une meute violente ; les adversaires de Trump, sous l’effet de cette intensification des débats, répondent avec encore plus de virulence ; c’est un cercle vicieux qui imprègne les esprits. Et bien qu’on ne sache rien à cette heure de l’identité du tireur, il faut souligner que cette hystérisation, cette colère mutuelle, a nécessairement des effets sur le grand public, y compris sur les nombreuses personnes ayant des problèmes psychiatriques et susceptibles de passer à l’acte – l’homme qui a essayé de tuer Trump en juillet dernier avait d’ailleurs ce profil.

Donald Trump et Charlie Kirk lors d’un meeting en juillet 2021. Gage Skidmore/The Star News Network, CC BY-NC

Tout cela a des traductions très concrètes. L’année dernière, une étude du Brennan Center a montré que le nombre de menaces visant des personnalités politiques, locales ou nationales, avait triplé entre 2017 et 2024. Les élus, mais aussi les militants politiques, à tous les niveaux, ainsi que les juges, ont peur. Entre 2020 et 2024, 92 % des élus ont pris des mesures de sécurité supplémentaires pour réduire les risques pesant contre eux-mêmes et contre les processus électoraux. Le climat est plus délétère que jamais.

Le contexte que vous décrivez est d’autant plus crispé que Donald Trump est actuellement dans une confrontation ouverte avec plusieurs villes et États dirigés par des démocrates, où il fait intervenir l’armée afin de mener à bien ses procédures d’expulsion, et aussi en tension maximale avec de nombreux juges de divers niveaux, jusqu’à la Cour suprême, du fait de ses tentatives de s’arroger toujours plus de prérogatives. Au vu des appels à durcir le ton face à la gauche venus du camp républicain, est-il envisageable que la mort de Kirk soit le prétexte invoqué pour adopter de nouveaux décrets qui donneraient au président encore plus de pouvoir ?

C’est loin d’être impossible. Trump a du mal à faire passer de nouvelles lois – il faut pour cela disposer de 60 sièges au Sénat, ce qui n’est pas le cas. Mais il use et abuse des décrets présidentiels. Ceux-ci peuvent être contestés en justice, mais en attendant, il les met en application. Il est déjà tourné vers les élections de mi-mandat qui auront lieu dans un an, et il peut instrumentaliser ce meurtre pour, par exemple, au nom de la supposée menace exceptionnelle que la gauche fait peser sur le pays, interdire des manifestations, arrêter des gens encore plus facilement qu’aujourd’hui, les menacer de peines sévères en cas de résistance à la police, et ainsi de suite. La présence de militaires dans certaines villes, de ce point de vue, n’a pas grand-chose de rassurant.

Charlie Kirk aura alors en quelque sorte autant servi les projets de Trump dans sa mort que dans sa vie…

Tout assassinat est un drame, et quoi qu’on puisse penser des idées de Kirk, et bien que lui-même disait mépriser le sentiment d’empathie, cet assassinat-là n’échappe évidemment pas à la règle. Mais effectivement, ce ne serait pas la première fois qu’un pouvoir radical utiliserait le meurtre de l’un de ses partisans pour justifier son propre durcissement, le renforcement de ses prérogatives et sa répression à l’encontre de ses adversaires politiques.

Ce qui est sûr, c'est que Trump ne lésine pas sur les symboles. La Maison Blanche a ordonné que, en sa mémoire, les drapeaux soient mis en berne dans tout le pays, ainsi que dans les ambassades ou encore sur les navires en mer. Avec Kirk, le trumpisme tient un martyr — c’est le mot de Trump, qui l’a qualifié de « martyr de la liberté » — parfait. L’homme était une sorte d’idéal-type du trumpisme : jeune, beau, blanc, charismatique, marié, deux enfants, self-made man, ultra-patriote, chrétien très pratiquant…

Quand Trump dit que le nom de Charlie Kirk ne sera pas oublié de sitôt, il dit sans doute vrai : lui-même et l’ensemble du monde MAGA avaient déjà leur image héroïque avec cette photo impressionnante du 13 juillet sur laquelle Trump, ensanglanté, brandit le poing après le tir qui a failli lui coûter la vie. Il est fort à parier que l’image de Charlie Kirk parlant au pupitre quelques instants avant d’être tué rejoindra cette photo iconique au panthéon du trumpisme…


Propos recueillis par Grégory Rayko

The Conversation

Jérôme Viala-Gaudefroy ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

11.09.2025 à 17:20

L’expression « culture du viol » est-elle exagérée ?

Bérénice Hamidi, Professeure en esthétiques et politiques des arts vivants, Université Lumière Lyon 2

Si l’expression «&nbsp;culture du viol&nbsp;» semble exagérée à beaucoup, c’est qu’elle est mal comprise.
Texte intégral (2649 mots)

Le mouvement international #MeToo de lutte contre les violences sexuelles et sexistes a, en quelques années, mis en évidence le poids et l'enracinement historique des dominations exercées sur les femmes dans la société moderne. Que signifie l’expression « culture du viol » apparue dès lors dans l’espace public pour en rendre compte ? Quelle réalité traduit-elle ?


Depuis #MeToo, on commence à reconnaître le caractère massif et structurel des violences sexuelles et sexistes. Mais il reste à percer un mystère : pourquoi sont-elles si omniprésentes dans nos sociétés ? C’est ce que vise à comprendre l’expression « culture du viol », qui a émergé dans le débat public, mais qui est souvent mal comprise et semble donc exagérée à beaucoup, qui rétorquent :

« Mais enfin, nous ne vivons pas dans une société qui promeut le viol ! Tous les hommes ne sont pas des violeurs ! »

C’est vrai. Mais l’expression « culture du viol » vise à analyser une réalité bien plus diffuse et dérangeante. La notion a été élaborée dans les années 1970 aux États-Unis par des sociologues féministes pour saisir un point aveugle de notre organisation sociale. Elle désigne à la fois une contradiction puissante et la stratégie collective de défense qui nous permet de faire avec.

La culture du viol : sous l’expression choc, une réalité complexe

Quand on pense au mot « viol », on a en tête une scène bien identifiée : l’agression sauvage d’une femme, jeune et jolie et court vêtue, au fond d’un parking, par un inconnu armé et dangereux. Cette image nous repousse… mais elle nous rassure aussi. Car elle est aux antipodes de la réalité statistique des violences sexuelles et sexistes (VSS).

Dans la vie réelle, les agressions sont avant tout commises par des proches, et n’impliquent donc que rarement une violence déchaînée, mais plutôt d’autres formes de contrainte moins visibles (économique, affective, psychologique, etc.).

Et ce n’est pas un hasard si notre image type du viol nous empêche de voir en face la réalité des violences sexistes et sexuelles. Elle est faite pour ça, pour nous empêcher de voir ou plutôt nous permettre de ne pas voir. Et pour rendre ainsi supportable le gouffre qui sépare, d’un côté, les valeurs d’une société démocratique moderne qui se veut acquise à l’égalité femmes/hommes ; d’un autre côté, ou plutôt en dessous de cette surface lisse et valorisante, un imaginaire collectif bien plus sombre. Lequel nourrit encore nos normes et nos institutions et continue à invisibiliser, normaliser et érotiser des formes d’asymétrie, de domination et de violences exercées par le groupe social des hommes.

Le Viol, notre culture, Bérénice Hamidi. Éditions du Croquant, 2025

C’est cela, la culture du viol. Dans mon essai le Viol, notre culture (2025), j’interroge spécifiquement la responsabilité des productions culturelles dans sa perpétuation. Si le fait d’associer le mot « culture », qui évoque les arts, le savoir, le raffinement, à celui de « viol » choque nos oreilles et notre sensibilité, il n’en reste pas moins que, selon moi, la culture du viol est un problème indissolublement politique et esthétique. Car les abus sexuels sont toujours aussi des abus de langage et impliquent une déformation de nos perceptions.

La culture du viol, une question esthétique autant que politique

Les professionnels de la prise en charge des auteurs de violences sexistes et sexuelles ont repéré une stratégie de défense, à la fois psychique et rhétorique, récurrente chez les personnes qui commettent ces violences, résumée par l’acronyme anglo-saxon « DARVO » pour :

  • le « déni » (qui comprend la dénégation mais aussi l’euphémisation des faits ; par exemple, dire « pousser » en lieu et place de « frapper », etc.) ;
  • la « attaque » (insulter, dénigrer la victime)
  • et le « renversement des rôles de victime et d’agresseur » – en anglais, « offender » (« C’est elle qui m’a cherché », « Elle m’a poussé à bout », etc.).

Mais, à vrai dire, cette stratégie de défense largement inconsciente n’est pas seulement le fait des personnes qui commettent des violences, elle est partagée par beaucoup d’entre nous. Il faut dire que voir les violences et croire les personnes qui les dénoncent, impliquerait d’agir. Or, cela a un coût : se mettre à dos une personne qui a quasiment toujours plus de pouvoir que ses victimes – car, autre idée reçue, les VSS ne sont pas une question de pulsion sexuelle, mais de domination.

Au tribunal, comme au café du coin, aujourd’hui encore, on croit beaucoup plus les hommes que les femmes (ou les enfants), et la priorité demeure la réputation des premiers plus que la vie des secondes.

Il est une autre notion clé sur laquelle s’accordent les experts des VSS, mais qui passe encore mal dans le débat public, parce qu’elle implique la remise en cause de comportements beaucoup plus fréquents et banalisés que les agressions les plus graves : la notion de continuum. C’est qu’il est difficile d’admettre que, de la blague sexiste au viol ou au féminicide, il existe une différence de degré, bien sûr, mais pas de nature.

Ces mécanismes et ces systèmes de valeur, nous les absorbons par le biais de nos récits collectifs et notamment des représentations culturelles, qui jouent ainsi un rôle important dans la perpétuation de cette culture du viol. Elles façonnent nos manières de sentir, de percevoir et d’interpréter ce qui nous arrive et beaucoup (trop souvent) nous apprennent à douter de nos perceptions en matière de violences sexistes et sexuelles.

Certains veulent croire que cette culture du viol serait limitée à certaines époques – le « monde d’avant », situé quelque part entre l’Ancien Régime et les années 1970 – ou à certains genres de productions culturelles – le rap ou la pop culture. C’est faux. Elle traverse toutes les époques, tous les arts et tous les styles. On la retrouve dans les grands classiques de la littérature d’hier comme dans la culture légitime d’aujourd’hui.

De Blanche-Neige et les Sept nains (1937), dont on retient que l’héroïne de conte de fées est sauvée par son prince charmant en oubliant qu’il l’a embrassée sans son consentement, jusqu’aux comédies romantiques comme Love Actually (2003), où le harcèlement est sublimé en preuve d’amour, l’histoire des arts et du divertissement regorge d’images où les viols, les féminicides et d’autres formes d’abus plus ou moins graves se cachent sous le désir brûlant ou sous la passion amoureuse. Elle nourrit en chacun de nous un imaginaire saturé par le male gaze, autre notion clé pour comprendre comment opère la culture du viol.

Le « male gaze », un regard prédateur qui organise le monde entre proies et chasseurs

Contrairement à ce que l’expression pourrait laisser croire, ce regard prédateur n’est pas tant un regard masculin que masculiniste et misogyne. Il réduit en effet les personnages de femmes à des corps, et ces corps à des objets de désir et même à des proies à chasser. La culture du viol passe par ce regard qui opère sur plusieurs plans :

  1. L’image (la caméra qui déshabille l’actrice).

  2. Le récit (le plus souvent construit selon des scripts sexuels et relationnels où l’homme jouit de conquérir du terrain et de faire céder sa partenaire, laquelle se trouve comblée de se soumettre à ce désir insistant plutôt que d’écouter le sien).

  3. Le mode de narration et d’énonciation, soit le point de vue qui nous est présenté à la fois comme digne de confiance et comme universel dans les œuvres, puisque c’est celui depuis lequel le monde et les personnages sont regardés. C’est l’outil le plus puissant pour nous faire incorporer le male gaze, car il implique que l’on s’identifie tous et toutes à ce regard masculin, qu’il nous profite ou non.

C’est ce qui explique l’empathie différenciée pour ce point de vue masculin (l’himpathy, selon la philosophe Kate Manne) de l’empathie pour celles qui subissent ces assauts – non seulement dans les fictions mais aussi dans la vraie vie. Ce que nous enseignent les œuvres qui relèvent de la culture du viol, c’est, in fine, de voir le monde dans la version de l’agresseur. Et cet apprentissage est d’autant plus efficace que les stratégies esthétiques sont diverses. J’en ai repéré trois principales.

Trois stratégies esthétiques au service de la culture du viol

La première stratégie consiste à assumer fièrement la violence misogyne. C’est ce qu’on voit par exemple dans certaines chansons de rap d’Orelsan (« Sale Pute » et « Suce ma bite pour la Saint-Valentin » notamment) qui ont donné lieu à des procès intentés par des associations féministes pour « incitation à la haine envers les femmes ». Cette violence décomplexée a de quoi faire peur tant elle s’affiche aujourd’hui dans le discours d’hommes politiques de premier plan à l’échelle internationale (Trump, Erdogan, etc.) aussi bien que sur les réseaux sociaux où les discours masculinistes prolifèrent. Cependant, cette stratégie n’est pas la plus dangereuse pour nos imaginaires. Elle a en effet le mérite d’être claire.

Les deux autres sont bien plus retorses et ancrent d’autant plus la culture du viol qu’elles nous leurrent. Elles maquillent en effet les violences jusqu’à les rendre méconnaissables.

La seconde stratégie consiste à dénoncer le viol… tout en érotisant les violences sexuelles et en les banalisant, les transformant en simple ressort dramatique. Je consacre un chapitre entier au film Irréversible, de Gaspard Noé (2002), exemplaire de cette stratégie.

La troisième, enfin, consiste à maquiller la violence en amour ou en humour. En amour, c’est le féminicide caché du roman Rebecca, de Daphné du Maurier (1938), et de l’adaptation Hitchcock du même nom (1940) ; c’est aussi l’érotisation de la zone grise comme dans la chanson Blurred Line, de Pharrell Williams et Robin Thicke (2013) ; c’est encore le culte des amours toxiques qui a toujours le vent en poupe en 2025, dans les dernières séries de dark romance pour adolescentes ou dans le blockbuster français L’Amour Ouf, de Gilles Lellouche (2024).

En humour, ce sont les grosses blagues qui tachent d’un Jean-Marie Bigard ou d’un Patrick Sébastien, dont la mécanique comique repose intégralement sur les stéréotypes sexistes, ou le rire d’humiliation pratiqué à l’écran, sur les plateaux ou dans la chambre à coucher par le cinéaste culte estampillé « de films d’auteur » Bertrand Blier.

Que faire ? Ni censure ni déni : apprendre à voir, à entendre et à dire les violences

Face à celles et à ceux qui critiquent cette culture du viol, on crie volontiers à la « cancel culture » et à la censure, et on en appelle à la défense de la liberté d’expression.

Sans développer les diverses réponses que j’aborde dans l’essai que j’ai publié, je veux insister ici sur le fait que, pour la plupart de celles et ceux qui dénoncent la culture du viol, il n’est pas question d’interdire les œuvres. Il s’agit tout au contraire, pour les œuvres d’aujourd’hui comme d’hier, d’apprendre à les lire/relire, à les contextualiser et à voir et à nommer les violences, à développer un regard critique qui n’empêche pas l’amour des œuvres, mais permette de les regarder en face, avec lucidité et en rompant avec le déni de ce qu’elles racontent.

L’expression « culture du viol » n’est pas un slogan, mais une grille de lecture qui permet de mieux comprendre comment les productions culturelles participent de la perpétuation d’un imaginaire qui promeut les violences de genre tout en les invisibilisant. Elle invite à un regard nouveau, critique sans être ascétique, sur notre héritage culturel. Elle permet aussi, par contraste, de mettre en lumière les œuvres qui déjouent cette culture du viol aujourd’hui comme hier, et d’explorer les stratégies esthétiques qu’elles déploient pour rendre les violences visibles comme telles, mais aussi pour valoriser d’autres imaginaires érotiques et affectifs fondés sur la liberté, sur l’égalité et sur la réciprocité du désir et du plaisir pour toutes et pour tous.

The Conversation

Bérénice Hamidi a reçu des financements de l'IUF, la MSH Lyon Saint Etienne.

PDF

11.09.2025 à 17:19

Les discriminations, au cœur de la crise politique

Dubet François, Professeur des universités émérite, Université de Bordeaux

Les discriminations sont devenues l’expression centrale de l’injustice. Elles nourrissent la légitimation des inégalités, le sentiment de mépris et la fragmentation des luttes sociales.
Texte intégral (2476 mots)

Dans nos sociétés fondées sur l’égalité des chances, les discriminations sont devenues l’expression centrale de l’injustice. Elles nourrissent à la fois la légitimation des inégalités, le sentiment de mépris et la fragmentation des luttes sociales. Quelle pourrait être la forme de la représentation politique de discriminations individuelles ou collectives toujours plus fractionnées ? Extraits d’un article du sociologue François Dubet, paru dans l’ouvrage collectif l’Universalisme dans la tempête (éditions de l’Aube, 2025), sous la direction de Michel Wieviorka et de Régis Meyran.


Depuis quelques décennies et avec une accélération continue, les discriminations sont devenues l’expérience élémentaire des injustices, le sentiment de mépris une des émotions politiques dominantes. Progressivement, la « vieille » question sociale dérivée des inégalités de conditions de travail et des « rapports de production » semble s’effacer devant celle des discriminations subies par les minorités, y compris celles qui sont majoritaires, comme les femmes. En France, comme dans bien des pays comparables, les débats liés à l’égalité des chances et à la reconnaissance des identités l’emportent parfois sur les conflits de redistribution des richesses qui ont eu longtemps une sorte de monopole des conceptions de la justice.

Si on accepte ce constat, au moins comme une hypothèse, il reste à l’expliquer et en tirer des conséquences politiques en termes de représentations de la justice. Il faut notamment s’interroger sur les mises à l’épreuve des conceptions de la solidarité qui, jusque-là, reposaient sur l’interdépendance des liens « organiques » du travail et de la production, et sur des imaginaires nationaux hiérarchisant des identités et, parfois, les dissolvant dans une nation perçue comme universelle. Sur quels principes et sur quels liens de solidarité pourraient être combattues des discriminations de plus en plus singulières ? Comment reconnaître des identités sans mettre à mal ce que nous avons de commun ?

Mépris

Le plus sensible des problèmes est celui de la représentation politique de discriminations individuelles ou collectives toujours fractionnées. Dès lors que les individus et les collectifs discriminés ne se sentent pas représentés, ils ont l’impression d’être méprisés, soit parce qu’ils sont invisibles, soit parce qu’ils sont trop visibles, réduits à des stéréotypes et à des stigmates. Personne ne peut véritablement parler pour moi, personne ne me représente en tant que femme, que minorité sexuelle, que musulman, que handicapé, qu’habitant d’un territoire abandonné… On reproche alors aux porte-parole des discriminés d’être autoproclamés pendant que le sentiment de mépris accuse les responsables politiques, mais aussi les médias « officiels », les intellectuels, les experts… Sentiment d’autant plus vif que chacun peut aujourd’hui avoir l’impression d’accéder directement à l’information et à la parole publique par la grâce des réseaux et de la Toile. Avec les inégalités multiples et les discriminations, le sentiment de mépris devient l’émotion politique élémentaire.

Si on avait pu imaginer, ne serait-ce que sous l’horizon d’une utopie, une convergence des luttes des travailleurs et des exploités, celle-ci est beaucoup plus improbable dans l’ordre des inégalités multiples et des discriminations. D’une part, ces dernières sont infinies et « subtiles », d’autre part, le fait d’être discriminé ne garantit pas que l’on ne discrimine pas à son tour. On peut être victime de discriminations tout en discriminant soi-même d’autres groupes et d’autres minorités. Le fait d’être victime du racisme ne protège pas plus du racisme et du sexisme que celui d’être victime de discriminations de genre ne préserve du racisme… Ainsi peut se déployer une concurrence des victimes qui ne concerne pas seulement la mobilisation des mémoires des génocides, des ethnocides et des crimes de masse, mais qui traverse les expériences banales de celles et de ceux qui se sentent inégaux « en tant que ».

De manière plus étonnante, l’extension du règne de l’égalité des chances et des discriminations affecte celles et ceux qui ne peuvent faire valoir aucune discrimination reconnue mais qui, pour autant, ne vivent pas tellement mieux que les discriminés reconnus comme tels. Victimes d’inégalités sociales mais non discriminés, les individus se sentent méprisés et, paradoxalement, discriminés à leur tour : méprisés parce qu’ils seraient tenus pour pleinement responsables de leur situation, discriminés parce qu’ils souffriraient de discriminations invisibles alors que les autres, des discriminés reconnus, seraient aidés et soutenus. Ainsi, les hommes blancs et les « Français de souche » pauvres seraient paradoxalement discriminés parce qu’ils ne peuvent faire valoir aucune discrimination reconnue et parce qu’ils « méritent leur sort » dans l’ordre de l’égalité des chances. Le basculement politique des petits blancs méprisés et « discriminés sans qu’on le sache » est suffisamment spectaculaire aux États-Unis, en Europe et en France pour qu’il ne soit pas nécessaire d’insister : le vote populaire des vaincus des compétitions économiques et scolaires a basculé vers des populismes de droite dénonçant la « disparition » du peuple quand la lecture des inégalités en termes de discriminations semble les avoir effacés.

Égalité, reconnaissance

Si on en croit les individus que nous avons interrogés (François Dubet, Olivier Cousin, Éric Macé, Sandrine Rui) dans Pourquoi moi ? (Seuil, 2013), l’expérience des discriminations conduit vers une double logique de mobilisation, vers deux principes d’action.

Le premier participe pleinement de l’universalisme démocratique affirmant l’égalité des individus et de leurs droits. Il faut donc lutter contre toutes les formes de ségrégation, de stigmatisation et de discrimination, garantir l’équité des procédures et développer la capacité de porter plainte contre le racisme, le sexisme, l’homophobie et toutes les formes de discrimination « à » : à l’emploi, au logement, aux études, aux loisirs, aux contrôles policiers…

En principe, cette logique ne se heurte à aucun obstacle, sinon au fait, disent les individus concernés, qu’elle est difficile à mettre en œuvre. D’abord, il n’est pas toujours facile d’établir la preuve d’une discrimination sans témoignages, sans matérialité incontestable des faits, et la plupart des individus concernés disent renoncer, le « prix » de la plainte étant trop élevé. Ensuite, il existe des obstacles plus subjectifs et plus profonds. Dans la mesure où les discriminations sont des blessures souvent imprévisibles relevant de situations ambiguës, on sait que l’on a été discriminé sans en avoir la preuve, bien des individus ne veulent pas devenir « paranos » et préfèrent faire « comme si ce n’était pas si grave » afin de continuer à vivre plus ou moins « normalement ».

Enfin, beaucoup de personnes que nous avons interrogées ne veulent pas renoncer à leur autonomie et répugnent à se vivre comme des victimes. En fait, si chacun sait qu’il est victime de discriminations, beaucoup répugnent à adopter le statut de victime. On peut donc ne rien ignorer des discriminations, tout en refusant d’être totalement défini par elles. En dépit de ces difficultés, il reste que du point de vue légal et de celui des procédures, la lutte pour l’égalité de traitement et pour l’équité est essentielle et que, dans ce cadre, l’universalisme démocratique et la lutte contre les discriminations vont de pair.

La seconde logique déployée par les acteurs concerne moins les discriminations proprement dites que les stigmatisations. Dans ce cas, les individus réclament un droit à la reconnaissance : ils veulent que les identités au nom desquelles elles et ils sont stigmatisés puis discriminés soient reconnues comme également dignes à celles des identités majoritaires perçues comme la norme. Cet impératif de reconnaissance doit être distingué de l’appel à la seule tolérance qui est sans doute une vertu et une forme d’élégance, mais qui n’accorde pas une égale dignité aux identités en jeu. On peut tolérer des différences et des identités dans la mesure où elles ne mettent pas en cause l’universalité supposée de la norme majoritaire. Ainsi on tolère une religion et une sexualité minoritaires puisqu’elles ne mettent pas en cause la religion ou la norme hétérosexuelle majoritaire tenue pour « normale » et donc pour universelle.

La demande de reconnaissance est d’une tout autre nature que celle de l’égalité de traitement dans la mesure où l’égale dignité des identités fait que des normes et des identités majoritaires perdent leur privilège : si je reconnais le mariage pour tous et la procréation assistée, la famille hétérosexuelle devient une forme familiale parmi d’autres ; si je reconnais d’autres cultures, l’identité nationale traditionnelle est une identité parmi d’autres… Des identités et des normes qui se vivaient comme universelles cessent de l’être et se sentent menacées. Ce qui semblait aller de soi cesse d’être une évidence partagée. Il me semble que le débat n’oppose pas tant l’universalisme aux identités qui le menaceraient qu’il clive le camp universaliste lui-même. Par exemple, le débat laïque n’oppose plus les laïques aux défenseurs du cléricalisme, mais les « républicains » aux défenseurs d’une laïcité « ouverte ». Le supposé consensus laïque des salles de professeurs n’a pas résisté à l’assassinat de Samuel Paty. De la même manière se pose la question du récit national enseigné à l’école quand bien des élèves se sentent français, mais aussi algériens ou turcs… Comment distinguer la soumission des femmes à une tradition religieuse et leur droit universel à choisir sa foi et à la manifester ? En fait, ce que nous considérons comme l’universalisme se fractionne car, au-delà des principes, l’universel se décline dans des normes et des cultures particulières. Ainsi, nous découvrons qu’il existe des manières nationales d’être universels derrière le vocabulaire partagé des droits, de la laïcité et de la démocratie.

Plutôt que de parler d’universel, mieux vaudrait essayer de définir ce que nous avons ou pouvons avoir de commun dans les sociétés où nous vivons. En effet, la reconnaissance d’une identité et d’une différence n’est possible que si nous savons ce que nous avons de commun, à commencer par les droits individuels bien sûr, mais aussi par ce qui permet de vivre ensemble au-delà de nos différences. Il faut donc renverser le raisonnement commun : on ne reconnaît pas des différences sur la base de ce qui nous distingue, mais sur la base de ce que nous avons de commun et que ne menace pas une différence. Mais ce commun suppose de reconstruire ce que nous appelions une société, c’est-à-dire des mécanismes de solidarité, d’interdépendance dans le travail, dans la ville, dans l’éducation et dans l’État-providence lui-même qui, ne cessant de fractionner ses cibles et ses publics, est devenu « illisible ». Pour résister aux vertiges des identités et aux impasses de la reconnaissance et des peurs qu’elles engendrent, il serait raisonnable de radicaliser et d’approfondir la vie démocratique, de fonder une école qui ne soit pas réduite au tri continu des élèves, de réécrire sans cesse le récit national afin que les nouveaux venus dans la nation y aient une place, de détruire les ghettos urbains, de rendre lisibles les mécanismes de transferts sociaux, de s’intéresser au travail et pas seulement à l’emploi… Soyons clairs, il ne s’agit pas de revenir vers la société de classes et les nations communautaires, mais sans la construction patiente et méthodique d’un commun, je vois mal comment nous résisterons à la guerre des identités et à l’arrogance de l’universel.

Nous vivons aujourd’hui une mutation sociale et normative sans doute aussi profonde que celle qui a marqué le passage des sociétés traditionnelles vers des sociétés démocratiques, industrielles et nationales. Il est à craindre que cette mutation ne soit pas plus facile que la précédente et il m’arrive de penser que les sciences sociales, au lieu d’éclairer ces débats, ces enjeux, et de mettre en lumière les expériences sociales ordinaires, participent parfois à ce qu’elles dénoncent quand chacun est tenté d’être le témoin et le militant de « sa » discrimination et de « son » inégalité selon la logique des « studies ». Même si la société n’est plus La Société que nous imaginions à la manière de Durkheim, et dont beaucoup ont la nostalgie, nous ne devrions pas renoncer à l’idée que nous sommes interdépendants et que le choix de l’égalité sociale reste encore une des voies les plus sûres pour atténuer l’inégalité des chances. Le désir de ne pas réduire la question de la justice à celle des discriminations et des identités impose le vieux thème de la solidarité – et ce, d’autant plus que les enjeux écologiques appelleront un partage des sacrifices, et pas seulement un partage des bénéfices.

The Conversation

Dubet François ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

11.09.2025 à 17:17

Ressourceries, Emmaüs, Le Relais : les acteurs emblématiques de la seconde main menacés par la grande distribution

Benjamin Cordrie, Enseignant-chercheur, titulaire de la chaire économie sociale et circulaire, UniLaSalle

Victor Bayard, Docteur en génie urbain. Chercheur en socio-économie., UniLaSalle

Aux côtés d’association comme Emmaüs, de plateformes comme Vinted, la grande distribution entre sur le marché de la seconde main. Faut-il s’en réjouir&nbsp;?
Texte intégral (2126 mots)
La croissance du marché de la seconde main est estimée à 15&nbsp;% par an. NovikovAleksey/shutterstock

Aux côtés des acteurs associatifs historiques du réemploi – Emmaüs, ressourceries et recycleries – et des plateformes, comme Vinted et Leboncoin, de nombreuses enseignes de la grande distribution développent aujourd’hui des offres de seconde main. Faut-il s’en réjouir ? Qui en sort vainqueur ?


Les activités liées à la seconde vie des produits connaissent en France un essor sans précédent. Faut-il se réjouir de l’avènement d’une économie circulaire plus vertueuse, limitant le gaspillage des ressources et la production de déchets ? C’est l’une des interrogations qui oriente les travaux menés dans le cadre de la Chaire Économie sociale et circulaire.

Deux modèles coexistent derrière la promesse vertueuse de la seconde main. Le premier, porté par les acteurs de l’économie sociale et solidaire, repose sur la pratique du réemploi : une activité fondée sur le don, articulée à des finalités sociales (insertion, solidarité) et écologiques (réduction des déchets, sobriété matérielle).

Le second relève du marché de l’occasion. Il repose sur la revente, mobilisée comme levier de profit, et tend à intensifier la circularité, sans remettre en cause les volumes de production et de consommation. Autrement dit, l’un cherche à réduire à la fois les déchets et la surconsommation, l’autre vise à prolonger la durée de vie des produits sans sortir de la logique marchande. Les deux modèles ne sont pas équivalents, ni dans leurs objectifs ni dans leurs effets.

Pour quel avenir du marché de seconde main ?

Seconde main devenue chic

Plusieurs facteurs expliquent les velléités de la grande distribution à investir le marché de la seconde main. Dans un contexte où les injonctions à adopter des comportements de consommation responsables se multiplient, la croissance de ce marché est estimée à 15 % par an.

Elle s’appuie sur une revalorisation sociale de la seconde main, devenue tendance, voire chic. C’est sur cette corde que jouent les campagnes de communication des plates-formes comme Vinted. D’autre part, une étude marketing comme celle du cabinet Enov (dont l’illustration ci-dessous est tirée) offre à la fois l’intérêt de quantifier le marché de la seconde main et de témoigner de son intérêt auprès d’acteurs aux modèles économiques lucratifs.

Marché de la seconde main par catégorie. Enov

Ces mutations s’inscrivent dans le sillage de la loi Anti-Gaspillage pour une économie circulaire (AGEC) adoptée en 2020. La réglementation sur la reprise « 1 pour 1 » oblige les distributeurs à collecter les produits usagés qu’ils commercialisent, soumis à la responsabilité élargie du producteur (REP). En 2023, ces filières REP pèsent 152 millions de tonnes de produits, 12,6 millions de produits et déchets collectés pour 8,2 millions de tonnes recyclées.

Ainsi voit-on fleurir, dans les grandes surfaces, des offres de produits de seconde vie, qu’il s’agisse d’électroménager, d’articles de sport, ou encore de bricolage.

Réemploi solidaire

Le secteur du réemploi s’est historiquement structuré autour d’acteurs de l’économie sociale et solidaire comme Emmaüs, les ressourceries ou les entreprises d’insertion Envie. Leur activité combine deux aspects : la collecte basée sur le don, dite « non écrémante » car indépendante de la valeur marchande des objets, et la revente à prix solidaires. Ces acteurs participent à la prévention, en détournant du flux de déchets, la partie pouvant être réemployée.

Ces structures entretiennent une relation distante avec le profit, ce qui leur permet de rendre accessibles des biens aux catégories les plus précaires de la population. Nombre d’entre elles sont des actrices de l’insertion par l’activité économique (IAE). Elles proposent des emplois accompagnés à des personnes éloignées du marché du travail, et font du réemploi des objets un support à l’insertion socioprofessionnelle des personnes.

L’ancrage territorial de ces structures, et les modes démocratiques de gouvernance qui s’y exercent ouvrent la voie à des formes de réappropriation citoyenne des enjeux de gestion des déchets. Dans les sociétés industrielles modernes, ces enjeuxsont délégués à des entreprises spécialisées et circonscrits à des choix techniques. Les structures du réemploi solidaire mobilisent des bénévoles, des salariés, des collectivités et des habitants, et contribuent en cela à repolitiser ces enjeux en redonnant aux citoyens un pouvoir de décider et d’agir.

Bon d’achat dans la grande distribution

Le modèle développé par la grande distribution est radicalement différent. Il repose sur un système de bons d’achat : en échange d’un produit usagé rapporté en magasin, les consommateurs reçoivent un bon de réduction à valoir sur l’achat d’un produit neuf. Ce dispositif stimule la consommation, y compris de produits neufs, et contribue à un effet rebond. Les bénéfices environnementaux attendus de la prolongation de la vie des produits peuvent se retrouver annulés par l’augmentation de la consommation globale.

Il s’agit moins de réemploi que de l’intégration d’une offre d’occasion. En témoignent les partenariats entre des enseignes de grande distribution et des professionnels du secteur. Carrefour s’est par exemple associé à Cash Converters, entreprise spécialisée dans l’achat-vente de biens d’occasion, pour installer des corners dédiés à l’occasion dans ses hypermarchés. Les activités liées à la seconde vie sont ici une opportunité de diversification commerciale, voire de verdissement de l’image de l’entreprise.

Pressions concurrentielles

Ces évolutions exercent une pression croissante sur les acteurs du réemploi solidaire, en particulier lorsque les segments les plus rentables – la « crème » des gisements – sont captés. Ces objets de qualité, en très bon état et avec une forte valeur marchande, représentent une part réduite des apports, mais jouent un rôle très important dans l’équilibre économique des structures.


À lire aussi : Vieux vêtements, nouveaux problèmes : le recyclage ne règle pas tout


Les revenus issus des ventes à prix solidaires représentent jusqu’à 80 % des ressources de certaines structures comme Envie. Les difficultés rencontrées par la filière textile, submergée par des volumes croissants de vêtements à bas coût issus de la fast fashion, illustrent bien la fragilité de cet équilibre.

ESS versus RSE

Comme le rappelle la socioéconomie, l’application d’un principe de marché librement concurrentiel favorise les acteurs dominants. Face aux moyens des grandes enseignes, les campagnes de plaidoyer des structures solidaires peinent à se faire entendre. Une réponse politique plus ambitieuse paraît nécessaire, à même de garantir la pérennité des activités solidaires.

Des partenariats existent entre ESS et entreprises privées, comme celui qui unit la fédération Envie au groupe Fnac-Darty. Puisque ces coopérations reposent uniquement sur des démarches RSE non contraignantes, leur pérennité reste fragile. Rien n’empêche les enseignes de s’en détourner dès lors qu’elles identifient un intérêt économique à développer leur propre filière de seconde main.

Modes de production et de consommation

Au niveau local, certaines collectivités soutiennent activement les acteurs de l’ESS à travers des aides financières, des mises à disposition de locaux ou des clauses sociales et environnementales dans les marchés publics. À Rennes, la métropole a initié la création d’une plateforme territoriale du réemploi, fédérant plusieurs structures solidaires.

Comme l’affirme la géographe Nicky Gregson, « il est impossible de comprendre le problème global des déchets en commençant par le déchet ». Autrement dit, il faut interroger les dynamiques de production et de consommation qui sous-tendent ces flux. C’est à cette échelle qu’il est possible de penser le réemploi solidaire, non comme un débouché opportun à une surproduction irréversible, mais comme un espace en marge du capitalisme que les pouvoirs publics peuvent choisir de soutenir, ou de fragiliser.

The Conversation

Cet article est le fruit des travaux menés dans le cadre de la chaire économie sociale et circulaire, portée par UniLaSalle Rennes et financée par l'éco-organisme Valdelia. Benjamin Cordrie est membre de l'Association Française d'Economie Politique (AFEP).

Mes recherches postdoctorales sont financées par un programme de recherche, la Chaire Économie Sociale et Circulaire, dont les financements proviennent d'un accord de mécénat avec l'éco-organisme Valdelia, agréé par l’État (filière du mobilier professionnel et des produits et matériaux de construction du bâtiment).

PDF

11.09.2025 à 17:11

Valoriser les déchets verts et alimentaires en limitant l’impact négatif du transport : l’exemple de Romainville

Thomas Zeroual, Enseignant-chercheur en Economie, ESCE International Business School

Pour que les biodéchets soient intéressants à valoriser, encore faut-il que la facture environnementale du transport par camion ne déséquilibre pas l’équation&nbsp;!
Texte intégral (2523 mots)

Le tri des biodéchets (c’est-à-dire, les déchets verts et les déchets alimentaires) est obligatoire depuis 2024. Mais, pour que ces biodéchets soient intéressants à valoriser, encore faut-il que la facture environnementale du transport par camion ne déséquilibre pas l’équation ! Une récente étude menée dans un quartier de Romainville, en Seine-Saint-Denis, montre comment choisir l’approche la plus efficace à l’échelle d’un territoire.


Depuis le 1er janvier 2024, le tri des biodéchets, c’est-à-dire les déchets biodégradables de nos ordures ménagères comme les restes alimentaires, est obligatoire pour les professionnels comme pour les citoyens. Cette réglementation semble encourageante d’un point de vue environnemental. En effet, mieux trier peut réduire la quantité de déchets incinérés – et donc les émissions de gaz à effet de serre associées – tout en encourageant la production énergétique de compost ou de biogaz.

Encore faut-il transporter ces déchets vers les lieux de valorisation… Et c’est là que les choses se compliquent : selon le scénario considéré, les impacts environnementaux du transport grimpent considérablement.


À lire aussi : Déchets alimentaires : à quoi va servir le nouveau tri à la source ?


Un potentiel immense… en théorie

Selon le Code de l’environnement, les biodéchets sont définis comme « les déchets non dangereux biodégradables de jardin ou de parc » (qu’on appelle couramment déchets verts) ainsi que « les déchets alimentaires ou de cuisine ».

Chaque année, 18 millions de tonnes de biodéchets sont produites par les ménages en France. Les marges de manœuvre pour les réduire sont importantes : une grande partie des déchets organiques est aujourd’hui incinérée ou mise en décharge, ce qui n’est pas du tout optimal. La hiérarchie définie par la directive cadre de l’Union européenne est très claire : ces modes de traitement ne doivent être utilisés qu’en dernier recours. En théorie, il convient de respecter l’ordre de priorité suivant : dans un premier temps, prévenir la constitution du déchet, ensuite le réemploi, puis le recyclage et enfin l’élimination.

Incinérer ou mettre en décharge les biodéchets ne respecte pas cette hiérarchie. Cela génère de surcroît des émissions de CO2 (en cas d’incinération) et de méthane (en cas de mise en décharge), sans parler du gaspillage d’espace et d’énergie.

En France, la gestion des biodéchets représente le principal gisement d’évitement (c’est-à-dire, la part d’un flux de déchets pouvant être évitée grâce à des actions de prévention en amont), selon l’Agence de la transition écologique (Ademe).

Actions les plus efficaces pour éviter d’augmenter le volume de biodéchets. Ademe, Fourni par l'auteur

Des changements dans l’organisation du ramassage de ces déchets, par exemple, pourraient entraîner une baisse significative du volume de ces déchets.

Quatre scénarios pour la collecte des biodéchets

Chaque année en France, 355 millions de tonnes de déchets sont transportés, ce qui représente 30 % des émissions de gaz à effet de serre générées par le secteur de la gestion des déchets, soit 2,4 millions de tonnes équivalent CO2.

Face à ces impacts environnementaux, il est utile d’identifier et d’évaluer une meilleure gestion des transports des biodéchets. Différentes options doivent être envisagées, car il n’existe pas de solution unique.

Nous avons récemment mené une étude dont le terrain était un quartier situé à Romainville, en Seine-Saint-Denis, ville connue pour avoir déjà expérimenté des solutions de collecte de biodéchets.

Ce quartier comprend une population de 3 995 habitants répartis sur une aire de 47 hectares. Les déchets sur cette surface sont collectés et acheminés vers une plate-forme de transit à la déchetterie de Romainville, puis ils sont répartis dans des conteneurs en vue de leur recyclage ou de leur élimination par des filières spécialisées, comme le centre d’incinération à Saint-Ouen-sur-Seine.

L’Étoile verte est une usine d’incinération pour les déchets ménagers, construite en 1990 à Saint-Ouen, qui produit de la chaleur (chauffage urbain) et de l’électricité. John-Grégoire/Wikimedia, CC BY-NC-SA

Le modèle que nous avons utilisé incluait plusieurs variables liées au transport, comme les itinéraires de collecte, la taille du parc de véhicules, leurs poids, la taille et le nombre de tournée… Il intègre aussi des variables environnementales, comme la part de compostage et de méthanisation sur ces déchets et la consommation de carburant des camions utilisés pour leur transport.

Dans nos travaux sur ce quartier, nous avons retenu quatre scénarios.

  • Le scénario n°1 correspond à un compostage de proximité avec une gestion in situ, autrement dit une gestion volontaire et locale vers un site de compostage partagé. Nous avons supposé que 30 % des biodéchets finissaient dans une poubelle individuelle et que 70 % restants étaient valorisés dans un compost collectif. Ce scénario n’est toutefois crédible que si le taux de participation est suffisant. Conformément au seuil établi par la littérature scientifique, nous avons fixé ce taux à 45 %.

  • Les autres scénarios se rapportent à une collecte centralisée organisée par des professionnels. Le scénario n°2 correspond à un ramassage en porte à porte vers un centre de transit où l’on groupe les déchets avant de les envoyer dans un centre de valorisation.

  • Le scénario n°3 s’effectue en porte à porte, mais sans point de transit : c’est le scénario le plus utilisé en France.

  • Enfin, le scénario n°4 est une collecte en porte-à-porte, sans point de transit, mais avec des bacs collectifs plus grands que les poubelles individuelles.

Le scénario gagnant : supprimer le transport

Quel scénario est le plus intéressant ? Par ordre du plus au moins intéressant :

Le scénario n°1 de compostage de proximité s’avère être le scénario à privilégier. En effet, il exclut l’étape du transport : les biodéchets sont soit compostés à l’échelle individuelle au sein des habitats privés, soit à l’échelle collective, où chaque habitant d’une résidence collective amène ses biodéchets dans des bioseaux vers des composteurs partagés aux pieds d’immeuble, dans les jardins ou des parcs publics.

Supprimer purement et simplement l’étape de collecte des biodéchets est le scénario le plus vertueux pour l’environnement. Kevin.B/Wikimedia, CC BY-NC-SA

Le deuxième meilleur est le scénario de collecte dans des bacs plus grands (scénario n°4) : il est préférable au scénario en porte-à-porte avec transit (scénario n°2). Et cela, même avec une distance parcourue plus élevée (210 km contre 142 km) et une consommation en carburant supérieure (53 litres contre 37 litres), car les camions de collecte s’arrêtent, en proportion pour une quantité de déchets ramassés équivalente, moins souvent.

Enfin, le scénario de collecte n°3 en porte-à-porte sans point de transit est celui qui génère le plus d’externalités. C’est le scénario le plus émetteur de CO2, du fait du nombre d’arrêts. Ce scénario est pourtant celui qui est actuellement le plus appliqué !

Le collectif prime encore et toujours sur l’individuel

Le compost apparaît ainsi comme la solution préférable et optimale pour les biodéchets d’un point de vue environnemental. Composter en proximité, c’est participer à la réduction des émissions de gaz à effet de serre.

En attendant que le compost devienne un réflexe citoyen, l’étude permet de quantifier l’impact des autres scénarios de collecte.

Le recours à des centres de transit permet certes de diminuer de plus de 27 % les émissions de CO2, mais utiliser des bacs collectifs sans transit permet de les réduire de plus de 57 %.

En définitive : plus le citoyen est sollicité et participe au traitement de ses déchets, meilleurs sont les résultats en termes climatiques. Si on le sollicite moins, alors il faut davantage miser sur de la mutualisation du transport.

Ces travaux offrent des perspectives intéressantes pour la. Nous pourrons à l’avenir y intégrer le méthane et/ou les particules fines issues de l’incinération et même comptabiliser les émissions des sites de compostage, ce qui n’a pas été fait pour le moment. Enfin, notre évaluation pourrait intégrer différentes flottes de camions hybride et/ou électrique d’un remplacement de ces véhicules.


À lire aussi : Poids lourds et pollution : comment accélérer l’électrification ?


The Conversation

Thomas Zeroual ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

11.09.2025 à 12:48

Petra Kelly, l’activiste qui a fait de la défense de l’environnement une lutte pour la paix

Anne-Claude Ambroise-Rendu, Professeur d'histoire contemporaine, Université de Versailles Saint-Quentin-en-Yvelines (UVSQ) – Université Paris-Saclay

Co-fondatrice du parti des Verts allemands et figure souvent oubliée des luttes environnementales, Petra Kelly a articulé dans ses combats écologie et pacifisme.
Texte intégral (1886 mots)

Pacifisme, écologisme et féminisme : Petra Kelly a marqué le mouvement environnementaliste allemand de son engagement. D’abord impliquée dans les mouvements antinucléaires, elle s’est mobilisée en faveur d’une écojustice qui mettrait fin aux inégalités entre pays du Nord et du Sud. Co-fondatrice des Verts outre-Rhin dans les années 1980, celle qui fut aussi députée au Bundestag pendant sept ans s’est distinguée par un militantisme de terrain au sein des mouvements sociaux.


Entrée dans la vie publique en protestant contre l’installation de missiles nucléaires de l’Organisation du traité de l’Atlantique Nord (Otan) en Allemagne de l'Ouest, en 1979, Petra Kelly (1947-1992) a été l’une des premières figures politiques à associer la défense de l’environnement et le refus du nucléaire, le pacifisme intransigeant et le féminisme radical. Fondatrice et figure de proue du parti des Verts allemands (Die Grünen), elle a incarné l’un des plus vastes mouvements contestataires de l’Allemagne des années 1970 et 1980. Pourtant, c’est aujourd’hui une figure en partie oubliée.

Née en 1947 en Bavière puis émigrée aux États-Unis, c’est au cours de ses études de sciences politiques à Washington, que Petra Kelly découvre sur les campus la contestation de la guerre du Vietnam, le féminisme et la non-violence du mouvement pour les droits civiques. En 1968, elle s’engage dans la campagne présidentielle de Robert Kennedy. À cette occasion, elle forge les principes moraux qui vont la guider toute sa vie : un engagement féministe et une conviction pacifiste très profonde qui vont nourrir ses combats ultérieurs.

Le début d’un engagement dans les mouvements antinucléaires

En février 1970, la mort de sa sœur à l’âge de 10 ans, victime d’un cancer, est décisive dans son approche de l’usage civil et militaire des radiations. C’est donc par la question du nucléaire que Petra Kelly entre dans les mouvements écologistes au début des années 1970. Elle perçoit tout le potentiel qu’offre l’activisme antinucléaire, qui propose une critique de fond du système économique et politique occidental, pour promouvoir une politique européenne alternative et réellement sociale. Après un passage par l’Université d’Amsterdam, elle travaille dix ans, de 1972 à 1982, à la Commission européenne à Bruxelles, où elle comprend que le changement social ne se fera pas sans associer davantage les citoyens aux décisions politiques.

Rentrée en République fédérale d’Allemagne (RFA) en 1979, elle s’éloigne rapidement du SPD (parti social-démocrate) auquel elle avait adhéré, en raison de la politique nucléaire et militaire du gouvernement d’Helmut Schmidt. Elle se présente sans succès aux élections européennes de 1979 dans le camp des Verts, le parti écologiste allemand à la création duquel elle a œuvré avec son compagnon Gert Bastian, ancien général de la force de défense fédérale allemande.

En 1983, elle figure parmi les 28 premiers élus du parti des Verts qui fait ainsi, avec 5,6 % des voix, son entrée au Bundestag avec le soutien de l’écrivain Heinrich Böll, prix Nobel de littérature. Rare femme à siéger dans cette institution où elle restera députée jusqu’en 1990, Petra Kelly travaille inlassablement à faire reconnaître les droits des femmes en politique et raille le sexisme qui règne au Parlement allemand, la chambre basse allemande :

« Peu importe le succès qu’une femme peut avoir, il y a toujours un homme qui surveille ses faits et gestes et qui laisse son empreinte sur tout ce qu’elle fait. »

« La paix, c’est la protection de l’environnement »

Fustigeant l’organisation et la pensée sclérosées des partis politiques, elle ambitionne d’insuffler l’énergie qui l’a séduite dans le mouvement antinucléaire à la vie politique allemande. Elle participe à toutes les manifestations, sit-in et débats télévisés et devient ainsi la figure de l’écologisme et du pacifisme allemand, sa célébrité dépassant alors de très loin les frontières nationales et même européennes.

Son activisme est délibérément spectaculaire. En 1980, lors de la crise des euromissiles provoquée par le déploiement d’un arsenal d’armes conventionnelles et atomiques, elle signe, comme bientôt deux millions de personnes, l’appel de Krefeld contre les décisions de l’Otan. Comprenant que l’appel est partisan et ne vise que l’Otan mais pas les pays du bloc de l’Est, elle prend bientôt ses distances avec les signataires. Reçue à la fin de l’année 1983, avec d’autres représentants des Verts, par Erich Honecker, président du Conseil de la République démocratique allemande (RDA), qui espérait trouver en eux des alliés contre le militarisme de l’Ouest, elle ne transige pas : vêtue d’un tee-shirt orné du slogan du mouvement pour la paix est-allemand, elle demande la libération des opposants politiques incarcérés en RDA et remet à Honecker un traité de paix symbolique.

Pour protester contre la course aux armements, elle organise la crémation d’un énorme missile de papier fabriqué avec de vieilles affiches de la CDU (Union chrétienne-démocrate) et du SPD devant le quartier général de ce dernier. Dans une lettre ouverte à Willy Brandt, président du SDP, publiée dans le Frankfurter Rundschau en 1982, elle affirme :

« La paix, c’est la protection de l’environnement, c’est empêcher la déforestation pour y installer des bases de missiles, c’est lutter contre l’implantation de centrales nucléaires. »

Un militantisme international

Rare députée allemande à parler couramment l’anglais, elle parcourt le monde tout au long des années 1970 et 1980, sans cesser de déplorer l’étroitesse de vue de la vie politique de l’Allemagne de l’Ouest, renfermée au sein des frontières du pays. Elle se partage entre les capitales occidentales et les mobilisations antinucléaires, tout en s’associant aux combats des minorités autochtones, qu’elles soient aborigènes en Australie ou lakotas aux États-Unis.

En 1982, elle reçoit, en hommage à son engagement indéfectible et international en faveur de l’environnement et de la justice sociale, le Right Livelihood Award, Nobel de la paix alternatif. En 1987, elle soumet au Bundestag une résolution sur le Tibet. Au sein du Parlement, comme devant la Maison Blanche à Washington, sur l’Alexanderplatz à Berlin-Est ou à l’ambassade ouest-allemande à Pretoria (Afrique du Sud), il s’agit pour elle de créer des réseaux transnationaux favorisant la circulation des informations et des pratiques de contestation.

Dès 1990, elle promeut la notion d’écojustice dans un texte resté fameux qui plaide pour une refonte totale du modèle économique occidental et la fin de la logique productiviste et consommatrice, qui génère de plus en plus d’inégalités nord-sud. Elle souligne la responsabilité des pays riches à l’égard des autres pays du monde, autant en matière de commerce que d’environnement. Elle y dénonce la déforestation du Costa Rica et l’expropriation des populations locales pour le profit des chaînes de fast- food qu’elle appelle à boycotter, ainsi que l’envoi de déchets industriels toxiques dans les pays pauvres. Elle insiste sur le lien qui existe entre la pauvreté profonde des deux tiers de l’humanité, les dégradations environnementales et la militarisation du monde.

Appel à une réponse non violente, le texte n’est pas qu’un réquisitoire. Il invite à refonder les mentalités des pays industriels en mesurant le bien-être à l’aune de critères nouveaux : la santé, l’air pur, l’eau claire, une nourriture saine et le partage de l’environnement avec les plantes et les animaux. L’écojustice n’est rien d’autre, écrit-elle que « prendre au sérieux la destinée de l’humanité et de la planète sur laquelle nous vivons. S’il y a un futur, il sera vert ».

Concilier activisme et fonction politique

Mais être une activiste populaire et intransigeante, célèbre dans le monde entier et siéger au Parlement s’avère parfois délicat, surtout quand on est devenue le visage des Verts. Les médias la présentent comme la Jeanne d’Arc de l’âge nucléaire, qualificatif qu’elle déteste. Or, si certains verts saluent son activisme infatigable, d’autres jugent qu’il est incompatible avec le sérieux attendu d’une députée et y voient un risque de discrédit du parti. Elle est donc progressivement marginalisée au sein d’un parti qui gagne en influence et dont les idées se banalisent. En 1990, elle tente sans succès de figurer sur la liste des Verts pour les élections au Bundestag et son parti divisé, échoue à siéger au Parlement faute d’avoir obtenu les 5 % nécessaires.

En 1992, à 45 ans, elle est assassinée dans son sommeil par son compagnon, lui aussi ancien député des Grünen, Gert Bastian qui se donne ensuite la mort. Les raisons de ce crime restent inconnues.

L’année suivante, le 22 avril, jour de la Terre, on inaugurait à Barcelone (Espagne) le jardin Petra Kelly, situé sur la colline de Montjuïc. Cette figure charismatique n’est pas oubliée de tous et continue d’être une inspiratrice : lauréate à titre posthume du prix Lumière de la vérité en 2002, décerné par le dalaï-lama, qu’elle avait rencontré, elle est classée 45e dans la liste des personnalités ayant œuvré pour sauver la planète par l’Agence de l’environnement du Royaume-Uni en 2006. De la même façon, la Fondation Heinrich-Böll a créé le prix Petra-Kelly, récompensant une personnalité ayant contribué à faire progresser les droits humains universels et la paix dans le monde.

The Conversation

Anne-Claude Ambroise-Rendu ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

11.09.2025 à 12:46

Mars : les nouveaux résultats de la Nasa démontrent-ils des signes de vie passée ?

Sean McMahon, Reader in Astrobiology, University of Edinburgh

Une roche est parsemée de taches qui auraient pu être formées par des microbes il y a quatre milliards d’années.
Texte intégral (2159 mots)
Perseverance avec la roche de Cheyava Falls. NASA JPL-Caltech, CC BY

Les analyses d’une roche trouvée sur Mars par le rover Perseverance ont été publiées hier dans la revue Nature. Cette roche présente des taches qu’on explique mal à l’heure actuelle. Proviennent-elles d’une activité microbienne, il y a quatre milliards d’années, ou de réactions encore inconnues ? Ces observations, loin de mettre un point final à la quête de traces de vie sur Mars, ne sont en fait que le début d’une longue enquête… qui nécessite de rapporter la roche sur Terre.


Il y a un peu plus d’un an, la Nasa a fait une grande annonce : le rover Perseverance, qui explore la surface de Mars, avait trouvé des signes potentiels d’une vie ancienne sur Mars. Les détails de cette découverte ont maintenant été évalués par les pairs et publiés dans la revue Nature. Un article qui, malgré sa formulation plutôt modeste, pourrait finalement s’avérer être l’un des plus importants de l’histoire des sciences.

Pour faire court : ces traces pourraient être des signes de vie passée, mais il faudrait ramener les échantillons sur Terre pour en être sûrs. Le rover Perseverance a collecté et analysé un fragment de la roche en question… il ne reste plus qu’à aller le chercher.

Cheyava Falls
La roche surnommée Cheyava Falls présente des taches qui auraient pu être formées par une forme de vie microbienne. Nasa JPL-Caltech, CC BY

Et une mission visant à se rendre sur Mars, à récupérer les échantillons de roche collectés par Perseverance et à les ramener sur Terre a été élaborée par la Nasa et l’Agence spatiale européenne – ceci inclut l’échantillon de roche qui fait l’objet de l’étude publiée dans Nature. Mais cette mission, Mars Sample Return, rencontre des difficultés en raison de l’augmentation des coûts de la mission ([le budget proposé en mars 2025 par le président Trump n’inclut pas cette mission, ndlr]).

Au milieu de l’année 2024, le rover Perseverance a découvert un bloc de mudstone ancien, une roche sédimentaire composée à l’origine d’argile ou de boue, surnommée Cheyava Falls, qui se distingue par sa teinte rouge brique. Cette roche a été déposée par l’eau, il y a environ quatre milliards d’années.

Alors que la plupart des roches martiennes sont rouges à cause d’une couche de poussière d’oxyde de fer, Cheyava Falls est rouge jusqu’à son cœur : l’oxyde de fer se trouve dans la roche elle-même.

Plus intriguant encore, Cheyava Falls est parsemée de douzaines de minuscules taches pâles, de tailles généralement inférieures à un millimètre. Ces taches sont bordées d’un minéral sombre, riche en phosphore, qui apparaît également sous forme de minuscules points dispersés entre les autres taches et que l’on appelle « graines de pavot ». Ce minéral plus sombre est associé à des traces d’anciens composés organiques : des composés qui contiennent du carbone et qui sont essentiels à la vie sur Terre… mais qui existent également en l’absence de vie et d’activité biologique.

Quel est le rapport avec la vie ?

Tous les organismes vivants sur Terre collectent l’énergie grâce à des réactions d’oxydoréduction (réactions redox) qui transfèrent des électrons entre des substances chimiques appelées réducteurs (qui cèdent des électrons) et d’autres, appelées oxydants (qui les acceptent).

Sur Terre par exemple, dans les cellules animales, des structures appelées « mitochondries » transfèrent des électrons du glucose (un réducteur) à l’oxygène (un oxydant). Certaines bactéries vivant dans les roches utilisent d’autres types de composés organiques à la place du glucose et, à la place de l’oxygène, de l’oxyde ferrique (un type d’oxyde de fer auquel il manque trois électrons par rapport au métal fer).

Serpentine Rapids
Une autre roche martienne, sur le site de Serpentine Rapids, présente également des caractéristiques rappelant les taches d’oxydoréduction. NASA JPL-Caltech

Lorsque l’oxyde ferrique est réduit en un autre oxyde de fer appelé oxyde ferreux (il ne manque plus que deux électrons par rapport au métal fer), il devient soluble dans l’eau. Il peut ensuite être dispersé ou réagir pour former de nouveaux minéraux, de couleur plus claire.

Il en résulte que de nombreuses roches et sédiments rouges sur Terre contiennent de petites taches blanchies, appelées « taches de réduction », qui ressemblent de manière frappante à celles trouvées à Cheyava Falls.

Sur Mars, Perseverance a également repéré des caractéristiques blanchies encore plus évocatrices de taches de réduction sur un site appelé Serpentine Rapids. Malheureusement, le rover n’y a passé que trop peu de temps pour les analyser et n’a prélevé aucun échantillon.

Le nouvel article développe des résultats présentés lors de la Lunar and Planetary Science Conference, à Houston (États-Unis), en mars 2025, avec plus de détails. Pour être publiés dans Nature, les résultats ont été évalués par des pairs (d’autres chercheurs spécialistes du domaine), ce qui ajoute du crédit à l’annonce de la Nasa. Ainsi, la nouvelle publication confirme que les taches pâles sont associées à des matières organiques et qu’elles contiennent du fer ferreux et du soufre, plus précisément un minéral de sulfure de fer.

L’interprétation la plus plausible est que des réactions d’oxydoréduction se sont produites à l’intérieur de la roche après sa formation. Elles ont transféré des électrons des matières organiques vers l’oxyde ferrique et le sulfate, ce qui a produit les zones décolorées, où l’oxyde ferrique est réduit en oxyde ferreux.

Le point crucial est que ces réactions, en particulier la réduction des sulfates, ne se produisent normalement pas aux températures relativement basses auxquelles la roche de Chevaya Falls a été soumise au cours de son histoire… à moins que des microbes ne soient intervenus pour aider la réaction à se produire. L’oxydation microbienne de la matière organique peut également produire des minéraux phosphatés, comme ceux trouvés à Cheyava Falls.

Si nous ne ramenons pas les échantillons dans des laboratoires sur Terre, nous ne pourrons pas savoir ce qui s’est réellement passé à Cheyava Falls il y a quatre milliards d’années.

Mais malgré cela, pour l’instant, nous n’avons pas identifié d’explication « non biologique » (qui n’implique pas d’organisme vivant) qui soit entièrement satisfaisante et rende compte de l’ensemble des observations faites par Perseverance. Le nouvel article détaille ces potentielles explications, en examinant les possibilités une par une.

Mais, quoi qu’il en soit, en astrobiologie, l’absence d’explication non biologique ne marque pas la fin de la recherche de vie, mais plutôt… son commencement. L’histoire nous enseigne que lorsque nous ne trouvons pas d’explication non biologique à un phénomène, ce n’est généralement pas parce qu’il n’y en a pas… c’est simplement parce que nous n’y avons pas encore pensé.


À lire aussi : Comment cherche-t-on des traces de vie sur Mars ?


Que va-t-il se passer maintenant ?

Tout d’abord, les astrobiologistes du monde entier doivent étudier quelles réactions d’oxydoréduction impliquant le fer, le soufre, les composés organiques et le phosphate auraient pu se produire, avec ou sans organismes vivants, dans des conditions similaires à celles de Cheyava Falls.

Ensuite, la NASA et d’autres agences spatiales devront faire preuve d’un leadership audacieux dans le cadre de la mission Mars Sample Return. Oui, cela coûtera cher, peut-être des dizaines de milliards de dollars, mais le résultat pourrait être la découverte scientifique la plus importante jamais réalisée.


À lire aussi : La politique spatiale de la Chine déjoue-t-elle le narratif imposé par les Etats-Unis ? Une conversation avec Isabelle Sourbès-Verger


The Conversation

Sean McMahon a reçu des financements de la NASA par le passé.

PDF

11.09.2025 à 12:07

Retraites par capitalisation ou par répartition : quel système est le plus rentable ?

Anne Lavigne, Professeure de Sciences économiques, Université d’Orléans

L’introduction d’une dose de capitalisation dans le système de retraites a fait son retour. En quoi cela consiste-t-il&nbsp;? Est-ce pertinent économiquement&nbsp;? À quels risques&nbsp;?
Texte intégral (2788 mots)

Le nouveau premier ministre Sébastien Lecornu a indiqué vouloir rouvrir le dossier des retraites. Lors du conclave, la retraite par capitalisation avait été rapidement évoquée. De quoi parle-t-on quand on évoque ce système de financement ? Est-il vraiment opposé à la retraite par répartition ? Quels sont ses réels atouts économiques et financiers ? Les risques qui lui sont associés le discréditent-ils, comme le disent ces critiques ?


Plus connue sous l’appellation « conclave », la délégation paritaire permanente installée le 27 février dernier s’est soldée par un échec, malgré une redéfinition par les partenaires sociaux eux-mêmes du périmètre des thématiques à aborder. Le financement des retraites par capitalisation a notamment été évoqué, avec prudence par les organismes syndicaux et plus d’enthousiasme par les représentants du patronat.

Parallèlement, le 11 juillet dernier, le comité de suivi des retraites a rendu son 12ᵉ avis. Il relève :

« Le recours accru à la capitalisation ne peut pas constituer à court terme une réponse au déséquilibre de notre système par répartition, et peut même avoir pour effet de détourner des ressources du financement des régimes »,

et souligne que :

« Recherche de rendement, préservation de la volatilité, financement de l’économie nationale, investissements souverains constituent autant d’objectifs qui ne sont pas forcément conciliables avec un seul outil dont l’objectif principal reste de verser des retraites aux anciens actifs. »

Comment ça marche ?

Dans un système de retraite par répartition, les cotisations des travailleurs actifs ont vocation à financer les pensions des retraités. S’y ajoutent, dans la plupart des pays, des prélèvements fiscaux. Si les cotisants d’une année donnée financent les pensions des retraités la même année, et non leur propre retraite, ils acquièrent un droit à pension financé par les générations ultérieures et garanti par la nation.


À lire aussi : Retraites : l’allongement de la durée du travail, la moins mauvaise des solutions ?


Dans un système de retraite par capitalisation, les cotisations versées une année donnée sont placées dans des actifs financiers ou immobiliers, dont les rendements se cumulent au fil du temps. Les revenus des placements sont réinvestis année après année jusqu’à la retraite, et le capital accumulé pendant la vie active est versé à la liquidation des droits à la retraite, selon des modalités propres à chaque régime de capitalisation, en une rente viagère, en versements programmés ou en un versement unique.

Un outil de fidélisation

Historiquement, les régimes de retraite professionnels en capitalisation se sont développés lorsque les pays se sont industrialisés. L’objectif des employeurs était de fidéliser une main-d’œuvre par la promesse d’un salaire direct, mais également d’un salaire conditionnel (versement d’une pension d’invalidité en cas d’accident) ou différé (versement d’une pension de retraite lorsque la vieillesse rendait le travailleur inapte au travail).

Dans cette évolution historique, la France a emprunté une voie singulière : si des dispositifs de retraite par capitalisation ont été effectivement instaurés à la fin du XIXe et au début du XXe siècle, ils n’ont pas résisté aux turbulences économiques et financières de l’entre-deux-guerres. À la Libération, la nation a fait le choix d’un système public obligatoire en répartition pour l’ensemble des salariés, avec des caisses de retraite complémentaires professionnelles également financées en répartition.

Ce choix collectif pour la répartition est singulier. Dans tous les autres pays, la retraite de base est en répartition mais les retraites professionnelles sont en capitalisation. Dans le débat qui se rouvre aujourd’hui en France, la question posée est : jusqu’où et comment déplacer le curseur vers la capitalisation ?

Une question de dosage ?

Pour certains, la question ne se pose même pas. Par principe, la répartition doit rester l’unique mode de financement des retraites. En effet, développer la capitalisation reviendrait à renforcer le pouvoir actionnarial au détriment du travail, à démanteler la protection sociale solidaire, à accentuer les inégalités à la retraite (les épargnants plus fortunés ont une meilleure capacité à obtenir des rendements financiers plus élevés).

Au-delà de ce principe, qui a sa légitimité, quels arguments peut-on faire valoir pour introduire une dose de capitalisation dans notre système de retraite ? La capitalisation est-elle plus efficace, en termes de rendement et de risque, que la répartition dans sa capacité à procurer un revenu de remplacement pendant la retraite ?

Des systèmes complexes à comparer

Comparer le rendement de la retraite en répartition ou en capitalisation revient à se demander : pour chaque euro cotisé pendant ma vie active, combien d’euros obtiendrai-je sous forme de pension une fois à la retraite ?

Évaluer le rendement de la capitalisation est en théorie simple, plus délicat en pratique. En théorie, pour un cotisant, le rendement de la capitalisation est le rendement obtenu sur les placements effectués tout au long de sa carrière à partir des cotisations versées. Bien sûr, ces cotisations sont périodiques : celles de début de carrière seront capitalisées sur un temps très long, celles effectuées en fin de carrière sur un temps plus court. Et personne ne connaît avec certitude le nombre des années passées à la retraite, de sorte que le rendement de l’épargne retraite dépend de la durée probable de survie au départ à la retraite.

En définissant le taux de rendement interne (TRI) comme le taux qui égalise la somme (actuelle probable) des cotisations versées et des pensions reçues, le rendement de la capitalisation correspond au taux de rendement des placements dans lesquels ont été investies les cotisations, sous l’hypothèse que les pensions reçues sont actualisées à ce taux.

Un raisonnement fallacieux

En pratique, on présente souvent le rendement de la capitalisation comme le rendement moyen observé sur des placements financiers. Pour cela, on calcule le rendement moyen, par exemple sur une durée de quarante ans, d’un indice boursier, par exemple le CAC 40 et on affirme « Si on avait introduit la capitalisation en 1982, les retraités toucheraient 300 euros de plus que la pension offerte par l’actuel système en ayant cotisé deux fois moins ».

Cette expérience de pensée est en réalité fallacieuse. Aucun fonds de pension (a fortiori un épargnant individuel) ne place la totalité de ses actifs dans des actions. D’une part, pour diversifier les risques financiers ; d’autre part, parce qu’au départ à la retraite, il faut convertir le capital de cotisations accumulées en flux de pension. Et cette phase de décumulation nécessite d’avoir des actifs suffisamment liquides et dont la valeur de revente n’est pas (trop) volatile.

Évaluer le « rendement » de la répartition est aussi discutable, puisque la répartition n’est pas une opération financière intertemporelle. Sur un plan individuel, calculer un taux de rendement interne n’a pas grand sens, puisque précisément, on ne cotise pas pour soi-même. On peut néanmoins s’intéresser au rendement collectif d’un régime par répartition.

Le rôle des taux de croissance

La capacité d’un système de retraite par répartition à assurer un bon niveau de pension aux retraités dépend de manière cruciale du nombre de travailleurs effectivement employés et de leur productivité. Si le taux d’emploi augmente, cela fait plus de cotisants et si la productivité des travailleurs augmente, cela se traduit généralement par des rémunérations plus élevées, et donc une assiette de cotisations plus importante.

Schématiquement, la croissance démographique et le progrès technique jouent le même rôle dans le rendement implicite de la répartition. Pour x euros cotisés en répartition quand ils sont actifs, les salariés « récupèrent » lorsqu’ils partent à la retraite les x euros revalorisés de la somme du taux de croissance de la population (supposée employée pendant toute sa vie active) et du taux de croissance de la productivité.

Avantage en trompe-l’œil pour la capitalisation

On comprend donc que la capitalisation est plus rentable que la répartition si le taux de rendement du capital est supérieur au taux de croissance cumulé de la population et de la productivité, qu’on peut assimiler au taux de croissance économique en première approximation. Qu’en est-il dans les faits ?

Même si la crise financière de 2007 a ébranlé quelques certitudes, il ressort des études historiques sur longue période que le rendement réel des placements financiers est supérieur au taux de croissance économique dans les principaux pays industrialisés.

Arte 2025.

Dans une vaste fresque historique, Jordá et al. ont calculé que l’écart entre le taux de rendement de la richesse et le taux de croissance économique s’élevait à 2,68 % en moyenne pour un ensemble de 16 pays sur la période 1950-2015. En très longue période (1870-2015), leur étude montre que le rendement réel de la richesse est supérieur au taux de croissance réel dans tous les pays, sauf pendant les sous périodes de guerre.

Cette étude confirme, par ailleurs, un résultat observé par de nombreuses contributions antérieures : en moyenne, le rendement réel des actions est supérieur au rendement réel des actifs sans risque (obligations et actifs monétaires). La prime de risque, qui mesure l’écart entre rendement des actions et des actifs sans risque, s’élevait à environ 4 % en moyenne avant la Première Guerre mondiale, pour devenir légèrement négative lors de la grande dépression, puis s’envoler jusqu’à 14 % au début des années 1950 et revenir à son niveau séculaire autour de 4 % depuis 2000. Cette évolution tendancielle se retrouve dans tous les pays, à des niveaux de taux de rendement différents d’un pays à l’autre. Entre 1980 et 2015, la prime de risque en France se situe légèrement en dessous de la moyenne globale, à 2,14 %.

Rentabilité et risque

Pour autant, pour les individus, ce n’est pas le rendement moyen du système en longue période qui importe, mais le montant de la rente viagère qu’ils pourront obtenir chaque mois lorsqu’ils seront à la retraite. Observer qu’en moyenne, chaque année, sur une très longue période, le rendement du capital est supérieur à la croissance économique n’implique pas qu’il faille choisir la capitalisation pour couvrir le risque vieillesse, pour au moins trois raisons.

LCI 2025.
  • La première raison, c’est que, pour un individu donné, ce n’est pas le rendement moyen du système en longue période qui importe, mais le montant de la rente viagère qu’il pourra obtenir chaque mois lorsqu’il sera à la retraite. Et c’est là qu’intervient la notion de risque d’un placement financier. Chacun peut constater que le cours d’une action cotée varie jour après jour. Cette variation peut être mesurée par des indicateurs statistiques, tels que la variance ou l’écart-type ; grosso modo, ces indicateurs mesurent « de combien s’écarte le cours d’une action par rapport à sa tendance sur une période donnée ? ». Ce qu’on peut montrer théoriquement, et ce qu’on observe dans les faits, c’est que plus une action est détenue pendant une période de temps longue, plus la variation de son rendement autour de la tendance moyenne se réduit.

Pour autant, cela ne signifie pas que détenir des actions pendant une longue période, par exemple jusqu’à la retraite, ne soit pas risqué. En effet, pour quelqu’un qui souhaite financer sa retraite par un placement financier, ce qui importe, ce n’est pas le rendement annuel moyen de son placement sur trente ans, mais bien le rendement total qu’il obtiendra au bout de trente ans quand il partira à la retraite. Et il est possible que le rendement annuel moyen sur vingt-neuf ans soit favorable, mais qu’il soit anéanti par un krach boursier l’année suivante.

  • La deuxième raison, c’est que les rendements des actions tels qu’ils peuvent être calculés à partir des cotes officielles sont bruts de frais. En pratique, si on souhaite financer sa retraite par capitalisation, on doit utiliser les services d’un intermédiaire (fonds de pension, gestionnaire d’actifs, banque, entreprise d’assurance) et ces services sont facturés. Pour un individu donné, le rendement des actions doit s’apprécier « net de frais ». Or, ces frais peuvent s’avérer élevés lorsque la concurrence entre les intermédiaires est faible.

La troisième raison, c’est qu’à la base, financer sa retraite, c’est se couvrir contre les risques liés à la vieillesse (être dans l’incapacité physique ou mentale de travailler à âge élevé et ignorer combien de temps on passera à la retraite). Dans cette optique, il serait paradoxal de couvrir un risque (le risque vieillesse) en en prenant un autre (le risque financier).

Ce dernier argument ne suffit pas, toutefois, à disqualifier la capitalisation, d’autant que la répartition comporte aussi des risques.

Éditions La Découverte, Fourni par l'auteur
The Conversation

Anne Lavigne est membre du Conseil d'administration de l'Etablissement de retraite additionnelle de la fonction publique, en qualité de personnalité qualifiée. Cette fonction est assurée à titre bénévole.

PDF

10.09.2025 à 17:27

L’Allemagne face à Trump : le vrai poids du déséquilibre commercial

Damien Broussolle, Maître de conférences, Sciences Po Strasbourg – Université de Strasbourg

Les importations venues d’Allemagne sont dans le viseur de Donald Trump. Mais quelle est la réalité des échanges commerciaux entre l’Allemagne et les États-Unis&nbsp;?
Texte intégral (3287 mots)

Le président des États-Unis Donald Trump s’est beaucoup inquiété de la place prise par les importations « Made in Germany » dans son économie. Qu’en est-il en réalité ? Dans quels secteurs l’Allemagne a-t-elle pris des parts de marché aux entreprises états-uniennes ? Quelle part occupent les biens et les services ?


La réélection de Donald Trump en 2024 a relancé une politique protectionniste à vocation mercantiliste aux États-Unis. Déjà la politique America First, lancée par le président Trump en 2018-2019, visait à réduire le déficit commercial américain en trois vagues de mesures, augmentant les droits de douanes jusqu’à 25 %. Si cette première offensive avait pu sembler surmontable, puisque finalement des aménagements avaient été trouvés, celle de l’administration Trump 2 apparaît extravagante.

En imposant des droits de douane exorbitants, prétendument réciproques, tous azimuts, elle déclare une guerre commerciale au monde entier. Dans ce combat, l’Union européenne (UE), et surtout l’Allemagne, avec ses excédents commerciaux élevés, sont présentées comme des profiteuses et des adversaires. La question se pose néanmoins de savoir dans quelle mesure ces accusations sont fondées. Cela conduit à examiner le commerce bilatéral entre l’Allemagne et les États-Unis.

Près de 247 milliards d’euros d’excédent

Avec un excédent du compte des transactions courantes de près de 247 milliards d’euros en 2024, proche du produit intérieur brut (PIB) de la Grèce, l’Allemagne apparaît comme un géant naturel du commerce international. Pourtant, jusqu’au début des années 1990, elle ne se distinguait que modestement de ses principaux concurrents de l’Organisation de coopération et de développement économiques (OCDE). On a ainsi oublié que le solde commercial allemand fut fragile jusqu’au début des années 1980.

La croissance prodigieuse date surtout de l’accentuation de la mondialisation consécutive à la crise de 2008. C’est à ce moment-là que l’économie allemande s’est franchement tournée vers la Russie, vers la Chine et vers les États-Unis, pays où les entreprises d’outre-Rhin avaient identifié de nouvelles sources de croissance des exportations pour les points forts du commerce allemand (automobile, équipement industriel,chimie-pharmacie).


À lire aussi : Trump impose des droits de douane sur les automobiles : quels constructeurs ont le plus à perdre ?


Depuis le début des années 2000, l’Allemagne tutoie la part des États-Unis dans les exportations mondiales de marchandises, qui avoisine les 8 %. Depuis 2015, ils sont devenus son premier partenaire commercial. En 2024, le commerce vers les États-Unis représentait 10,4 % de ses exportations (1re position), et 6,9 % de ses importations (2e position). La même année, 3,7 % des exportations des États-Unis étaient destinés à l’Allemagne (7e position), alors que 4,9 % des importations (4e position) en provenaient, nous y reviendrons.

Dans les deux cas, le décalage entre exportations et importations illustre l’importance du surplus du commerce extérieur allemand. Sa valeur a d’ailleurs nettement augmenté depuis le premier mandat du président Trump, pour atteindre les 70 milliards d’euros en 2024 (Graphique 1). Ce chiffre est en grande partie dû à l’excédent de marchandises. Depuis plusieurs années, combiné avec les services, il se maintient aux environs de 1,75 % du PIB allemand.

Hausse des revenus des investissements

Les revenus des investissements allemands aux États-Unis renforcent l’excédent commercial. Ils ont augmenté de façon sensible depuis 2022. En 2024, l’Allemagne est le troisième investisseur aux États-Unis pour un montant de 677 millions de dollars. Du côté américain, le poids du déficit commercial bilatéral dans le PIB est globalement stable depuis plusieurs années, à 0,25 % du PIB : environ 10 % du déficit commercial des États-Unis est attribuable au commerce avec l’Allemagne.

Graphique 1 : Solde des échanges de biens et services de l’Allemagne avec les États-Unis

Première partie de la balance des paiements : échanges de biens et de services et flux des revenus primaires et secondaires.

Fourni par l'auteur

Source : Destatis (N. B. En noir, années du premier mandat de Trump marquées par la crise du Covid-19).

L’ampleur du déficit américain de marchandises apparaît spectaculaire. Depuis près de vingt-cinq ans, bon an mal an, les entreprises installées en Allemagne vendent aux États-Unis le double de la valeur des marchandises qu’elles y achètent (Graphique 2).

Graphique 2 : Commerce bilatéral de marchandises (en milliards de dollars réels)

Fourni par l'auteur

Source : Census Bureau of USA. Poids du solde échelle de droite, inversée ; (20) = – 20.

_Lecture : En 2024, le déficit des marchandises atteint -50 % du commerce bilatéral.

Dollars US réels : hors inflation (déflateur du PIB, Banque mondiale)_.

Un concurrent industriel de premier plan

Au cours de cette période, la plupart des lignes de la nomenclature de produits marquent une dégradation pour les États-Unis. De sorte qu’actuellement, mis à part les produits pétroliers et ceux tirés de l’agriculture ou de la pêche, toutes les grandes rubriques sont excédentaires pour l’Allemagne (Graphique 3).

Graphique 3 : Contribution au solde des échanges de marchandises, moyenne 2022-2024 (en %)

Fourni par l'auteur

Source : Destatis. Le solde global équivaut à 100 %.

_Lecture : En moyenne, sur les trois années 2022-2024, le solde des échanges de métaux et articles en métal contribue au solde global positif pour +8,1 %.

N. B. Certains soldes étant volatils, la moyenne sur trois ans a été utilisée pour lisser les données_.

Ces constats confirment, s’il en était besoin, que l’Allemagne est une redoutable concurrente industrielle, fournissant des produits de qualité peu sensibles aux prix du fait de leurs caractéristiques, avec une spécialisation dans les machines, dans les équipements industriels, dans l’automobile et dans la chimie. Moins connue est, toutefois, sa position dans le domaine des échanges de services.

Il convient, tout d’abord, de souligner que les spécificités des échanges de services font que les volumes enregistrés dans la balance commerciale sont habituellement modestes. Le commerce entre les deux pays ne déroge pas à ce constat général. Ainsi, en 2024, leurs échanges de services représentaient pour chacun d’entre eux moins de 30 % du commerce extérieur. Pour autant, l’Allemagne bénéficie depuis au moins deux décennies d’un excédent dans le domaine des services. Il est revenu, en 2024, à un étiage proche de celui du premier mandat de Trump, à moins de 4 milliards d’euros (Graphique 4). Cet excédent résulte d’un tableau contrasté avec de forts déficits bilatéraux, compensés par des excédents encore plus élevés (graphique n°5).

Graphique 4 : Échanges de services de l’Allemagne avec les États-Unis (milliards de dollars courants)

Fourni par l'auteur

Source : OCDE, Balanced trade in services (BaTIS).

Les États-Unis plus forts que l’Allemagne pour le tourisme

L’Allemagne est un pays moins touristique que les États-Unis, qui, du fait de leur spécialisation internationale, ont, en outre, des surplus dans les services de télécommunications et d’information, dans les services financiers, dans les services aux entreprises et, enfin, dans les services récréatifs et culturels. Plusieurs de ces excédents américains ont néanmoins subi une érosion entre 2005 et 2023. Cumulées, ces rubriques font plonger le solde allemand des échanges de services (Graphique 5).

France 24, 2025.

Toutefois l’impact des échanges de marchandises sur les flux de services contrebalance quasiment cette chute (transports de marchandises, services de réparation, revenus de la propriété intellectuelle sur les produits industriels, chimiques et pharmaceutiques). Ces catégories rétablissent déjà quasiment l’équilibre. S’ajoute une catégorie hybride, excédentaire depuis des années, qui recense l’ensemble des échanges des administrations gouvernementales et de leur personnel (ambassades, organisations internationales, bases militaires…) et englobe essentiellement des mouvements de marchandises. Son excédent est donc aussi en relation avec la puissance industrielle allemande.

Graphique 5 : Contributions au solde des échanges de services de l’Allemagne avec les États-Unis en 2023 (en %)

Fourni par l'auteur

Source : OCDE (BaTIS). Le solde global équivaut à 100 %.

Lecture : Le solde des échanges de services de télécommunications et d’information contribue pour -61 % au solde global.

Une dernière rubrique largement excédentaire (près de +70 % en 2023), illustre la compétitivité de l’Allemagne dans le secteur de l’assurance. Finalement, si de nombreuses rubriques de la balance des services sont défavorables à l’Allemagne, sa force dans le domaine industriel lui permet de les compenser presque entièrement. Ceci étant dit, l’image donnée est probablement incomplète.

Le rôle de l’optimisation fiscale

Comme le souligne la Bundesbank, les principales économies des pays de l’UE ont toutes une balance des services excédentaires vis-à-vis des États-Unis, alors que l’UE, considérée globalement, est largement déficitaire (-109 milliards d’euros en 2023). Les stratégies d’optimisation fiscales des entreprises américaines d’Internet pourraient expliquer cette étrangeté.

Ce tour d’horizon du commerce entre l’Allemagne et les États-Unis illustre le fait que, malgré ses outrances et son comportement apparemment incohérent, le président Trump ne choisit pas ses attaques ni ses points de blocage au hasard. Il y a, en effet, un important déséquilibre commercial entre les deux pays. Cela n’en valide pas pour autant sa méthode ou son raisonnement, qui bafouent les principes des négociations commerciales internationales menées depuis 1947, sous l’égide des États-Unis, avec la création du GATT.

Ce « problème » bilatéral nourrit un différend européen puisque le commerce international est du domaine communautaire. L’UE tout entière s’est donc trouvée placée dans le collimateur de Trump 2, en partie du fait de l’ampleur de l’excédent allemand.

De 2022 à 2024, à elle seule, l’Allemagne expliquait quasiment 40 % de l’excédent européen vis-à-vis des États-Unis. Les pays déficitaires avec les États-Unis (Espagne, Belgique, Pays-Bas), ou à faible excédent comme la France, se sont alors trouvés indûment frappés des mêmes droits prétendument réciproques que l’Allemagne, qui en revanche a pu s’abriter derrière sa situation commerciale moins problématique du point de vue américain. Cette « solidarité » européenne s’est retrouvée dans les négociations commerciales, qui ont surtout consisté, du côté européen, à éviter à l’automobile et à la chimie-pharmacie allemande les conséquences les plus désastreuses des outrances trumpiennes (DGTES 2025).

The Conversation

Damien Broussolle ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

10.09.2025 à 17:26

Échec du présidentialisme, retour au parlementarisme ?

Nicolas Rousselier, professeur d'histoire politique, Sciences Po

Depuis la dissolution de 2024, l’exécutif ne domine plus le Parlement. Un rééquilibrage entre ces deux pouvoirs, historiquement concurrents, est-il en cours&nbsp;?
Texte intégral (2467 mots)

Après la chute des gouvernements Barnier et Bayrou, le nouveau premier ministre Sébastien Lecornu saura-t-il obtenir le soutien des parlementaires ? La domination de l’exécutif sur le législatif, en place depuis le début de la Ve République, semble désormais dépassée. Un rééquilibrage entre ces deux pouvoirs, historiquement concurrents, est-il en cours ?


Jamais les feux de l’actualité ne furent braqués à ce point sur le Parlement. L’épisode Bayrou en donne une illustration frappante : la chute de son gouvernement a placé l’exécutif en position de faiblesse et de renoncement face aux difficultés annoncées du débat budgétaire. À l’inverse, les députés, en refusant de voter la confiance, ont placé l’Assemblée nationale en position de force vis-à-vis du gouvernement. Celui-ci, pour la première fois (sous cette forme) depuis le début de la Ve République, était contraint à la démission. Le pouvoir exécutif, qui n’avait cessé de se renforcer et de se transformer depuis plus de soixante ans, trahissait ainsi une faiblesse inattendue.

Deux questions sont donc soulevées, l’une sur le caractère momentané ou profond de ce « trou d’air » que rencontre l’exécutif, l’autre sur la possible relance du parlementarisme.

Dès le Moyen Âge, le Parlement contre le prince

L’épisode s’inscrit dans la longue histoire du bras de fer qui a opposé l’exécutif et le législatif depuis plusieurs siècles. Philosophiquement et politiquement, l’opposition a placé la figure du prince – pour faire référence aux travaux de Harvey Mansfield – face à la forme prise par le Parlement depuis les XIIIe et XIVe siècles. L’histoire est ainsi beaucoup plus ancienne que celle de la démocratie moderne. La monarchie française avait été notamment marquée et affaiblie par des affrontements opposant le roi et le Parlement de Paris au cours du XVIIIe siècle. Pour le XIXe et le XXe siècle, l’ensemble de la modernité démocratique peut se définir comme un vaste aller-retour avec une première phase où la démocratie se définit comme la nécessité de contrôler et de circonscrire le plus possible le pouvoir exécutif, puis une seconde phase où la démocratie a progressivement accueilli un exécutif puissant, moderne et dominateur, tout en prenant le risque d’affaiblir le rôle des assemblées.

Cette lutte ancestrale a pris une allure particulièrement dramatique et prononcée dans le cas français. L’histoire politique française a ceci de particulier qu’elle a poussé beaucoup plus loin que les autres aussi bien la force du parlementarisme, dans un premier temps (IIIe puis IVe République), que la domination presque sans partage de l’exécutif, dans un deuxième temps (Ve République). Nous vivons dans ce deuxième temps depuis plus de soixante ans, une durée suffisante pour qu’un habitus se soit ancré dans les comportements des acteurs politiques comme dans les attentes des électeurs.

Historiquement, la domination de l’exécutif sur le législatif a donné à l’élection présidentielle une force d’attraction exceptionnelle puisque le corps électoral est invité à choisir un candidat qui, une fois élu, disposera de très larges pouvoirs pour mener à bien les réformes et les politiques annoncées lors de sa campagne électorale. Dans les faits, cette force du président était complétée par la victoire de son parti aux élections législatives (souvent avec des petits partis alliés et complémentaires). La cohabitation n’a pas modifié la domination de l’exécutif : la force du gouverner s’est alors concentrée sur le premier ministre qui disposait toujours d’un contrôle efficace du Parlement.

Par contraste avec cette « période heureuse » de la Ve République, la situation actuelle est donc très simple : ne disposant pas d’un fait majoritaire à l’Assemblée, l’exécutif se retrouve paralysé dans son pouvoir d’agir. Chaque premier ministre qui passe (Attal, Borne, Barnier, Bayrou, maintenant Lecornu) se retrouve encore un peu plus éloigné de toute légitimité électorale. Aussi la facilité avec laquelle le dispositif de la Ve République s’est démantelé sous nos yeux apparaît spectaculaire. Certes, en toute logique, l’ancien dispositif pourrait se reconstituer aussi vite qu’il a été brisé. Rien n’interdit de penser qu’une nouvelle élection présidentielle suivie de nouvelles élections législatives ne pourrait pas redonner au chef de l’État une assurance majoritaire. Rien n’interdit de penser, non plus, que de simples élections législatives intervenant après une dissolution pourraient conduire à un fait majoritaire au profit d’un seul parti ou d’un parti dominant qui rallierait à lui de petits partis satellitaires.

Tout ceci est possible et occupe visiblement l’esprit et l’espoir des acteurs politiques. Se replacer ainsi dans l’hypothèse du confort majoritaire sous-estime toutefois le caractère beaucoup plus profond des changements intervenus dans la période récente. La force de gouverner sous la Ve République reposait en effet sur un écosystème complexe dont il faut rappeler les deux principaux éléments.

Une domination de l’exécutif fondée sur l’expertise et sur le règne des partis

Tout d’abord, la domination de l’exécutif s’est jouée sur le terrain de l’expertise. Des organes de planification, de prospective et d’aides à la décision ont fleuri autour du gouvernement classique, surtout après 1945. Par comparaison, les assemblées parlementaires ont bénéficié d’une modernisation beaucoup plus limitée en termes de moyens. Elles ont développé la capacité d’évaluation des politiques publiques, mais ne disposent pas d’un organe public indépendant (ou suffisant) pour l’expertise du budget tel qu’il existe auprès du Congrès américain avec le Congressional Budget Office (CBO).

D’autre part, la force de l’exécutif a été historiquement dépendante du rôle de partis politiques modernes. Depuis les années 1960 et 1970, des partis politiques comme le Parti socialiste ou les différents partis gaullistes ont eu les moyens de jouer leur rôle de producteurs doctrinaux et de fidélisation de leur électorat. Ils étaient des « machines » capables d’exercer « une pression collective su la pensée de chacun » pour reprendre Simone Weil. Dans les assemblées, ils ont pu construire d’une main de fer la pratique de discipline de vote, des consignes de groupes et de contrôle des déclarations à la presse. Le parti majoritaire, parfois associé à de petits partis satellites ou alliés, était à même d’assurer au gouvernement une majorité connue d’avance, prête à faire voter en temps voulu le budget de l’exécutif ou les projets de loi sans modification importante. Les partis privilégiaient la cohésion collective et la verticalité de l’obéissance plutôt que le rôle d’espace de discussion. La répétition des élections présidentielles comme la fréquence du dispositif majoritaire avaient ancré les partis dans le rôle d’entrepreneurs de programmes. L’ambition de leurs plates-formes électorales était en proportion de la « force de gouverner » attendue : ce fut longtemps un atout indéniable pour que l’offre politique rencontre de fortes aspirations sociales.

Ces deux piliers de la force de l’exécutif sont aujourd’hui remis en cause. L’État planificateur de tradition jacobine s’est fortement transformé depuis les années 1990 avec la multiplication des agences et les réformes successives de décentralisation. L’âge d’or des grands serviteurs de l’État, qui offraient à l’exécutif une aide homogène à la décision, est passé. Aujourd’hui, un gouvernement est confronté à la diversité et parfois la contradiction des avis que lui fournissent les organes experts. L’expertise n’est donc plus enfermée dans le seul silo de la haute administration classique. Elle est devenue un secteur concurrentiel où des entrepreneurs d’expertise multiplient les avis et les alertes au risque d’ajouter à la confusion plutôt que d’aider à la prise de décision. La question concerne aussi bien les think tanks que des forums internationaux, tels que le Groupe d'experts intergouvernemental sur l’évolution du climat (Giec).

La « forme-parti » pour reprendre l’expression du politiste italien, Paol  Pombeni, a, elle aussi, profondément changé. L’appareil central a diminué en termes de moyens. Il n’est plus en mesure d’exercer le même contrôle sur les troupes et sur la mise en cohérence de l’ensemble. Au sein d’un même groupe parlementaire, certains membres jouent leur communication personnelle. L’affiliation par le haut étant en crise, il n’est pas étonnant de retrouver la même crise par le bas : les partis n’assurent plus de stabilité dans le lien entre leur offre politique et la demande sociale – leurs résultats d’un type d’élection à un autre sont devenus erratiques. Il est, par exemple, devenu impossible de savoir ce que représente réellement, à la fois politiquement et socialement, le Parti socialiste si l’on confronte le résultat de la dernière présidentielle (1,7 %) avec le score obtenu aux élections européennes (13 %). Comme le montrent les travaux de Rémi Lefebvre, les partis politiques ne réussissent plus à être des entrepreneurs stables d’identités qui fidélisent des sections de la société : une majorité politique est devenue introuvable parce qu’une majorité sociale est elle-même devenue impossible.

Au total, c’est toute la chaîne qui faisait la force de l’exécutif qui est démantelée, maillon par maillon. Un président n’est plus assuré de nommer un premier ministre qui sera à même de faire voter son programme électoral grâce à une majorité solide dans les assemblées.

Le parlementarisme a fonctionné sous la IIIᵉ et la IVᵉ République

Dans une telle situation, le Parlement retrouve une position centrale. Le retour à un vrai travail budgétaire ne serait d’ailleurs qu’un retour aux sources historiques des assemblées. Le « gouvernement parlementaire » avait su fonctionner de manière satisfaisante pendant la majeure partie de la IIIe République, y compris dans sa contribution essentielle à la victoire pendant la Première Guerre mondiale. Il a encore joué sa part dans la reconstruction du pays et l’établissement du modèle social sous la IVe République, de la Sécurité sociale jusqu’au salaire minimum. On commet donc une erreur quand on déclare la France « ingouvernable ». L’expression n’a de sens que si l’on réduit la notion de gouverner à la combinaison d’un exécutif dominant associé au fait majoritaire partisan.

L’art de la décision tel qu’il était pratiqué dans le « gouvernement parlementaire » conserve sa force d’inspiration : il a d’ailleurs été pratiqué dans la période récente pour certains parcours législatifs comme sur le droit à mourir. Il est donc loin d’avoir disparu. Des modifications du règlement de l’Assemblée nationale qui s’attaqueraient notamment à l’obstruction du débat par l’abus des amendements, pourraient accompagner le « reset » du parlementarisme. Transférer une part de l’expertise de l’exécutif vers le législatif aiderait aussi au redressement de la qualité du travail des commissions.


À lire aussi : Loi Duplomb, A69 : Comment le gouvernement Bayrou a contourné l’Assemblée nationale pour faire passer ses projets. La démocratie malmenée ?


Certes, rien ne dit que cela soit suffisant. Mais la situation actuelle démontre que la « combinaison magique » d’un président fort associé à un fait majoritaire et à un esprit partisan exacerbé a produit des résultats financiers, économiques et sociaux négatifs.

La Ve République avait d’abord apporté la stabilité du pouvoir, la force d’entraînement vers la modernisation du pays et le progrès social. Ce n’est plus le cas. La disparition du fait majoritaire, combinée au dévoilement du caractère abyssal de la dette, nous plonge dans la désillusion des vertus attribuées à la Ve République. Pour la première fois depuis la création de la Vᵉ République en 1958, il n’y a donc pas d’autre choix que de refaire Parlement.

The Conversation

Nicolas Rousselier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

10.09.2025 à 17:25

Quelles solutions de dépollution contre les PFAS dans les sols et les eaux souterraines ?

Maxime Cochennec, Chercheur site et sols pollués, BRGM

Clément Zornig, Responsable de l’unité Risques, Sites et Sols Pollués au BRGM, BRGM

Stéfan Colombano, Ingénieur-chercheur au BRGM, BRGM

Les techniques actuelles ne permettent pas de détruire de façon sûre et systématique ces substances sans risquer de déplacer le problème en produisant d’autres PFAS plus petits et tout aussi dangereux.
Texte intégral (2724 mots)

Les PFAS, ou substances per- et polyfluoroalkylées, sont souvent appelées « polluants éternels ». Dans les Ardennes françaises par exemple, les habitants de plusieurs communes ont, depuis juillet 2025, interdiction de consommer l’eau du robinet pour les boissons ou la préparation des biberons.

Ces substances posent un problème de pollution environnementale qui tient du casse-tête. Le cœur du problème tient aux coûts élevés de dépollution et au fait que les techniques de traitement ne permettent pas, à l’heure actuelle, de détruire de façon certaine et systématique ces composés sans risquer de déplacer le problème en produisant d’autres PFAS plus petits et potentiellement aussi dangereux.


La pollution des sols et des eaux souterraines par les substances perfluoroalkylés et polyfluoroalkylés (acronyme anglais PFAS) représente l’un des défis environnementaux et sanitaires majeurs de notre époque. Une enquête menée par le Monde et plusieurs autres médias partenaires révélait, début 2025, l’ampleur de la contamination des sols et des eaux par les PFAS.

Comment s’y prendre pour dépolluer les milieux ? Face à cette famille de composés dont certains sont classés « polluants organiques persistants et cancérogènes », des solutions de dépollution des milieux existent déjà, quoique coûteuses. Les techniques de destruction des PFAS, en revanche, sont encore en cours de maturation dans les laboratoires. État des lieux.

Ne pas confondre traitement et élimination

La distinction entre le traitement des milieux et l’élimination (ou dégradation) des PFAS n’est peut-être pas évidente, mais elle est pourtant essentielle.

Les sols aussi sont un réservoir de pollution aux PFAS. Victor Dueñas Teixeira/Unsplash, CC BY, CC BY-NC-ND

Pour les sols et pour les eaux souterraines, le traitement des PFAS consiste à diminuer suffisamment les concentrations mesurables afin de retrouver un état le plus proche possible de l’état avant la pollution, avec un coût technico-économique acceptable.

En revanche, ce traitement n’implique pas forcément la dégradation des PFAS, c’est-à-dire l’utilisation de techniques physiques, thermiques, chimiques ou biologiques permettant de transformer les PFAS en molécules moins dangereuses.

L’alternative consiste à en extraire les PFAS pour les concentrer dans des résidus liquides ou solides.

Toutefois, ce processus n’est pas entièrement satisfaisant. Bien que l’état des milieux soit rétabli, les résidus issus du traitement peuvent constituer une nouvelle source de pollution, ou tout au moins un déchet qu’il est nécessaire de gérer.

Un exemple typique est le traitement de l’eau par circulation dans du charbon actif granulaire, capable de retenir une partie des PFAS, mais une partie seulement. Le charbon actif utilisé devient alors un résidu concentré dont la bonne gestion est essentielle pour ne pas engendrer une nouvelle pollution.


À lire aussi : PFAS et dépollution de l’eau : les pistes actuelles pour traiter ces « polluants éternels »


Les ingénieurs et les chercheurs développent actuellement des méthodes pour décomposer ou éliminer les PFAS in situ, directement dans les sols et dans les eaux souterraines.

Pour le moment, la principale difficulté est d’ordre chimique. Il s’agit de rompre la liaison carbone-fluor (C-F), caractéristique des PFAS et qui leur procure cette incroyable stabilité dans le temps. En effet, il faut 30 % plus d’énergie pour casser la liaison carbone-fluor que la liaison carbone-hydrogène, que l’on retrouve dans beaucoup de polluants organiques.

Certaines techniques semblent amorcer une dégradation, mais il est crucial d’éviter une dégradation incomplète, qui pourrait générer comme sous-produits des PFAS de poids moléculaire plus faible, souvent plus mobiles et d’autant plus problématiques que leurs impacts sur la santé et sur l’environnement sont encore peu ou pas connus.

Ce n’est pas tout : les méthodes basées sur la chimie impliquent le plus souvent d’ajouter des réactifs ou de maintenir localement des conditions de température et/ou de pression potentiellement néfastes pour l’environnement.

D’autres approches envisagent la biodégradation des PFAS par des microorganismes, mais les résultats sont pour le moment contrastés, malgré quelques travaux récents plus encourageants.


À lire aussi : PFAS : comment les analyse-t-on aujourd’hui ? Pourra-t-on bientôt faire ces mesures hors du laboratoire ?


Les solutions éprouvées

On l’a vu, la dégradation des PFAS directement dans les sols et dans les eaux implique de nombreux verrous scientifiques à lever.

Un certain nombre de techniques permettent toutefois de séparer les PFAS des eaux après pompage (c’est-à-dire, ex-situ), et cela à l’échelle industrielle. Les trois techniques les plus matures sont le charbon actif granulaire, les résines échangeuses d’ions et la filtration membranaire – en particulier la nanofiltration et l’osmose inverse.

Le charbon actif et les résines échangeuses d’ions reposent sur une affinité chimique des PFAS beaucoup plus grande pour le substrat (charbon ou résine) que pour le milieu aqueux : ce sont des techniques dites d’adsorption.

Charbon actif après utilisation (dans le cadre d’un autre précédé que la dépollution aux PFAS). Olivier Lemoine, CC BY-SA

L’adsorption ne doit pas être confondue avec l’absorption, dans la mesure où il s’agit d’un phénomène de surface. Les PFAS s’accumulent alors sur la surface, plutôt qu’à l’intérieur, du substrat, notamment via des interactions électrostatiques attractives. Heureusement, la surface disponible pour du charbon actif en granulés est importante grâce à sa porosité microscopique. Pour 100 grammes de produit, elle représente l’équivalent d’une dizaine de terrains de football.

La filtration, enfin, repose principalement sur l’exclusion par la taille des molécules. Or, les PFAS les plus préoccupants sont des molécules relativement petites. Les pores des filtres doivent donc être particulièrement petits, et l’énergie nécessaire pour y faire circuler l’eau importante. Cela constitue le principal défi posé par cette technique appliquée au traitement des PFAS.

Les défis pour les PFAS à chaînes courtes et le traitement des sols

Les techniques qui précèdent sont déjà connues et utilisées de longue date pour d’autres polluants, mais qu’elles demeurent efficaces pour de nombreux PFAS. Ces techniques sont d’ailleurs parmi les rares ayant atteint le niveau 9 sur l’échelle TRL (Technology Readiness Level), un niveau maximal qui correspond à la validation du procédé dans l’environnement réel.

Néanmoins, de nombreuses recherches sont en cours pour rendre ces techniques plus efficaces vis-à-vis des PFAS à chaînes courtes et ultra-courtes – c’est-à-dire, qui comportent moins de six atomes de carbones perfluorés. En effet, ces molécules ont moins d’affinités avec les surfaces et sont donc plus difficiles à séparer du milieu aqueux.

Quant aux techniques pour traiter les sols, l’approche doit être radicalement différente : il faut récupérer les PFAS adsorbés sur les sols. Pour ce faire, des solutions basées sur l’injection d’eau sont à l’étude, par exemple avec l’ajout d’additifs comme des gels et des solvants.

Ces additifs, lorsqu’ils sont bien choisis, permettent de modifier les interactions électrostatiques et hydrophobes dans le système sol-eau souterraine afin de mobiliser les PFAS et de pouvoir les en extraire. Le principal défi est qu’ils ne doivent pas générer une pollution secondaire des milieux. L’eau extraite, chargée en PFAS, doit alors être gérée avec précaution, comme pour un charbon actif usagé.

Les pistes pour détruire les PFAS

Reste ensuite à savoir quoi faire de ces déchets chargés en PFAS. Outre le confinement dans des installations de stockage, dont le principal risque est d’impacter à nouveau l’environnement, l’incinération est actuellement la seule alternative.

Le problème est que les PFAS sont des molécules très stables. Cette technique recourt aux incinérateurs spécialisés dans les déchets dangereux ou incinérateurs de cimenterie, dont la température monte au-dessus de 1 000 °C pour un temps de résidence d’au moins trois secondes. Il s’agit d’une technique énergivore et pas entièrement sûre dans la mesure où la présence éventuelle de sous-produits de PFAS dans les gaz de combustion fait encore débat.

Parmi les autres techniques de dégradation, on peut citer l’oxydation à l’eau supercritique, qui a pu démontrer son efficacité pour dégrader un grand nombre de PFAS pour un coût énergétique moindre que l’incinération. La technique permet de déclencher l’oxydation des PFAS. Elle repose néanmoins sur des conditions de température et de pression très élevées (plus de 375 °C et plus de 218 bars) et implique donc une dépense importante d’énergie.

Il en est de même pour la sonocavitation, qui consiste à créer des bulles microscopiques à l’aide d’ultrasons qui, en implosant, génèrent des pressions et des températures à même de dégrader les PFAS en générant un minimum de sous-produits.

Le panel de techniques présenté ici n’est évidemment pas exhaustif. Il se concentre sur les techniques les plus matures, dont le nombre reste relativement restreint. Des dizaines d’autres méthodes sont actuellement à l’étude dans les laboratoires.

Que retenir de cet inventaire ? Le traitement des milieux, en particulier les eaux et les sols, n’implique pas systématiquement la dégradation des PFAS. Pour y parvenir, il faudra mobiliser des nouvelles approches encore en cours de recherche et développement.

De plus, la dépollution devra d’abord se concentrer sur le traitement des zones sources (sols directement impactés avec des produits contenant des PFAS, etc.) afin d’éviter les pollutions secondaires. En effet, une dépollution à très grande échelle engendrerait un coût gigantesque, estimé à 2 000 milliards d’euros sur vingt ans.

En conséquence, même si des techniques de dépollution existent déjà et que d’autres sont en développement, elles ne suffiront pas. Elles doivent être couplées à une surveillance accrue des milieux, à une évolution des réglementations sur l’usage et sur la production de PFAS et à un effort de recherche soutenu pour restreindre ou pour substituer ces substances lorsque cela est possible.

The Conversation

Maxime Cochennec a reçu des financements de l'Agence de la transition écologique (ADEME), du Ministère de la Transition Écologique dans le cadre du plan interministériel sur les PFAS et de l’Union Européenne (Horizon H2020).

Clément Zornig a reçu des financements de l'Agence de la transition écologique (ADEME), du Ministère de la Transition Écologique dans le cadre du plan interministériel sur les PFAS et de l’Union Européenne (Horizon H2020).

Stéfan Colombano a reçu des financements de l'Agence de la transition écologique (ADEME), du Ministère de la Transition Écologique dans le cadre du plan interministériel sur les PFAS et de l’Union Européenne (Horizon H2020).

PDF

10.09.2025 à 17:22

Pourquoi mon enfant oublie toujours ses affaires – et comment l’aider

Celia Harris, Associate Professor in Cognitive Science, Western Sydney University

Penny Van Bergen, Associate Professor in the Psychology of Education, Macquarie University

Lorsqu’un enfant oublie son matériel scolaire ou égare un pull ou une écharpe, c’est agaçant. Mais ces distractions ne sont-elles pas une étape de leur développement&nbsp;?
Texte intégral (1936 mots)

Si certaines petites filles et certains petits garçons sont particulièrement distraits, il n’est pas évident pour les enfants en général de bien se rappeler du matériel scolaire à apporter ou de veiller sur leurs affaires. Explications.


En cette période de reprise scolaire, nombreux sont les parents et les enseignants qui vont de nouveau entendre des phrases comme « Je ne retrouve plus mon pull » ou « J’ai laissé mon bonnet à la maison ». Pour les parents d’enfants plus âgés, les objets perdus peuvent avoir encore plus de valeur : téléphones portables, ordinateurs portables oubliés dans le bus…

En tant que parent, il peut être tentant de prendre les choses en main en préparant soi-même les cartables des plus jeunes ou en envoyant aux plus âgés une liste des choses à ne pas oublier à la fin de chaque journée.

Cependant, faire les choses à leur place, c’est les priver d’une occasion d’apprendre.

Que se passe-t-il dans les cerveaux des enfants ?

Dans leurs vies bien remplies, nos enfants utilisent et développent constamment leurs compétences de mémorisation : ils doivent se rappeler où ils ont rangé leurs affaires, acquérir de nouvelles connaissances à l’école et retenir les routines quotidiennes.

Le développement de la mémoire prospective – qui consiste à se souvenir de ce qu’on doit faire dans le futur – est un enjeu particulièrement complexe.

C’est elle que les enfants utilisent lorsqu’ils posent leur gourde pendant la récréation et doivent se rappeler de la reprendre plus tard, ou lorsqu’ils reçoivent un mot de leur professeur et doivent se rappeler de le montrer à leurs parents après l’école. La vivacité de la mémoire prospective implique le bon fonctionnement de plusieurs processus cognitifs.

Les enfants doivent prêter attention à ce qui est nécessaire dans une situation donnée (« Je ne peux pas jouer dehors si je n’ai pas de chapeau »), puis formuler et mémoriser une intention d’action particulière (« Je dois emporter mon chapeau à l’école »). Cette intention, ils doivent se la rappeler au moment crucial (en prenant leur chapeau avant de sortir). Et pouvoir « se rappeler de se rappeler » nécessite un déclenchement spontané de la mémoire, au bon moment, sans aide ni rappel.

Ces processus nécessitent une compétence cognitive appelée « fonction exécutive » qui nous permet de contrôler consciemment notre attention et notre mémoire et de nous engager dans des tâches intellectuelles compliquées.

Les processus qui dépendent de cette fonction exécutive sont complexes, c’est pourquoi les bouteilles de boisson perdues et les chapeaux oubliés sont des expériences frustrantes si courantes dans la vie des parents.

A parents packs her child’s bag
Tout faire à la place d’un enfant le prive d’une occasion d’apprendre. Halfpoint/Shutterstock

Même chez les adultes, la majorité des erreurs de mémoire au quotidien concernent la mémoire prospective.

Par rapport à d’autres compétences comme le langage ou le jeu, les fonctions exécutives se développent plus tard dans l’enfance. En effet, le cortex préfrontal, qui sous-tend les tâches liées aux fonctions exécutives, n’atteint sa maturité qu’au début de l’âge adulte.

Cela signifie que l’oubli est courant chez les enfants et fait naturellement partie de leur développement. Il y a de fortes chances que vous ayez été comme ça vous aussi quand vous étiez à leur place (vous ne vous en souvenez peut-être pas).

Certains enfants ont-ils plus de difficultés avec la mémoire prospective ?

En matière de fonctions exécutives, les différences sont grandes d’un enfant à l’autre (comme d’un adulte à l’autre). Si tous les enfants progressent au fil du temps, ils ne le font pas au même rythme.

Les enfants présentant un trouble du déficit de l’attention avec ou sans hyperactivité (TDAH) sont plus susceptibles d’être concernés par les oublis. Dans le cas du TDAH de type inattentif, ils ont plus tendance à perdre des objets et à se dissiper lors d’activités quotidiennes telles que les tâches ménagères ou les courses.

Ces enfants finiront par développer leur mémoire prospective avec le temps, mais ils peuvent être plus distraits que leurs camarades du même âge.

Comment aider des enfants à être moins distraits ?

Établissez des routines et respectez-les. Des études montrent que les routines aident les enfants à développer leurs capacités cognitives et leur maîtrise de soi. Les enfants mémorisent mieux une routine lorsqu’elle est « automatisée », c’est-à-dire pratiquée suffisamment souvent pour qu’ils la suivent sans y penser.

Encouragez la « métacognition », c’est-à-dire la conscience de ses propres processus cognitifs. Une étude suggère que les enfants ont tendance à surévaluer leur capacité à mémoriser. Les parents et les enseignants peuvent les aider à prendre conscience de la difficulté de cette tâche et à mettre en place des stratégies efficaces.

Donnez l’exemple ! Ainsi, vous pouvez établir vos propres listes et astuces pour vous aider à vous souvenir des tâches quotidiennes. Vous pouvez également instaurer une routine familiale consistant à déposer les sacs près de la porte et à les vérifier la veille au soir. Ne le faites pas à leur place, faites-le ensemble.

N’hésitez pas à demander l’aide d’un professionnel si vous êtes inquiet. Tous les enfants ont des oublis de temps à autre, certains plus que d’autres. Si votre enfant est particulièrement distrait ou étourdi, il peut être utile de consulter un médecin généraliste ou un psychologue scolaire. Les troubles tels que le TDAH doivent être évalués dans plusieurs contextes (par exemple, à la maison et à l’école, ou à la maison et au sport) et répondre à des critères spécifiques. Un diagnostic peut être utile pour mettre en place les aides nécessaires.

Les attitudes à éviter

Ne comptez pas sur les enfants pour se souvenir spontanément de ce qu’il faut faire : c’est l’aspect le plus difficile de la mémoire prospective ! Utilisez plutôt des listes et des aide-mémoire. Par exemple, s’ils oublient systématiquement leur gourde à l’école, vous pouvez mettre une étiquette sur leur cahier de textes avec la mention « Où est ta gourde ? » Utiliser des rappels n’est pas tricher, c’est favoriser la réussite.

Ne vous inquiétez pas trop des erreurs, elles sont normales. Une étude menée auprès d’enfants âgés de 3 ans à 5 ans a montré que les récompenses sous forme de friandises ne suffisaient pas à améliorer les performances. Les punitions ne sont pas non plus efficaces. Utilisez plutôt les oublis comme des occasions d’apprendre : réfléchissez à la manière d’ajuster votre stratégie la prochaine fois.

Ne tardez pas à réagir. L’anxiété et le stress peuvent augmenter le risque d’oublis, car les enfants peuvent facilement se sentir dépassés. Préparez les sacs la veille, entraînez-vous à suivre de nouvelles routines et évitez autant que possible de vous précipiter.

Évitez les jugements. Les défaillances de la mémoire prospective sont parfois perçues comme des défauts de caractère, en particulier lorsqu’elles affectent d’autres personnes (comme lorsqu’on oublie de rendre un objet emprunté). Comprendre comment fonctionne la mémoire permet de réaliser au contraire que l’oubli fait partie intégrante de la vie quotidienne et du développement des enfants.

The Conversation

Celia Harris a reçu des financements de l'Australian Research Council et du Longitude Prize on Dementia.

Penny Van Bergen a reçu des financements de l'ARC, de Marsden, de Google et de la Fondation James Kirby.

PDF
50 / 50
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Lava
La revue des médias
Le Grand Continent
Le Diplo
Le Nouvel Obs
Lundi Matin
Mouais
Multitudes
Politis
Regards
Smolny
Socialter
The Conversation
UPMagazine
Usbek & Rica
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
Contretemps
A Contretemps
Alter-éditions
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
Philo Mag
Terrestres
Vie des Idées
 
  ARTS
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
 
Fiabilité 3/5
Slate
Ulyces
 
Fiabilité 1/5
Contre-Attaque
Issues
Korii
Positivr
Regain
🌓