11.09.2025 à 17:19
Dubet François, Professeur des universités émérite, Université de Bordeaux
Dans nos sociétés fondées sur l’égalité des chances, les discriminations sont devenues l’expression centrale de l’injustice. Elles nourrissent à la fois la légitimation des inégalités, le sentiment de mépris et la fragmentation des luttes sociales. Quelle pourrait être la forme de la représentation politique de discriminations individuelles ou collectives toujours plus fractionnées ? Extraits d’un article du sociologue François Dubet, paru dans l’ouvrage collectif l’Universalisme dans la tempête (éditions de l’Aube, 2025), sous la direction de Michel Wieviorka et de Régis Meyran.
Depuis quelques décennies et avec une accélération continue, les discriminations sont devenues l’expérience élémentaire des injustices, le sentiment de mépris une des émotions politiques dominantes. Progressivement, la « vieille » question sociale dérivée des inégalités de conditions de travail et des « rapports de production » semble s’effacer devant celle des discriminations subies par les minorités, y compris celles qui sont majoritaires, comme les femmes. En France, comme dans bien des pays comparables, les débats liés à l’égalité des chances et à la reconnaissance des identités l’emportent parfois sur les conflits de redistribution des richesses qui ont eu longtemps une sorte de monopole des conceptions de la justice.
Si on accepte ce constat, au moins comme une hypothèse, il reste à l’expliquer et en tirer des conséquences politiques en termes de représentations de la justice. Il faut notamment s’interroger sur les mises à l’épreuve des conceptions de la solidarité qui, jusque-là, reposaient sur l’interdépendance des liens « organiques » du travail et de la production, et sur des imaginaires nationaux hiérarchisant des identités et, parfois, les dissolvant dans une nation perçue comme universelle. Sur quels principes et sur quels liens de solidarité pourraient être combattues des discriminations de plus en plus singulières ? Comment reconnaître des identités sans mettre à mal ce que nous avons de commun ?
Le plus sensible des problèmes est celui de la représentation politique de discriminations individuelles ou collectives toujours fractionnées. Dès lors que les individus et les collectifs discriminés ne se sentent pas représentés, ils ont l’impression d’être méprisés, soit parce qu’ils sont invisibles, soit parce qu’ils sont trop visibles, réduits à des stéréotypes et à des stigmates. Personne ne peut véritablement parler pour moi, personne ne me représente en tant que femme, que minorité sexuelle, que musulman, que handicapé, qu’habitant d’un territoire abandonné… On reproche alors aux porte-parole des discriminés d’être autoproclamés pendant que le sentiment de mépris accuse les responsables politiques, mais aussi les médias « officiels », les intellectuels, les experts… Sentiment d’autant plus vif que chacun peut aujourd’hui avoir l’impression d’accéder directement à l’information et à la parole publique par la grâce des réseaux et de la Toile. Avec les inégalités multiples et les discriminations, le sentiment de mépris devient l’émotion politique élémentaire.
Si on avait pu imaginer, ne serait-ce que sous l’horizon d’une utopie, une convergence des luttes des travailleurs et des exploités, celle-ci est beaucoup plus improbable dans l’ordre des inégalités multiples et des discriminations. D’une part, ces dernières sont infinies et « subtiles », d’autre part, le fait d’être discriminé ne garantit pas que l’on ne discrimine pas à son tour. On peut être victime de discriminations tout en discriminant soi-même d’autres groupes et d’autres minorités. Le fait d’être victime du racisme ne protège pas plus du racisme et du sexisme que celui d’être victime de discriminations de genre ne préserve du racisme… Ainsi peut se déployer une concurrence des victimes qui ne concerne pas seulement la mobilisation des mémoires des génocides, des ethnocides et des crimes de masse, mais qui traverse les expériences banales de celles et de ceux qui se sentent inégaux « en tant que ».
De manière plus étonnante, l’extension du règne de l’égalité des chances et des discriminations affecte celles et ceux qui ne peuvent faire valoir aucune discrimination reconnue mais qui, pour autant, ne vivent pas tellement mieux que les discriminés reconnus comme tels. Victimes d’inégalités sociales mais non discriminés, les individus se sentent méprisés et, paradoxalement, discriminés à leur tour : méprisés parce qu’ils seraient tenus pour pleinement responsables de leur situation, discriminés parce qu’ils souffriraient de discriminations invisibles alors que les autres, des discriminés reconnus, seraient aidés et soutenus. Ainsi, les hommes blancs et les « Français de souche » pauvres seraient paradoxalement discriminés parce qu’ils ne peuvent faire valoir aucune discrimination reconnue et parce qu’ils « méritent leur sort » dans l’ordre de l’égalité des chances. Le basculement politique des petits blancs méprisés et « discriminés sans qu’on le sache » est suffisamment spectaculaire aux États-Unis, en Europe et en France pour qu’il ne soit pas nécessaire d’insister : le vote populaire des vaincus des compétitions économiques et scolaires a basculé vers des populismes de droite dénonçant la « disparition » du peuple quand la lecture des inégalités en termes de discriminations semble les avoir effacés.
Si on en croit les individus que nous avons interrogés (François Dubet, Olivier Cousin, Éric Macé, Sandrine Rui) dans Pourquoi moi ? (Seuil, 2013), l’expérience des discriminations conduit vers une double logique de mobilisation, vers deux principes d’action.
Le premier participe pleinement de l’universalisme démocratique affirmant l’égalité des individus et de leurs droits. Il faut donc lutter contre toutes les formes de ségrégation, de stigmatisation et de discrimination, garantir l’équité des procédures et développer la capacité de porter plainte contre le racisme, le sexisme, l’homophobie et toutes les formes de discrimination « à » : à l’emploi, au logement, aux études, aux loisirs, aux contrôles policiers…
En principe, cette logique ne se heurte à aucun obstacle, sinon au fait, disent les individus concernés, qu’elle est difficile à mettre en œuvre. D’abord, il n’est pas toujours facile d’établir la preuve d’une discrimination sans témoignages, sans matérialité incontestable des faits, et la plupart des individus concernés disent renoncer, le « prix » de la plainte étant trop élevé. Ensuite, il existe des obstacles plus subjectifs et plus profonds. Dans la mesure où les discriminations sont des blessures souvent imprévisibles relevant de situations ambiguës, on sait que l’on a été discriminé sans en avoir la preuve, bien des individus ne veulent pas devenir « paranos » et préfèrent faire « comme si ce n’était pas si grave » afin de continuer à vivre plus ou moins « normalement ».
Enfin, beaucoup de personnes que nous avons interrogées ne veulent pas renoncer à leur autonomie et répugnent à se vivre comme des victimes. En fait, si chacun sait qu’il est victime de discriminations, beaucoup répugnent à adopter le statut de victime. On peut donc ne rien ignorer des discriminations, tout en refusant d’être totalement défini par elles. En dépit de ces difficultés, il reste que du point de vue légal et de celui des procédures, la lutte pour l’égalité de traitement et pour l’équité est essentielle et que, dans ce cadre, l’universalisme démocratique et la lutte contre les discriminations vont de pair.
La seconde logique déployée par les acteurs concerne moins les discriminations proprement dites que les stigmatisations. Dans ce cas, les individus réclament un droit à la reconnaissance : ils veulent que les identités au nom desquelles elles et ils sont stigmatisés puis discriminés soient reconnues comme également dignes à celles des identités majoritaires perçues comme la norme. Cet impératif de reconnaissance doit être distingué de l’appel à la seule tolérance qui est sans doute une vertu et une forme d’élégance, mais qui n’accorde pas une égale dignité aux identités en jeu. On peut tolérer des différences et des identités dans la mesure où elles ne mettent pas en cause l’universalité supposée de la norme majoritaire. Ainsi on tolère une religion et une sexualité minoritaires puisqu’elles ne mettent pas en cause la religion ou la norme hétérosexuelle majoritaire tenue pour « normale » et donc pour universelle.
La demande de reconnaissance est d’une tout autre nature que celle de l’égalité de traitement dans la mesure où l’égale dignité des identités fait que des normes et des identités majoritaires perdent leur privilège : si je reconnais le mariage pour tous et la procréation assistée, la famille hétérosexuelle devient une forme familiale parmi d’autres ; si je reconnais d’autres cultures, l’identité nationale traditionnelle est une identité parmi d’autres… Des identités et des normes qui se vivaient comme universelles cessent de l’être et se sentent menacées. Ce qui semblait aller de soi cesse d’être une évidence partagée. Il me semble que le débat n’oppose pas tant l’universalisme aux identités qui le menaceraient qu’il clive le camp universaliste lui-même. Par exemple, le débat laïque n’oppose plus les laïques aux défenseurs du cléricalisme, mais les « républicains » aux défenseurs d’une laïcité « ouverte ». Le supposé consensus laïque des salles de professeurs n’a pas résisté à l’assassinat de Samuel Paty. De la même manière se pose la question du récit national enseigné à l’école quand bien des élèves se sentent français, mais aussi algériens ou turcs… Comment distinguer la soumission des femmes à une tradition religieuse et leur droit universel à choisir sa foi et à la manifester ? En fait, ce que nous considérons comme l’universalisme se fractionne car, au-delà des principes, l’universel se décline dans des normes et des cultures particulières. Ainsi, nous découvrons qu’il existe des manières nationales d’être universels derrière le vocabulaire partagé des droits, de la laïcité et de la démocratie.
Plutôt que de parler d’universel, mieux vaudrait essayer de définir ce que nous avons ou pouvons avoir de commun dans les sociétés où nous vivons. En effet, la reconnaissance d’une identité et d’une différence n’est possible que si nous savons ce que nous avons de commun, à commencer par les droits individuels bien sûr, mais aussi par ce qui permet de vivre ensemble au-delà de nos différences. Il faut donc renverser le raisonnement commun : on ne reconnaît pas des différences sur la base de ce qui nous distingue, mais sur la base de ce que nous avons de commun et que ne menace pas une différence. Mais ce commun suppose de reconstruire ce que nous appelions une société, c’est-à-dire des mécanismes de solidarité, d’interdépendance dans le travail, dans la ville, dans l’éducation et dans l’État-providence lui-même qui, ne cessant de fractionner ses cibles et ses publics, est devenu « illisible ». Pour résister aux vertiges des identités et aux impasses de la reconnaissance et des peurs qu’elles engendrent, il serait raisonnable de radicaliser et d’approfondir la vie démocratique, de fonder une école qui ne soit pas réduite au tri continu des élèves, de réécrire sans cesse le récit national afin que les nouveaux venus dans la nation y aient une place, de détruire les ghettos urbains, de rendre lisibles les mécanismes de transferts sociaux, de s’intéresser au travail et pas seulement à l’emploi… Soyons clairs, il ne s’agit pas de revenir vers la société de classes et les nations communautaires, mais sans la construction patiente et méthodique d’un commun, je vois mal comment nous résisterons à la guerre des identités et à l’arrogance de l’universel.
Nous vivons aujourd’hui une mutation sociale et normative sans doute aussi profonde que celle qui a marqué le passage des sociétés traditionnelles vers des sociétés démocratiques, industrielles et nationales. Il est à craindre que cette mutation ne soit pas plus facile que la précédente et il m’arrive de penser que les sciences sociales, au lieu d’éclairer ces débats, ces enjeux, et de mettre en lumière les expériences sociales ordinaires, participent parfois à ce qu’elles dénoncent quand chacun est tenté d’être le témoin et le militant de « sa » discrimination et de « son » inégalité selon la logique des « studies ». Même si la société n’est plus La Société que nous imaginions à la manière de Durkheim, et dont beaucoup ont la nostalgie, nous ne devrions pas renoncer à l’idée que nous sommes interdépendants et que le choix de l’égalité sociale reste encore une des voies les plus sûres pour atténuer l’inégalité des chances. Le désir de ne pas réduire la question de la justice à celle des discriminations et des identités impose le vieux thème de la solidarité – et ce, d’autant plus que les enjeux écologiques appelleront un partage des sacrifices, et pas seulement un partage des bénéfices.
Dubet François ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
11.09.2025 à 17:17
Benjamin Cordrie, Enseignant-chercheur, titulaire de la chaire économie sociale et circulaire, UniLaSalle
Victor Bayard, Docteur en génie urbain. Chercheur en socio-économie., UniLaSalle
Aux côtés des acteurs associatifs historiques du réemploi – Emmaüs, ressourceries et recycleries – et des plateformes, comme Vinted et Leboncoin, de nombreuses enseignes de la grande distribution développent aujourd’hui des offres de seconde main. Faut-il s’en réjouir ? Qui en sort vainqueur ?
Les activités liées à la seconde vie des produits connaissent en France un essor sans précédent. Faut-il se réjouir de l’avènement d’une économie circulaire plus vertueuse, limitant le gaspillage des ressources et la production de déchets ? C’est l’une des interrogations qui oriente les travaux menés dans le cadre de la Chaire Économie sociale et circulaire.
Deux modèles coexistent derrière la promesse vertueuse de la seconde main. Le premier, porté par les acteurs de l’économie sociale et solidaire, repose sur la pratique du réemploi : une activité fondée sur le don, articulée à des finalités sociales (insertion, solidarité) et écologiques (réduction des déchets, sobriété matérielle).
Le second relève du marché de l’occasion. Il repose sur la revente, mobilisée comme levier de profit, et tend à intensifier la circularité, sans remettre en cause les volumes de production et de consommation. Autrement dit, l’un cherche à réduire à la fois les déchets et la surconsommation, l’autre vise à prolonger la durée de vie des produits sans sortir de la logique marchande. Les deux modèles ne sont pas équivalents, ni dans leurs objectifs ni dans leurs effets.
Pour quel avenir du marché de seconde main ?
Plusieurs facteurs expliquent les velléités de la grande distribution à investir le marché de la seconde main. Dans un contexte où les injonctions à adopter des comportements de consommation responsables se multiplient, la croissance de ce marché est estimée à 15 % par an.
Elle s’appuie sur une revalorisation sociale de la seconde main, devenue tendance, voire chic. C’est sur cette corde que jouent les campagnes de communication des plates-formes comme Vinted. D’autre part, une étude marketing comme celle du cabinet Enov (dont l’illustration ci-dessous est tirée) offre à la fois l’intérêt de quantifier le marché de la seconde main et de témoigner de son intérêt auprès d’acteurs aux modèles économiques lucratifs.
Ces mutations s’inscrivent dans le sillage de la loi Anti-Gaspillage pour une économie circulaire (AGEC) adoptée en 2020. La réglementation sur la reprise « 1 pour 1 » oblige les distributeurs à collecter les produits usagés qu’ils commercialisent, soumis à la responsabilité élargie du producteur (REP). En 2023, ces filières REP pèsent 152 millions de tonnes de produits, 12,6 millions de produits et déchets collectés pour 8,2 millions de tonnes recyclées.
Ainsi voit-on fleurir, dans les grandes surfaces, des offres de produits de seconde vie, qu’il s’agisse d’électroménager, d’articles de sport, ou encore de bricolage.
Le secteur du réemploi s’est historiquement structuré autour d’acteurs de l’économie sociale et solidaire comme Emmaüs, les ressourceries ou les entreprises d’insertion Envie. Leur activité combine deux aspects : la collecte basée sur le don, dite « non écrémante » car indépendante de la valeur marchande des objets, et la revente à prix solidaires. Ces acteurs participent à la prévention, en détournant du flux de déchets, la partie pouvant être réemployée.
Ces structures entretiennent une relation distante avec le profit, ce qui leur permet de rendre accessibles des biens aux catégories les plus précaires de la population. Nombre d’entre elles sont des actrices de l’insertion par l’activité économique (IAE). Elles proposent des emplois accompagnés à des personnes éloignées du marché du travail, et font du réemploi des objets un support à l’insertion socioprofessionnelle des personnes.
L’ancrage territorial de ces structures, et les modes démocratiques de gouvernance qui s’y exercent ouvrent la voie à des formes de réappropriation citoyenne des enjeux de gestion des déchets. Dans les sociétés industrielles modernes, ces enjeuxsont délégués à des entreprises spécialisées et circonscrits à des choix techniques. Les structures du réemploi solidaire mobilisent des bénévoles, des salariés, des collectivités et des habitants, et contribuent en cela à repolitiser ces enjeux en redonnant aux citoyens un pouvoir de décider et d’agir.
Le modèle développé par la grande distribution est radicalement différent. Il repose sur un système de bons d’achat : en échange d’un produit usagé rapporté en magasin, les consommateurs reçoivent un bon de réduction à valoir sur l’achat d’un produit neuf. Ce dispositif stimule la consommation, y compris de produits neufs, et contribue à un effet rebond. Les bénéfices environnementaux attendus de la prolongation de la vie des produits peuvent se retrouver annulés par l’augmentation de la consommation globale.
Il s’agit moins de réemploi que de l’intégration d’une offre d’occasion. En témoignent les partenariats entre des enseignes de grande distribution et des professionnels du secteur. Carrefour s’est par exemple associé à Cash Converters, entreprise spécialisée dans l’achat-vente de biens d’occasion, pour installer des corners dédiés à l’occasion dans ses hypermarchés. Les activités liées à la seconde vie sont ici une opportunité de diversification commerciale, voire de verdissement de l’image de l’entreprise.
Ces évolutions exercent une pression croissante sur les acteurs du réemploi solidaire, en particulier lorsque les segments les plus rentables – la « crème » des gisements – sont captés. Ces objets de qualité, en très bon état et avec une forte valeur marchande, représentent une part réduite des apports, mais jouent un rôle très important dans l’équilibre économique des structures.
À lire aussi : Vieux vêtements, nouveaux problèmes : le recyclage ne règle pas tout
Les revenus issus des ventes à prix solidaires représentent jusqu’à 80 % des ressources de certaines structures comme Envie. Les difficultés rencontrées par la filière textile, submergée par des volumes croissants de vêtements à bas coût issus de la fast fashion, illustrent bien la fragilité de cet équilibre.
Comme le rappelle la socioéconomie, l’application d’un principe de marché librement concurrentiel favorise les acteurs dominants. Face aux moyens des grandes enseignes, les campagnes de plaidoyer des structures solidaires peinent à se faire entendre. Une réponse politique plus ambitieuse paraît nécessaire, à même de garantir la pérennité des activités solidaires.
Des partenariats existent entre ESS et entreprises privées, comme celui qui unit la fédération Envie au groupe Fnac-Darty. Puisque ces coopérations reposent uniquement sur des démarches RSE non contraignantes, leur pérennité reste fragile. Rien n’empêche les enseignes de s’en détourner dès lors qu’elles identifient un intérêt économique à développer leur propre filière de seconde main.
Au niveau local, certaines collectivités soutiennent activement les acteurs de l’ESS à travers des aides financières, des mises à disposition de locaux ou des clauses sociales et environnementales dans les marchés publics. À Rennes, la métropole a initié la création d’une plateforme territoriale du réemploi, fédérant plusieurs structures solidaires.
Comme l’affirme la géographe Nicky Gregson, « il est impossible de comprendre le problème global des déchets en commençant par le déchet ». Autrement dit, il faut interroger les dynamiques de production et de consommation qui sous-tendent ces flux. C’est à cette échelle qu’il est possible de penser le réemploi solidaire, non comme un débouché opportun à une surproduction irréversible, mais comme un espace en marge du capitalisme que les pouvoirs publics peuvent choisir de soutenir, ou de fragiliser.
Cet article est le fruit des travaux menés dans le cadre de la chaire économie sociale et circulaire, portée par UniLaSalle Rennes et financée par l'éco-organisme Valdelia. Benjamin Cordrie est membre de l'Association Française d'Economie Politique (AFEP).
Mes recherches postdoctorales sont financées par un programme de recherche, la Chaire Économie Sociale et Circulaire, dont les financements proviennent d'un accord de mécénat avec l'éco-organisme Valdelia, agréé par l’État (filière du mobilier professionnel et des produits et matériaux de construction du bâtiment).
11.09.2025 à 17:11
Thomas Zeroual, Enseignant-chercheur en Economie, ESCE International Business School
Le tri des biodéchets (c’est-à-dire, les déchets verts et les déchets alimentaires) est obligatoire depuis 2024. Mais, pour que ces biodéchets soient intéressants à valoriser, encore faut-il que la facture environnementale du transport par camion ne déséquilibre pas l’équation ! Une récente étude menée dans un quartier de Romainville, en Seine-Saint-Denis, montre comment choisir l’approche la plus efficace à l’échelle d’un territoire.
Depuis le 1er janvier 2024, le tri des biodéchets, c’est-à-dire les déchets biodégradables de nos ordures ménagères comme les restes alimentaires, est obligatoire pour les professionnels comme pour les citoyens. Cette réglementation semble encourageante d’un point de vue environnemental. En effet, mieux trier peut réduire la quantité de déchets incinérés – et donc les émissions de gaz à effet de serre associées – tout en encourageant la production énergétique de compost ou de biogaz.
Encore faut-il transporter ces déchets vers les lieux de valorisation… Et c’est là que les choses se compliquent : selon le scénario considéré, les impacts environnementaux du transport grimpent considérablement.
À lire aussi : Déchets alimentaires : à quoi va servir le nouveau tri à la source ?
Selon le Code de l’environnement, les biodéchets sont définis comme « les déchets non dangereux biodégradables de jardin ou de parc » (qu’on appelle couramment déchets verts) ainsi que « les déchets alimentaires ou de cuisine ».
Chaque année, 18 millions de tonnes de biodéchets sont produites par les ménages en France. Les marges de manœuvre pour les réduire sont importantes : une grande partie des déchets organiques est aujourd’hui incinérée ou mise en décharge, ce qui n’est pas du tout optimal. La hiérarchie définie par la directive cadre de l’Union européenne est très claire : ces modes de traitement ne doivent être utilisés qu’en dernier recours. En théorie, il convient de respecter l’ordre de priorité suivant : dans un premier temps, prévenir la constitution du déchet, ensuite le réemploi, puis le recyclage et enfin l’élimination.
Incinérer ou mettre en décharge les biodéchets ne respecte pas cette hiérarchie. Cela génère de surcroît des émissions de CO2 (en cas d’incinération) et de méthane (en cas de mise en décharge), sans parler du gaspillage d’espace et d’énergie.
En France, la gestion des biodéchets représente le principal gisement d’évitement (c’est-à-dire, la part d’un flux de déchets pouvant être évitée grâce à des actions de prévention en amont), selon l’Agence de la transition écologique (Ademe).
Des changements dans l’organisation du ramassage de ces déchets, par exemple, pourraient entraîner une baisse significative du volume de ces déchets.
Chaque année en France, 355 millions de tonnes de déchets sont transportés, ce qui représente 30 % des émissions de gaz à effet de serre générées par le secteur de la gestion des déchets, soit 2,4 millions de tonnes équivalent CO2.
Face à ces impacts environnementaux, il est utile d’identifier et d’évaluer une meilleure gestion des transports des biodéchets. Différentes options doivent être envisagées, car il n’existe pas de solution unique.
Nous avons récemment mené une étude dont le terrain était un quartier situé à Romainville, en Seine-Saint-Denis, ville connue pour avoir déjà expérimenté des solutions de collecte de biodéchets.
Ce quartier comprend une population de 3 995 habitants répartis sur une aire de 47 hectares. Les déchets sur cette surface sont collectés et acheminés vers une plate-forme de transit à la déchetterie de Romainville, puis ils sont répartis dans des conteneurs en vue de leur recyclage ou de leur élimination par des filières spécialisées, comme le centre d’incinération à Saint-Ouen-sur-Seine.
Le modèle que nous avons utilisé incluait plusieurs variables liées au transport, comme les itinéraires de collecte, la taille du parc de véhicules, leurs poids, la taille et le nombre de tournée… Il intègre aussi des variables environnementales, comme la part de compostage et de méthanisation sur ces déchets et la consommation de carburant des camions utilisés pour leur transport.
Dans nos travaux sur ce quartier, nous avons retenu quatre scénarios.
Le scénario n°1 correspond à un compostage de proximité avec une gestion in situ, autrement dit une gestion volontaire et locale vers un site de compostage partagé. Nous avons supposé que 30 % des biodéchets finissaient dans une poubelle individuelle et que 70 % restants étaient valorisés dans un compost collectif. Ce scénario n’est toutefois crédible que si le taux de participation est suffisant. Conformément au seuil établi par la littérature scientifique, nous avons fixé ce taux à 45 %.
Les autres scénarios se rapportent à une collecte centralisée organisée par des professionnels. Le scénario n°2 correspond à un ramassage en porte à porte vers un centre de transit où l’on groupe les déchets avant de les envoyer dans un centre de valorisation.
Le scénario n°3 s’effectue en porte à porte, mais sans point de transit : c’est le scénario le plus utilisé en France.
Enfin, le scénario n°4 est une collecte en porte-à-porte, sans point de transit, mais avec des bacs collectifs plus grands que les poubelles individuelles.
Quel scénario est le plus intéressant ? Par ordre du plus au moins intéressant :
Le scénario n°1 de compostage de proximité s’avère être le scénario à privilégier. En effet, il exclut l’étape du transport : les biodéchets sont soit compostés à l’échelle individuelle au sein des habitats privés, soit à l’échelle collective, où chaque habitant d’une résidence collective amène ses biodéchets dans des bioseaux vers des composteurs partagés aux pieds d’immeuble, dans les jardins ou des parcs publics.
Le deuxième meilleur est le scénario de collecte dans des bacs plus grands (scénario n°4) : il est préférable au scénario en porte-à-porte avec transit (scénario n°2). Et cela, même avec une distance parcourue plus élevée (210 km contre 142 km) et une consommation en carburant supérieure (53 litres contre 37 litres), car les camions de collecte s’arrêtent, en proportion pour une quantité de déchets ramassés équivalente, moins souvent.
Enfin, le scénario de collecte n°3 en porte-à-porte sans point de transit est celui qui génère le plus d’externalités. C’est le scénario le plus émetteur de CO2, du fait du nombre d’arrêts. Ce scénario est pourtant celui qui est actuellement le plus appliqué !
Le compost apparaît ainsi comme la solution préférable et optimale pour les biodéchets d’un point de vue environnemental. Composter en proximité, c’est participer à la réduction des émissions de gaz à effet de serre.
En attendant que le compost devienne un réflexe citoyen, l’étude permet de quantifier l’impact des autres scénarios de collecte.
Le recours à des centres de transit permet certes de diminuer de plus de 27 % les émissions de CO2, mais utiliser des bacs collectifs sans transit permet de les réduire de plus de 57 %.
En définitive : plus le citoyen est sollicité et participe au traitement de ses déchets, meilleurs sont les résultats en termes climatiques. Si on le sollicite moins, alors il faut davantage miser sur de la mutualisation du transport.
Ces travaux offrent des perspectives intéressantes pour la. Nous pourrons à l’avenir y intégrer le méthane et/ou les particules fines issues de l’incinération et même comptabiliser les émissions des sites de compostage, ce qui n’a pas été fait pour le moment. Enfin, notre évaluation pourrait intégrer différentes flottes de camions hybride et/ou électrique d’un remplacement de ces véhicules.
À lire aussi : Poids lourds et pollution : comment accélérer l’électrification ?
Thomas Zeroual ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
11.09.2025 à 12:48
Anne-Claude Ambroise-Rendu, Professeur d'histoire contemporaine, Université de Versailles Saint-Quentin-en-Yvelines (UVSQ) – Université Paris-Saclay
Pacifisme, écologisme et féminisme : Petra Kelly a marqué le mouvement environnementaliste allemand de son engagement. D’abord impliquée dans les mouvements antinucléaires, elle s’est mobilisée en faveur d’une écojustice qui mettrait fin aux inégalités entre pays du Nord et du Sud. Co-fondatrice des Verts outre-Rhin dans les années 1980, celle qui fut aussi députée au Bundestag pendant sept ans s’est distinguée par un militantisme de terrain au sein des mouvements sociaux.
Entrée dans la vie publique en protestant contre l’installation de missiles nucléaires de l’Organisation du traité de l’Atlantique Nord (Otan) en Allemagne de l'Ouest, en 1979, Petra Kelly (1947-1992) a été l’une des premières figures politiques à associer la défense de l’environnement et le refus du nucléaire, le pacifisme intransigeant et le féminisme radical. Fondatrice et figure de proue du parti des Verts allemands (Die Grünen), elle a incarné l’un des plus vastes mouvements contestataires de l’Allemagne des années 1970 et 1980. Pourtant, c’est aujourd’hui une figure en partie oubliée.
Née en 1947 en Bavière puis émigrée aux États-Unis, c’est au cours de ses études de sciences politiques à Washington, que Petra Kelly découvre sur les campus la contestation de la guerre du Vietnam, le féminisme et la non-violence du mouvement pour les droits civiques. En 1968, elle s’engage dans la campagne présidentielle de Robert Kennedy. À cette occasion, elle forge les principes moraux qui vont la guider toute sa vie : un engagement féministe et une conviction pacifiste très profonde qui vont nourrir ses combats ultérieurs.
En février 1970, la mort de sa sœur à l’âge de 10 ans, victime d’un cancer, est décisive dans son approche de l’usage civil et militaire des radiations. C’est donc par la question du nucléaire que Petra Kelly entre dans les mouvements écologistes au début des années 1970. Elle perçoit tout le potentiel qu’offre l’activisme antinucléaire, qui propose une critique de fond du système économique et politique occidental, pour promouvoir une politique européenne alternative et réellement sociale. Après un passage par l’Université d’Amsterdam, elle travaille dix ans, de 1972 à 1982, à la Commission européenne à Bruxelles, où elle comprend que le changement social ne se fera pas sans associer davantage les citoyens aux décisions politiques.
Rentrée en République fédérale d’Allemagne (RFA) en 1979, elle s’éloigne rapidement du SPD (parti social-démocrate) auquel elle avait adhéré, en raison de la politique nucléaire et militaire du gouvernement d’Helmut Schmidt. Elle se présente sans succès aux élections européennes de 1979 dans le camp des Verts, le parti écologiste allemand à la création duquel elle a œuvré avec son compagnon Gert Bastian, ancien général de la force de défense fédérale allemande.
En 1983, elle figure parmi les 28 premiers élus du parti des Verts qui fait ainsi, avec 5,6 % des voix, son entrée au Bundestag avec le soutien de l’écrivain Heinrich Böll, prix Nobel de littérature. Rare femme à siéger dans cette institution où elle restera députée jusqu’en 1990, Petra Kelly travaille inlassablement à faire reconnaître les droits des femmes en politique et raille le sexisme qui règne au Parlement allemand, la chambre basse allemande :
« Peu importe le succès qu’une femme peut avoir, il y a toujours un homme qui surveille ses faits et gestes et qui laisse son empreinte sur tout ce qu’elle fait. »
Fustigeant l’organisation et la pensée sclérosées des partis politiques, elle ambitionne d’insuffler l’énergie qui l’a séduite dans le mouvement antinucléaire à la vie politique allemande. Elle participe à toutes les manifestations, sit-in et débats télévisés et devient ainsi la figure de l’écologisme et du pacifisme allemand, sa célébrité dépassant alors de très loin les frontières nationales et même européennes.
Son activisme est délibérément spectaculaire. En 1980, lors de la crise des euromissiles provoquée par le déploiement d’un arsenal d’armes conventionnelles et atomiques, elle signe, comme bientôt deux millions de personnes, l’appel de Krefeld contre les décisions de l’Otan. Comprenant que l’appel est partisan et ne vise que l’Otan mais pas les pays du bloc de l’Est, elle prend bientôt ses distances avec les signataires. Reçue à la fin de l’année 1983, avec d’autres représentants des Verts, par Erich Honecker, président du Conseil de la République démocratique allemande (RDA), qui espérait trouver en eux des alliés contre le militarisme de l’Ouest, elle ne transige pas : vêtue d’un tee-shirt orné du slogan du mouvement pour la paix est-allemand, elle demande la libération des opposants politiques incarcérés en RDA et remet à Honecker un traité de paix symbolique.
Pour protester contre la course aux armements, elle organise la crémation d’un énorme missile de papier fabriqué avec de vieilles affiches de la CDU (Union chrétienne-démocrate) et du SPD devant le quartier général de ce dernier. Dans une lettre ouverte à Willy Brandt, président du SDP, publiée dans le Frankfurter Rundschau en 1982, elle affirme :
« La paix, c’est la protection de l’environnement, c’est empêcher la déforestation pour y installer des bases de missiles, c’est lutter contre l’implantation de centrales nucléaires. »
Rare députée allemande à parler couramment l’anglais, elle parcourt le monde tout au long des années 1970 et 1980, sans cesser de déplorer l’étroitesse de vue de la vie politique de l’Allemagne de l’Ouest, renfermée au sein des frontières du pays. Elle se partage entre les capitales occidentales et les mobilisations antinucléaires, tout en s’associant aux combats des minorités autochtones, qu’elles soient aborigènes en Australie ou lakotas aux États-Unis.
En 1982, elle reçoit, en hommage à son engagement indéfectible et international en faveur de l’environnement et de la justice sociale, le Right Livelihood Award, Nobel de la paix alternatif. En 1987, elle soumet au Bundestag une résolution sur le Tibet. Au sein du Parlement, comme devant la Maison Blanche à Washington, sur l’Alexanderplatz à Berlin-Est ou à l’ambassade ouest-allemande à Pretoria (Afrique du Sud), il s’agit pour elle de créer des réseaux transnationaux favorisant la circulation des informations et des pratiques de contestation.
Dès 1990, elle promeut la notion d’écojustice dans un texte resté fameux qui plaide pour une refonte totale du modèle économique occidental et la fin de la logique productiviste et consommatrice, qui génère de plus en plus d’inégalités nord-sud. Elle souligne la responsabilité des pays riches à l’égard des autres pays du monde, autant en matière de commerce que d’environnement. Elle y dénonce la déforestation du Costa Rica et l’expropriation des populations locales pour le profit des chaînes de fast- food qu’elle appelle à boycotter, ainsi que l’envoi de déchets industriels toxiques dans les pays pauvres. Elle insiste sur le lien qui existe entre la pauvreté profonde des deux tiers de l’humanité, les dégradations environnementales et la militarisation du monde.
Appel à une réponse non violente, le texte n’est pas qu’un réquisitoire. Il invite à refonder les mentalités des pays industriels en mesurant le bien-être à l’aune de critères nouveaux : la santé, l’air pur, l’eau claire, une nourriture saine et le partage de l’environnement avec les plantes et les animaux. L’écojustice n’est rien d’autre, écrit-elle que « prendre au sérieux la destinée de l’humanité et de la planète sur laquelle nous vivons. S’il y a un futur, il sera vert ».
Mais être une activiste populaire et intransigeante, célèbre dans le monde entier et siéger au Parlement s’avère parfois délicat, surtout quand on est devenue le visage des Verts. Les médias la présentent comme la Jeanne d’Arc de l’âge nucléaire, qualificatif qu’elle déteste. Or, si certains verts saluent son activisme infatigable, d’autres jugent qu’il est incompatible avec le sérieux attendu d’une députée et y voient un risque de discrédit du parti. Elle est donc progressivement marginalisée au sein d’un parti qui gagne en influence et dont les idées se banalisent. En 1990, elle tente sans succès de figurer sur la liste des Verts pour les élections au Bundestag et son parti divisé, échoue à siéger au Parlement faute d’avoir obtenu les 5 % nécessaires.
En 1992, à 45 ans, elle est assassinée dans son sommeil par son compagnon, lui aussi ancien député des Grünen, Gert Bastian qui se donne ensuite la mort. Les raisons de ce crime restent inconnues.
L’année suivante, le 22 avril, jour de la Terre, on inaugurait à Barcelone (Espagne) le jardin Petra Kelly, situé sur la colline de Montjuïc. Cette figure charismatique n’est pas oubliée de tous et continue d’être une inspiratrice : lauréate à titre posthume du prix Lumière de la vérité en 2002, décerné par le dalaï-lama, qu’elle avait rencontré, elle est classée 45e dans la liste des personnalités ayant œuvré pour sauver la planète par l’Agence de l’environnement du Royaume-Uni en 2006. De la même façon, la Fondation Heinrich-Böll a créé le prix Petra-Kelly, récompensant une personnalité ayant contribué à faire progresser les droits humains universels et la paix dans le monde.
Anne-Claude Ambroise-Rendu ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
11.09.2025 à 12:46
Sean McMahon, Reader in Astrobiology, University of Edinburgh
Les analyses d’une roche trouvée sur Mars par le rover Perseverance ont été publiées hier dans la revue Nature. Cette roche présente des taches qu’on explique mal à l’heure actuelle. Proviennent-elles d’une activité microbienne, il y a quatre milliards d’années, ou de réactions encore inconnues ? Ces observations, loin de mettre un point final à la quête de traces de vie sur Mars, ne sont en fait que le début d’une longue enquête… qui nécessite de rapporter la roche sur Terre.
Il y a un peu plus d’un an, la Nasa a fait une grande annonce : le rover Perseverance, qui explore la surface de Mars, avait trouvé des signes potentiels d’une vie ancienne sur Mars. Les détails de cette découverte ont maintenant été évalués par les pairs et publiés dans la revue Nature. Un article qui, malgré sa formulation plutôt modeste, pourrait finalement s’avérer être l’un des plus importants de l’histoire des sciences.
Pour faire court : ces traces pourraient être des signes de vie passée, mais il faudrait ramener les échantillons sur Terre pour en être sûrs. Le rover Perseverance a collecté et analysé un fragment de la roche en question… il ne reste plus qu’à aller le chercher.
Et une mission visant à se rendre sur Mars, à récupérer les échantillons de roche collectés par Perseverance et à les ramener sur Terre a été élaborée par la Nasa et l’Agence spatiale européenne – ceci inclut l’échantillon de roche qui fait l’objet de l’étude publiée dans Nature. Mais cette mission, Mars Sample Return, rencontre des difficultés en raison de l’augmentation des coûts de la mission ([le budget proposé en mars 2025 par le président Trump n’inclut pas cette mission, ndlr]).
Au milieu de l’année 2024, le rover Perseverance a découvert un bloc de mudstone ancien, une roche sédimentaire composée à l’origine d’argile ou de boue, surnommée Cheyava Falls, qui se distingue par sa teinte rouge brique. Cette roche a été déposée par l’eau, il y a environ quatre milliards d’années.
Alors que la plupart des roches martiennes sont rouges à cause d’une couche de poussière d’oxyde de fer, Cheyava Falls est rouge jusqu’à son cœur : l’oxyde de fer se trouve dans la roche elle-même.
Plus intriguant encore, Cheyava Falls est parsemée de douzaines de minuscules taches pâles, de tailles généralement inférieures à un millimètre. Ces taches sont bordées d’un minéral sombre, riche en phosphore, qui apparaît également sous forme de minuscules points dispersés entre les autres taches et que l’on appelle « graines de pavot ». Ce minéral plus sombre est associé à des traces d’anciens composés organiques : des composés qui contiennent du carbone et qui sont essentiels à la vie sur Terre… mais qui existent également en l’absence de vie et d’activité biologique.
Tous les organismes vivants sur Terre collectent l’énergie grâce à des réactions d’oxydoréduction (réactions redox) qui transfèrent des électrons entre des substances chimiques appelées réducteurs (qui cèdent des électrons) et d’autres, appelées oxydants (qui les acceptent).
Sur Terre par exemple, dans les cellules animales, des structures appelées « mitochondries » transfèrent des électrons du glucose (un réducteur) à l’oxygène (un oxydant). Certaines bactéries vivant dans les roches utilisent d’autres types de composés organiques à la place du glucose et, à la place de l’oxygène, de l’oxyde ferrique (un type d’oxyde de fer auquel il manque trois électrons par rapport au métal fer).
Lorsque l’oxyde ferrique est réduit en un autre oxyde de fer appelé oxyde ferreux (il ne manque plus que deux électrons par rapport au métal fer), il devient soluble dans l’eau. Il peut ensuite être dispersé ou réagir pour former de nouveaux minéraux, de couleur plus claire.
Il en résulte que de nombreuses roches et sédiments rouges sur Terre contiennent de petites taches blanchies, appelées « taches de réduction », qui ressemblent de manière frappante à celles trouvées à Cheyava Falls.
Sur Mars, Perseverance a également repéré des caractéristiques blanchies encore plus évocatrices de taches de réduction sur un site appelé Serpentine Rapids. Malheureusement, le rover n’y a passé que trop peu de temps pour les analyser et n’a prélevé aucun échantillon.
Le nouvel article développe des résultats présentés lors de la Lunar and Planetary Science Conference, à Houston (États-Unis), en mars 2025, avec plus de détails. Pour être publiés dans Nature, les résultats ont été évalués par des pairs (d’autres chercheurs spécialistes du domaine), ce qui ajoute du crédit à l’annonce de la Nasa. Ainsi, la nouvelle publication confirme que les taches pâles sont associées à des matières organiques et qu’elles contiennent du fer ferreux et du soufre, plus précisément un minéral de sulfure de fer.
L’interprétation la plus plausible est que des réactions d’oxydoréduction se sont produites à l’intérieur de la roche après sa formation. Elles ont transféré des électrons des matières organiques vers l’oxyde ferrique et le sulfate, ce qui a produit les zones décolorées, où l’oxyde ferrique est réduit en oxyde ferreux.
Le point crucial est que ces réactions, en particulier la réduction des sulfates, ne se produisent normalement pas aux températures relativement basses auxquelles la roche de Chevaya Falls a été soumise au cours de son histoire… à moins que des microbes ne soient intervenus pour aider la réaction à se produire. L’oxydation microbienne de la matière organique peut également produire des minéraux phosphatés, comme ceux trouvés à Cheyava Falls.
Si nous ne ramenons pas les échantillons dans des laboratoires sur Terre, nous ne pourrons pas savoir ce qui s’est réellement passé à Cheyava Falls il y a quatre milliards d’années.
Mais malgré cela, pour l’instant, nous n’avons pas identifié d’explication « non biologique » (qui n’implique pas d’organisme vivant) qui soit entièrement satisfaisante et rende compte de l’ensemble des observations faites par Perseverance. Le nouvel article détaille ces potentielles explications, en examinant les possibilités une par une.
Mais, quoi qu’il en soit, en astrobiologie, l’absence d’explication non biologique ne marque pas la fin de la recherche de vie, mais plutôt… son commencement. L’histoire nous enseigne que lorsque nous ne trouvons pas d’explication non biologique à un phénomène, ce n’est généralement pas parce qu’il n’y en a pas… c’est simplement parce que nous n’y avons pas encore pensé.
À lire aussi : Comment cherche-t-on des traces de vie sur Mars ?
Tout d’abord, les astrobiologistes du monde entier doivent étudier quelles réactions d’oxydoréduction impliquant le fer, le soufre, les composés organiques et le phosphate auraient pu se produire, avec ou sans organismes vivants, dans des conditions similaires à celles de Cheyava Falls.
Ensuite, la NASA et d’autres agences spatiales devront faire preuve d’un leadership audacieux dans le cadre de la mission Mars Sample Return. Oui, cela coûtera cher, peut-être des dizaines de milliards de dollars, mais le résultat pourrait être la découverte scientifique la plus importante jamais réalisée.
À lire aussi : La politique spatiale de la Chine déjoue-t-elle le narratif imposé par les Etats-Unis ? Une conversation avec Isabelle Sourbès-Verger
Sean McMahon a reçu des financements de la NASA par le passé.
11.09.2025 à 12:07
Anne Lavigne, Professeure de Sciences économiques, Université d’Orléans
Le nouveau premier ministre Sébastien Lecornu a indiqué vouloir rouvrir le dossier des retraites. Lors du conclave, la retraite par capitalisation avait été rapidement évoquée. De quoi parle-t-on quand on évoque ce système de financement ? Est-il vraiment opposé à la retraite par répartition ? Quels sont ses réels atouts économiques et financiers ? Les risques qui lui sont associés le discréditent-ils, comme le disent ces critiques ?
Plus connue sous l’appellation « conclave », la délégation paritaire permanente installée le 27 février dernier s’est soldée par un échec, malgré une redéfinition par les partenaires sociaux eux-mêmes du périmètre des thématiques à aborder. Le financement des retraites par capitalisation a notamment été évoqué, avec prudence par les organismes syndicaux et plus d’enthousiasme par les représentants du patronat.
Parallèlement, le 11 juillet dernier, le comité de suivi des retraites a rendu son 12ᵉ avis. Il relève :
« Le recours accru à la capitalisation ne peut pas constituer à court terme une réponse au déséquilibre de notre système par répartition, et peut même avoir pour effet de détourner des ressources du financement des régimes »,
et souligne que :
« Recherche de rendement, préservation de la volatilité, financement de l’économie nationale, investissements souverains constituent autant d’objectifs qui ne sont pas forcément conciliables avec un seul outil dont l’objectif principal reste de verser des retraites aux anciens actifs. »
Dans un système de retraite par répartition, les cotisations des travailleurs actifs ont vocation à financer les pensions des retraités. S’y ajoutent, dans la plupart des pays, des prélèvements fiscaux. Si les cotisants d’une année donnée financent les pensions des retraités la même année, et non leur propre retraite, ils acquièrent un droit à pension financé par les générations ultérieures et garanti par la nation.
À lire aussi : Retraites : l’allongement de la durée du travail, la moins mauvaise des solutions ?
Dans un système de retraite par capitalisation, les cotisations versées une année donnée sont placées dans des actifs financiers ou immobiliers, dont les rendements se cumulent au fil du temps. Les revenus des placements sont réinvestis année après année jusqu’à la retraite, et le capital accumulé pendant la vie active est versé à la liquidation des droits à la retraite, selon des modalités propres à chaque régime de capitalisation, en une rente viagère, en versements programmés ou en un versement unique.
Historiquement, les régimes de retraite professionnels en capitalisation se sont développés lorsque les pays se sont industrialisés. L’objectif des employeurs était de fidéliser une main-d’œuvre par la promesse d’un salaire direct, mais également d’un salaire conditionnel (versement d’une pension d’invalidité en cas d’accident) ou différé (versement d’une pension de retraite lorsque la vieillesse rendait le travailleur inapte au travail).
Dans cette évolution historique, la France a emprunté une voie singulière : si des dispositifs de retraite par capitalisation ont été effectivement instaurés à la fin du XIXe et au début du XXe siècle, ils n’ont pas résisté aux turbulences économiques et financières de l’entre-deux-guerres. À la Libération, la nation a fait le choix d’un système public obligatoire en répartition pour l’ensemble des salariés, avec des caisses de retraite complémentaires professionnelles également financées en répartition.
Ce choix collectif pour la répartition est singulier. Dans tous les autres pays, la retraite de base est en répartition mais les retraites professionnelles sont en capitalisation. Dans le débat qui se rouvre aujourd’hui en France, la question posée est : jusqu’où et comment déplacer le curseur vers la capitalisation ?
Pour certains, la question ne se pose même pas. Par principe, la répartition doit rester l’unique mode de financement des retraites. En effet, développer la capitalisation reviendrait à renforcer le pouvoir actionnarial au détriment du travail, à démanteler la protection sociale solidaire, à accentuer les inégalités à la retraite (les épargnants plus fortunés ont une meilleure capacité à obtenir des rendements financiers plus élevés).
Au-delà de ce principe, qui a sa légitimité, quels arguments peut-on faire valoir pour introduire une dose de capitalisation dans notre système de retraite ? La capitalisation est-elle plus efficace, en termes de rendement et de risque, que la répartition dans sa capacité à procurer un revenu de remplacement pendant la retraite ?
Comparer le rendement de la retraite en répartition ou en capitalisation revient à se demander : pour chaque euro cotisé pendant ma vie active, combien d’euros obtiendrai-je sous forme de pension une fois à la retraite ?
Évaluer le rendement de la capitalisation est en théorie simple, plus délicat en pratique. En théorie, pour un cotisant, le rendement de la capitalisation est le rendement obtenu sur les placements effectués tout au long de sa carrière à partir des cotisations versées. Bien sûr, ces cotisations sont périodiques : celles de début de carrière seront capitalisées sur un temps très long, celles effectuées en fin de carrière sur un temps plus court. Et personne ne connaît avec certitude le nombre des années passées à la retraite, de sorte que le rendement de l’épargne retraite dépend de la durée probable de survie au départ à la retraite.
En définissant le taux de rendement interne (TRI) comme le taux qui égalise la somme (actuelle probable) des cotisations versées et des pensions reçues, le rendement de la capitalisation correspond au taux de rendement des placements dans lesquels ont été investies les cotisations, sous l’hypothèse que les pensions reçues sont actualisées à ce taux.
En pratique, on présente souvent le rendement de la capitalisation comme le rendement moyen observé sur des placements financiers. Pour cela, on calcule le rendement moyen, par exemple sur une durée de quarante ans, d’un indice boursier, par exemple le CAC 40 et on affirme « Si on avait introduit la capitalisation en 1982, les retraités toucheraient 300 euros de plus que la pension offerte par l’actuel système en ayant cotisé deux fois moins ».
Cette expérience de pensée est en réalité fallacieuse. Aucun fonds de pension (a fortiori un épargnant individuel) ne place la totalité de ses actifs dans des actions. D’une part, pour diversifier les risques financiers ; d’autre part, parce qu’au départ à la retraite, il faut convertir le capital de cotisations accumulées en flux de pension. Et cette phase de décumulation nécessite d’avoir des actifs suffisamment liquides et dont la valeur de revente n’est pas (trop) volatile.
Évaluer le « rendement » de la répartition est aussi discutable, puisque la répartition n’est pas une opération financière intertemporelle. Sur un plan individuel, calculer un taux de rendement interne n’a pas grand sens, puisque précisément, on ne cotise pas pour soi-même. On peut néanmoins s’intéresser au rendement collectif d’un régime par répartition.
La capacité d’un système de retraite par répartition à assurer un bon niveau de pension aux retraités dépend de manière cruciale du nombre de travailleurs effectivement employés et de leur productivité. Si le taux d’emploi augmente, cela fait plus de cotisants et si la productivité des travailleurs augmente, cela se traduit généralement par des rémunérations plus élevées, et donc une assiette de cotisations plus importante.
Schématiquement, la croissance démographique et le progrès technique jouent le même rôle dans le rendement implicite de la répartition. Pour x euros cotisés en répartition quand ils sont actifs, les salariés « récupèrent » lorsqu’ils partent à la retraite les x euros revalorisés de la somme du taux de croissance de la population (supposée employée pendant toute sa vie active) et du taux de croissance de la productivité.
On comprend donc que la capitalisation est plus rentable que la répartition si le taux de rendement du capital est supérieur au taux de croissance cumulé de la population et de la productivité, qu’on peut assimiler au taux de croissance économique en première approximation. Qu’en est-il dans les faits ?
Même si la crise financière de 2007 a ébranlé quelques certitudes, il ressort des études historiques sur longue période que le rendement réel des placements financiers est supérieur au taux de croissance économique dans les principaux pays industrialisés.
Dans une vaste fresque historique, Jordá et al. ont calculé que l’écart entre le taux de rendement de la richesse et le taux de croissance économique s’élevait à 2,68 % en moyenne pour un ensemble de 16 pays sur la période 1950-2015. En très longue période (1870-2015), leur étude montre que le rendement réel de la richesse est supérieur au taux de croissance réel dans tous les pays, sauf pendant les sous périodes de guerre.
Cette étude confirme, par ailleurs, un résultat observé par de nombreuses contributions antérieures : en moyenne, le rendement réel des actions est supérieur au rendement réel des actifs sans risque (obligations et actifs monétaires). La prime de risque, qui mesure l’écart entre rendement des actions et des actifs sans risque, s’élevait à environ 4 % en moyenne avant la Première Guerre mondiale, pour devenir légèrement négative lors de la grande dépression, puis s’envoler jusqu’à 14 % au début des années 1950 et revenir à son niveau séculaire autour de 4 % depuis 2000. Cette évolution tendancielle se retrouve dans tous les pays, à des niveaux de taux de rendement différents d’un pays à l’autre. Entre 1980 et 2015, la prime de risque en France se situe légèrement en dessous de la moyenne globale, à 2,14 %.
Pour autant, pour les individus, ce n’est pas le rendement moyen du système en longue période qui importe, mais le montant de la rente viagère qu’ils pourront obtenir chaque mois lorsqu’ils seront à la retraite. Observer qu’en moyenne, chaque année, sur une très longue période, le rendement du capital est supérieur à la croissance économique n’implique pas qu’il faille choisir la capitalisation pour couvrir le risque vieillesse, pour au moins trois raisons.
Pour autant, cela ne signifie pas que détenir des actions pendant une longue période, par exemple jusqu’à la retraite, ne soit pas risqué. En effet, pour quelqu’un qui souhaite financer sa retraite par un placement financier, ce qui importe, ce n’est pas le rendement annuel moyen de son placement sur trente ans, mais bien le rendement total qu’il obtiendra au bout de trente ans quand il partira à la retraite. Et il est possible que le rendement annuel moyen sur vingt-neuf ans soit favorable, mais qu’il soit anéanti par un krach boursier l’année suivante.
La troisième raison, c’est qu’à la base, financer sa retraite, c’est se couvrir contre les risques liés à la vieillesse (être dans l’incapacité physique ou mentale de travailler à âge élevé et ignorer combien de temps on passera à la retraite). Dans cette optique, il serait paradoxal de couvrir un risque (le risque vieillesse) en en prenant un autre (le risque financier).
Ce dernier argument ne suffit pas, toutefois, à disqualifier la capitalisation, d’autant que la répartition comporte aussi des risques.
Anne Lavigne est membre du Conseil d'administration de l'Etablissement de retraite additionnelle de la fonction publique, en qualité de personnalité qualifiée. Cette fonction est assurée à titre bénévole.
10.09.2025 à 17:27
Damien Broussolle, Maître de conférences, Sciences Po Strasbourg – Université de Strasbourg
Le président des États-Unis Donald Trump s’est beaucoup inquiété de la place prise par les importations « Made in Germany » dans son économie. Qu’en est-il en réalité ? Dans quels secteurs l’Allemagne a-t-elle pris des parts de marché aux entreprises états-uniennes ? Quelle part occupent les biens et les services ?
La réélection de Donald Trump en 2024 a relancé une politique protectionniste à vocation mercantiliste aux États-Unis. Déjà la politique America First, lancée par le président Trump en 2018-2019, visait à réduire le déficit commercial américain en trois vagues de mesures, augmentant les droits de douanes jusqu’à 25 %. Si cette première offensive avait pu sembler surmontable, puisque finalement des aménagements avaient été trouvés, celle de l’administration Trump 2 apparaît extravagante.
En imposant des droits de douane exorbitants, prétendument réciproques, tous azimuts, elle déclare une guerre commerciale au monde entier. Dans ce combat, l’Union européenne (UE), et surtout l’Allemagne, avec ses excédents commerciaux élevés, sont présentées comme des profiteuses et des adversaires. La question se pose néanmoins de savoir dans quelle mesure ces accusations sont fondées. Cela conduit à examiner le commerce bilatéral entre l’Allemagne et les États-Unis.
Avec un excédent du compte des transactions courantes de près de 247 milliards d’euros en 2024, proche du produit intérieur brut (PIB) de la Grèce, l’Allemagne apparaît comme un géant naturel du commerce international. Pourtant, jusqu’au début des années 1990, elle ne se distinguait que modestement de ses principaux concurrents de l’Organisation de coopération et de développement économiques (OCDE). On a ainsi oublié que le solde commercial allemand fut fragile jusqu’au début des années 1980.
La croissance prodigieuse date surtout de l’accentuation de la mondialisation consécutive à la crise de 2008. C’est à ce moment-là que l’économie allemande s’est franchement tournée vers la Russie, vers la Chine et vers les États-Unis, pays où les entreprises d’outre-Rhin avaient identifié de nouvelles sources de croissance des exportations pour les points forts du commerce allemand (automobile, équipement industriel,chimie-pharmacie).
À lire aussi : Trump impose des droits de douane sur les automobiles : quels constructeurs ont le plus à perdre ?
Depuis le début des années 2000, l’Allemagne tutoie la part des États-Unis dans les exportations mondiales de marchandises, qui avoisine les 8 %. Depuis 2015, ils sont devenus son premier partenaire commercial. En 2024, le commerce vers les États-Unis représentait 10,4 % de ses exportations (1re position), et 6,9 % de ses importations (2e position). La même année, 3,7 % des exportations des États-Unis étaient destinés à l’Allemagne (7e position), alors que 4,9 % des importations (4e position) en provenaient, nous y reviendrons.
Dans les deux cas, le décalage entre exportations et importations illustre l’importance du surplus du commerce extérieur allemand. Sa valeur a d’ailleurs nettement augmenté depuis le premier mandat du président Trump, pour atteindre les 70 milliards d’euros en 2024 (Graphique 1). Ce chiffre est en grande partie dû à l’excédent de marchandises. Depuis plusieurs années, combiné avec les services, il se maintient aux environs de 1,75 % du PIB allemand.
Les revenus des investissements allemands aux États-Unis renforcent l’excédent commercial. Ils ont augmenté de façon sensible depuis 2022. En 2024, l’Allemagne est le troisième investisseur aux États-Unis pour un montant de 677 millions de dollars. Du côté américain, le poids du déficit commercial bilatéral dans le PIB est globalement stable depuis plusieurs années, à 0,25 % du PIB : environ 10 % du déficit commercial des États-Unis est attribuable au commerce avec l’Allemagne.
Graphique 1 : Solde des échanges de biens et services de l’Allemagne avec les États-Unis
Première partie de la balance des paiements : échanges de biens et de services et flux des revenus primaires et secondaires.
Source : Destatis (N. B. En noir, années du premier mandat de Trump marquées par la crise du Covid-19).
L’ampleur du déficit américain de marchandises apparaît spectaculaire. Depuis près de vingt-cinq ans, bon an mal an, les entreprises installées en Allemagne vendent aux États-Unis le double de la valeur des marchandises qu’elles y achètent (Graphique 2).
Graphique 2 : Commerce bilatéral de marchandises (en milliards de dollars réels)
Source : Census Bureau of USA. Poids du solde échelle de droite, inversée ; (20) = – 20.
_Lecture : En 2024, le déficit des marchandises atteint -50 % du commerce bilatéral.
Dollars US réels : hors inflation (déflateur du PIB, Banque mondiale)_.
Au cours de cette période, la plupart des lignes de la nomenclature de produits marquent une dégradation pour les États-Unis. De sorte qu’actuellement, mis à part les produits pétroliers et ceux tirés de l’agriculture ou de la pêche, toutes les grandes rubriques sont excédentaires pour l’Allemagne (Graphique 3).
Graphique 3 : Contribution au solde des échanges de marchandises, moyenne 2022-2024 (en %)
Source : Destatis. Le solde global équivaut à 100 %.
_Lecture : En moyenne, sur les trois années 2022-2024, le solde des échanges de métaux et articles en métal contribue au solde global positif pour +8,1 %.
N. B. Certains soldes étant volatils, la moyenne sur trois ans a été utilisée pour lisser les données_.
Ces constats confirment, s’il en était besoin, que l’Allemagne est une redoutable concurrente industrielle, fournissant des produits de qualité peu sensibles aux prix du fait de leurs caractéristiques, avec une spécialisation dans les machines, dans les équipements industriels, dans l’automobile et dans la chimie. Moins connue est, toutefois, sa position dans le domaine des échanges de services.
Il convient, tout d’abord, de souligner que les spécificités des échanges de services font que les volumes enregistrés dans la balance commerciale sont habituellement modestes. Le commerce entre les deux pays ne déroge pas à ce constat général. Ainsi, en 2024, leurs échanges de services représentaient pour chacun d’entre eux moins de 30 % du commerce extérieur. Pour autant, l’Allemagne bénéficie depuis au moins deux décennies d’un excédent dans le domaine des services. Il est revenu, en 2024, à un étiage proche de celui du premier mandat de Trump, à moins de 4 milliards d’euros (Graphique 4). Cet excédent résulte d’un tableau contrasté avec de forts déficits bilatéraux, compensés par des excédents encore plus élevés (graphique n°5).
Graphique 4 : Échanges de services de l’Allemagne avec les États-Unis (milliards de dollars courants)
Source : OCDE, Balanced trade in services (BaTIS).
L’Allemagne est un pays moins touristique que les États-Unis, qui, du fait de leur spécialisation internationale, ont, en outre, des surplus dans les services de télécommunications et d’information, dans les services financiers, dans les services aux entreprises et, enfin, dans les services récréatifs et culturels. Plusieurs de ces excédents américains ont néanmoins subi une érosion entre 2005 et 2023. Cumulées, ces rubriques font plonger le solde allemand des échanges de services (Graphique 5).
Toutefois l’impact des échanges de marchandises sur les flux de services contrebalance quasiment cette chute (transports de marchandises, services de réparation, revenus de la propriété intellectuelle sur les produits industriels, chimiques et pharmaceutiques). Ces catégories rétablissent déjà quasiment l’équilibre. S’ajoute une catégorie hybride, excédentaire depuis des années, qui recense l’ensemble des échanges des administrations gouvernementales et de leur personnel (ambassades, organisations internationales, bases militaires…) et englobe essentiellement des mouvements de marchandises. Son excédent est donc aussi en relation avec la puissance industrielle allemande.
Graphique 5 : Contributions au solde des échanges de services de l’Allemagne avec les États-Unis en 2023 (en %)
Source : OCDE (BaTIS). Le solde global équivaut à 100 %.
Lecture : Le solde des échanges de services de télécommunications et d’information contribue pour -61 % au solde global.
Une dernière rubrique largement excédentaire (près de +70 % en 2023), illustre la compétitivité de l’Allemagne dans le secteur de l’assurance. Finalement, si de nombreuses rubriques de la balance des services sont défavorables à l’Allemagne, sa force dans le domaine industriel lui permet de les compenser presque entièrement. Ceci étant dit, l’image donnée est probablement incomplète.
Comme le souligne la Bundesbank, les principales économies des pays de l’UE ont toutes une balance des services excédentaires vis-à-vis des États-Unis, alors que l’UE, considérée globalement, est largement déficitaire (-109 milliards d’euros en 2023). Les stratégies d’optimisation fiscales des entreprises américaines d’Internet pourraient expliquer cette étrangeté.
Ce tour d’horizon du commerce entre l’Allemagne et les États-Unis illustre le fait que, malgré ses outrances et son comportement apparemment incohérent, le président Trump ne choisit pas ses attaques ni ses points de blocage au hasard. Il y a, en effet, un important déséquilibre commercial entre les deux pays. Cela n’en valide pas pour autant sa méthode ou son raisonnement, qui bafouent les principes des négociations commerciales internationales menées depuis 1947, sous l’égide des États-Unis, avec la création du GATT.
Ce « problème » bilatéral nourrit un différend européen puisque le commerce international est du domaine communautaire. L’UE tout entière s’est donc trouvée placée dans le collimateur de Trump 2, en partie du fait de l’ampleur de l’excédent allemand.
De 2022 à 2024, à elle seule, l’Allemagne expliquait quasiment 40 % de l’excédent européen vis-à-vis des États-Unis. Les pays déficitaires avec les États-Unis (Espagne, Belgique, Pays-Bas), ou à faible excédent comme la France, se sont alors trouvés indûment frappés des mêmes droits prétendument réciproques que l’Allemagne, qui en revanche a pu s’abriter derrière sa situation commerciale moins problématique du point de vue américain. Cette « solidarité » européenne s’est retrouvée dans les négociations commerciales, qui ont surtout consisté, du côté européen, à éviter à l’automobile et à la chimie-pharmacie allemande les conséquences les plus désastreuses des outrances trumpiennes (DGTES 2025).
Damien Broussolle ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
10.09.2025 à 17:26
Nicolas Rousselier, professeur d'histoire politique, Sciences Po
Après la chute des gouvernements Barnier et Bayrou, le nouveau premier ministre Sébastien Lecornu saura-t-il obtenir le soutien des parlementaires ? La domination de l’exécutif sur le législatif, en place depuis le début de la Ve République, semble désormais dépassée. Un rééquilibrage entre ces deux pouvoirs, historiquement concurrents, est-il en cours ?
Jamais les feux de l’actualité ne furent braqués à ce point sur le Parlement. L’épisode Bayrou en donne une illustration frappante : la chute de son gouvernement a placé l’exécutif en position de faiblesse et de renoncement face aux difficultés annoncées du débat budgétaire. À l’inverse, les députés, en refusant de voter la confiance, ont placé l’Assemblée nationale en position de force vis-à-vis du gouvernement. Celui-ci, pour la première fois (sous cette forme) depuis le début de la Ve République, était contraint à la démission. Le pouvoir exécutif, qui n’avait cessé de se renforcer et de se transformer depuis plus de soixante ans, trahissait ainsi une faiblesse inattendue.
Deux questions sont donc soulevées, l’une sur le caractère momentané ou profond de ce « trou d’air » que rencontre l’exécutif, l’autre sur la possible relance du parlementarisme.
L’épisode s’inscrit dans la longue histoire du bras de fer qui a opposé l’exécutif et le législatif depuis plusieurs siècles. Philosophiquement et politiquement, l’opposition a placé la figure du prince – pour faire référence aux travaux de Harvey Mansfield – face à la forme prise par le Parlement depuis les XIIIe et XIVe siècles. L’histoire est ainsi beaucoup plus ancienne que celle de la démocratie moderne. La monarchie française avait été notamment marquée et affaiblie par des affrontements opposant le roi et le Parlement de Paris au cours du XVIIIe siècle. Pour le XIXe et le XXe siècle, l’ensemble de la modernité démocratique peut se définir comme un vaste aller-retour avec une première phase où la démocratie se définit comme la nécessité de contrôler et de circonscrire le plus possible le pouvoir exécutif, puis une seconde phase où la démocratie a progressivement accueilli un exécutif puissant, moderne et dominateur, tout en prenant le risque d’affaiblir le rôle des assemblées.
Cette lutte ancestrale a pris une allure particulièrement dramatique et prononcée dans le cas français. L’histoire politique française a ceci de particulier qu’elle a poussé beaucoup plus loin que les autres aussi bien la force du parlementarisme, dans un premier temps (IIIe puis IVe République), que la domination presque sans partage de l’exécutif, dans un deuxième temps (Ve République). Nous vivons dans ce deuxième temps depuis plus de soixante ans, une durée suffisante pour qu’un habitus se soit ancré dans les comportements des acteurs politiques comme dans les attentes des électeurs.
Historiquement, la domination de l’exécutif sur le législatif a donné à l’élection présidentielle une force d’attraction exceptionnelle puisque le corps électoral est invité à choisir un candidat qui, une fois élu, disposera de très larges pouvoirs pour mener à bien les réformes et les politiques annoncées lors de sa campagne électorale. Dans les faits, cette force du président était complétée par la victoire de son parti aux élections législatives (souvent avec des petits partis alliés et complémentaires). La cohabitation n’a pas modifié la domination de l’exécutif : la force du gouverner s’est alors concentrée sur le premier ministre qui disposait toujours d’un contrôle efficace du Parlement.
Par contraste avec cette « période heureuse » de la Ve République, la situation actuelle est donc très simple : ne disposant pas d’un fait majoritaire à l’Assemblée, l’exécutif se retrouve paralysé dans son pouvoir d’agir. Chaque premier ministre qui passe (Attal, Borne, Barnier, Bayrou, maintenant Lecornu) se retrouve encore un peu plus éloigné de toute légitimité électorale. Aussi la facilité avec laquelle le dispositif de la Ve République s’est démantelé sous nos yeux apparaît spectaculaire. Certes, en toute logique, l’ancien dispositif pourrait se reconstituer aussi vite qu’il a été brisé. Rien n’interdit de penser qu’une nouvelle élection présidentielle suivie de nouvelles élections législatives ne pourrait pas redonner au chef de l’État une assurance majoritaire. Rien n’interdit de penser, non plus, que de simples élections législatives intervenant après une dissolution pourraient conduire à un fait majoritaire au profit d’un seul parti ou d’un parti dominant qui rallierait à lui de petits partis satellitaires.
Tout ceci est possible et occupe visiblement l’esprit et l’espoir des acteurs politiques. Se replacer ainsi dans l’hypothèse du confort majoritaire sous-estime toutefois le caractère beaucoup plus profond des changements intervenus dans la période récente. La force de gouverner sous la Ve République reposait en effet sur un écosystème complexe dont il faut rappeler les deux principaux éléments.
Tout d’abord, la domination de l’exécutif s’est jouée sur le terrain de l’expertise. Des organes de planification, de prospective et d’aides à la décision ont fleuri autour du gouvernement classique, surtout après 1945. Par comparaison, les assemblées parlementaires ont bénéficié d’une modernisation beaucoup plus limitée en termes de moyens. Elles ont développé la capacité d’évaluation des politiques publiques, mais ne disposent pas d’un organe public indépendant (ou suffisant) pour l’expertise du budget tel qu’il existe auprès du Congrès américain avec le Congressional Budget Office (CBO).
D’autre part, la force de l’exécutif a été historiquement dépendante du rôle de partis politiques modernes. Depuis les années 1960 et 1970, des partis politiques comme le Parti socialiste ou les différents partis gaullistes ont eu les moyens de jouer leur rôle de producteurs doctrinaux et de fidélisation de leur électorat. Ils étaient des « machines » capables d’exercer « une pression collective su la pensée de chacun » pour reprendre Simone Weil. Dans les assemblées, ils ont pu construire d’une main de fer la pratique de discipline de vote, des consignes de groupes et de contrôle des déclarations à la presse. Le parti majoritaire, parfois associé à de petits partis satellites ou alliés, était à même d’assurer au gouvernement une majorité connue d’avance, prête à faire voter en temps voulu le budget de l’exécutif ou les projets de loi sans modification importante. Les partis privilégiaient la cohésion collective et la verticalité de l’obéissance plutôt que le rôle d’espace de discussion. La répétition des élections présidentielles comme la fréquence du dispositif majoritaire avaient ancré les partis dans le rôle d’entrepreneurs de programmes. L’ambition de leurs plates-formes électorales était en proportion de la « force de gouverner » attendue : ce fut longtemps un atout indéniable pour que l’offre politique rencontre de fortes aspirations sociales.
Ces deux piliers de la force de l’exécutif sont aujourd’hui remis en cause. L’État planificateur de tradition jacobine s’est fortement transformé depuis les années 1990 avec la multiplication des agences et les réformes successives de décentralisation. L’âge d’or des grands serviteurs de l’État, qui offraient à l’exécutif une aide homogène à la décision, est passé. Aujourd’hui, un gouvernement est confronté à la diversité et parfois la contradiction des avis que lui fournissent les organes experts. L’expertise n’est donc plus enfermée dans le seul silo de la haute administration classique. Elle est devenue un secteur concurrentiel où des entrepreneurs d’expertise multiplient les avis et les alertes au risque d’ajouter à la confusion plutôt que d’aider à la prise de décision. La question concerne aussi bien les think tanks que des forums internationaux, tels que le Groupe d'experts intergouvernemental sur l’évolution du climat (Giec).
La « forme-parti » pour reprendre l’expression du politiste italien, Paol Pombeni, a, elle aussi, profondément changé. L’appareil central a diminué en termes de moyens. Il n’est plus en mesure d’exercer le même contrôle sur les troupes et sur la mise en cohérence de l’ensemble. Au sein d’un même groupe parlementaire, certains membres jouent leur communication personnelle. L’affiliation par le haut étant en crise, il n’est pas étonnant de retrouver la même crise par le bas : les partis n’assurent plus de stabilité dans le lien entre leur offre politique et la demande sociale – leurs résultats d’un type d’élection à un autre sont devenus erratiques. Il est, par exemple, devenu impossible de savoir ce que représente réellement, à la fois politiquement et socialement, le Parti socialiste si l’on confronte le résultat de la dernière présidentielle (1,7 %) avec le score obtenu aux élections européennes (13 %). Comme le montrent les travaux de Rémi Lefebvre, les partis politiques ne réussissent plus à être des entrepreneurs stables d’identités qui fidélisent des sections de la société : une majorité politique est devenue introuvable parce qu’une majorité sociale est elle-même devenue impossible.
Au total, c’est toute la chaîne qui faisait la force de l’exécutif qui est démantelée, maillon par maillon. Un président n’est plus assuré de nommer un premier ministre qui sera à même de faire voter son programme électoral grâce à une majorité solide dans les assemblées.
Dans une telle situation, le Parlement retrouve une position centrale. Le retour à un vrai travail budgétaire ne serait d’ailleurs qu’un retour aux sources historiques des assemblées. Le « gouvernement parlementaire » avait su fonctionner de manière satisfaisante pendant la majeure partie de la IIIe République, y compris dans sa contribution essentielle à la victoire pendant la Première Guerre mondiale. Il a encore joué sa part dans la reconstruction du pays et l’établissement du modèle social sous la IVe République, de la Sécurité sociale jusqu’au salaire minimum. On commet donc une erreur quand on déclare la France « ingouvernable ». L’expression n’a de sens que si l’on réduit la notion de gouverner à la combinaison d’un exécutif dominant associé au fait majoritaire partisan.
L’art de la décision tel qu’il était pratiqué dans le « gouvernement parlementaire » conserve sa force d’inspiration : il a d’ailleurs été pratiqué dans la période récente pour certains parcours législatifs comme sur le droit à mourir. Il est donc loin d’avoir disparu. Des modifications du règlement de l’Assemblée nationale qui s’attaqueraient notamment à l’obstruction du débat par l’abus des amendements, pourraient accompagner le « reset » du parlementarisme. Transférer une part de l’expertise de l’exécutif vers le législatif aiderait aussi au redressement de la qualité du travail des commissions.
Certes, rien ne dit que cela soit suffisant. Mais la situation actuelle démontre que la « combinaison magique » d’un président fort associé à un fait majoritaire et à un esprit partisan exacerbé a produit des résultats financiers, économiques et sociaux négatifs.
La Ve République avait d’abord apporté la stabilité du pouvoir, la force d’entraînement vers la modernisation du pays et le progrès social. Ce n’est plus le cas. La disparition du fait majoritaire, combinée au dévoilement du caractère abyssal de la dette, nous plonge dans la désillusion des vertus attribuées à la Ve République. Pour la première fois depuis la création de la Vᵉ République en 1958, il n’y a donc pas d’autre choix que de refaire Parlement.
Nicolas Rousselier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
10.09.2025 à 17:25
Maxime Cochennec, Chercheur site et sols pollués, BRGM
Clément Zornig, Responsable de l’unité Risques, Sites et Sols Pollués au BRGM, BRGM
Stéfan Colombano, Ingénieur-chercheur au BRGM, BRGM
Les PFAS, ou substances per- et polyfluoroalkylées, sont souvent appelées « polluants éternels ». Dans les Ardennes françaises par exemple, les habitants de plusieurs communes ont, depuis juillet 2025, interdiction de consommer l’eau du robinet pour les boissons ou la préparation des biberons.
Ces substances posent un problème de pollution environnementale qui tient du casse-tête. Le cœur du problème tient aux coûts élevés de dépollution et au fait que les techniques de traitement ne permettent pas, à l’heure actuelle, de détruire de façon certaine et systématique ces composés sans risquer de déplacer le problème en produisant d’autres PFAS plus petits et potentiellement aussi dangereux.
La pollution des sols et des eaux souterraines par les substances perfluoroalkylés et polyfluoroalkylés (acronyme anglais PFAS) représente l’un des défis environnementaux et sanitaires majeurs de notre époque. Une enquête menée par le Monde et plusieurs autres médias partenaires révélait, début 2025, l’ampleur de la contamination des sols et des eaux par les PFAS.
Comment s’y prendre pour dépolluer les milieux ? Face à cette famille de composés dont certains sont classés « polluants organiques persistants et cancérogènes », des solutions de dépollution des milieux existent déjà, quoique coûteuses. Les techniques de destruction des PFAS, en revanche, sont encore en cours de maturation dans les laboratoires. État des lieux.
La distinction entre le traitement des milieux et l’élimination (ou dégradation) des PFAS n’est peut-être pas évidente, mais elle est pourtant essentielle.
Pour les sols et pour les eaux souterraines, le traitement des PFAS consiste à diminuer suffisamment les concentrations mesurables afin de retrouver un état le plus proche possible de l’état avant la pollution, avec un coût technico-économique acceptable.
En revanche, ce traitement n’implique pas forcément la dégradation des PFAS, c’est-à-dire l’utilisation de techniques physiques, thermiques, chimiques ou biologiques permettant de transformer les PFAS en molécules moins dangereuses.
L’alternative consiste à en extraire les PFAS pour les concentrer dans des résidus liquides ou solides.
Toutefois, ce processus n’est pas entièrement satisfaisant. Bien que l’état des milieux soit rétabli, les résidus issus du traitement peuvent constituer une nouvelle source de pollution, ou tout au moins un déchet qu’il est nécessaire de gérer.
Un exemple typique est le traitement de l’eau par circulation dans du charbon actif granulaire, capable de retenir une partie des PFAS, mais une partie seulement. Le charbon actif utilisé devient alors un résidu concentré dont la bonne gestion est essentielle pour ne pas engendrer une nouvelle pollution.
À lire aussi : PFAS et dépollution de l’eau : les pistes actuelles pour traiter ces « polluants éternels »
Les ingénieurs et les chercheurs développent actuellement des méthodes pour décomposer ou éliminer les PFAS in situ, directement dans les sols et dans les eaux souterraines.
Pour le moment, la principale difficulté est d’ordre chimique. Il s’agit de rompre la liaison carbone-fluor (C-F), caractéristique des PFAS et qui leur procure cette incroyable stabilité dans le temps. En effet, il faut 30 % plus d’énergie pour casser la liaison carbone-fluor que la liaison carbone-hydrogène, que l’on retrouve dans beaucoup de polluants organiques.
Certaines techniques semblent amorcer une dégradation, mais il est crucial d’éviter une dégradation incomplète, qui pourrait générer comme sous-produits des PFAS de poids moléculaire plus faible, souvent plus mobiles et d’autant plus problématiques que leurs impacts sur la santé et sur l’environnement sont encore peu ou pas connus.
Ce n’est pas tout : les méthodes basées sur la chimie impliquent le plus souvent d’ajouter des réactifs ou de maintenir localement des conditions de température et/ou de pression potentiellement néfastes pour l’environnement.
D’autres approches envisagent la biodégradation des PFAS par des microorganismes, mais les résultats sont pour le moment contrastés, malgré quelques travaux récents plus encourageants.
À lire aussi : PFAS : comment les analyse-t-on aujourd’hui ? Pourra-t-on bientôt faire ces mesures hors du laboratoire ?
On l’a vu, la dégradation des PFAS directement dans les sols et dans les eaux implique de nombreux verrous scientifiques à lever.
Un certain nombre de techniques permettent toutefois de séparer les PFAS des eaux après pompage (c’est-à-dire, ex-situ), et cela à l’échelle industrielle. Les trois techniques les plus matures sont le charbon actif granulaire, les résines échangeuses d’ions et la filtration membranaire – en particulier la nanofiltration et l’osmose inverse.
Le charbon actif et les résines échangeuses d’ions reposent sur une affinité chimique des PFAS beaucoup plus grande pour le substrat (charbon ou résine) que pour le milieu aqueux : ce sont des techniques dites d’adsorption.
L’adsorption ne doit pas être confondue avec l’absorption, dans la mesure où il s’agit d’un phénomène de surface. Les PFAS s’accumulent alors sur la surface, plutôt qu’à l’intérieur, du substrat, notamment via des interactions électrostatiques attractives. Heureusement, la surface disponible pour du charbon actif en granulés est importante grâce à sa porosité microscopique. Pour 100 grammes de produit, elle représente l’équivalent d’une dizaine de terrains de football.
La filtration, enfin, repose principalement sur l’exclusion par la taille des molécules. Or, les PFAS les plus préoccupants sont des molécules relativement petites. Les pores des filtres doivent donc être particulièrement petits, et l’énergie nécessaire pour y faire circuler l’eau importante. Cela constitue le principal défi posé par cette technique appliquée au traitement des PFAS.
Les techniques qui précèdent sont déjà connues et utilisées de longue date pour d’autres polluants, mais qu’elles demeurent efficaces pour de nombreux PFAS. Ces techniques sont d’ailleurs parmi les rares ayant atteint le niveau 9 sur l’échelle TRL (Technology Readiness Level), un niveau maximal qui correspond à la validation du procédé dans l’environnement réel.
Néanmoins, de nombreuses recherches sont en cours pour rendre ces techniques plus efficaces vis-à-vis des PFAS à chaînes courtes et ultra-courtes – c’est-à-dire, qui comportent moins de six atomes de carbones perfluorés. En effet, ces molécules ont moins d’affinités avec les surfaces et sont donc plus difficiles à séparer du milieu aqueux.
Quant aux techniques pour traiter les sols, l’approche doit être radicalement différente : il faut récupérer les PFAS adsorbés sur les sols. Pour ce faire, des solutions basées sur l’injection d’eau sont à l’étude, par exemple avec l’ajout d’additifs comme des gels et des solvants.
Ces additifs, lorsqu’ils sont bien choisis, permettent de modifier les interactions électrostatiques et hydrophobes dans le système sol-eau souterraine afin de mobiliser les PFAS et de pouvoir les en extraire. Le principal défi est qu’ils ne doivent pas générer une pollution secondaire des milieux. L’eau extraite, chargée en PFAS, doit alors être gérée avec précaution, comme pour un charbon actif usagé.
Reste ensuite à savoir quoi faire de ces déchets chargés en PFAS. Outre le confinement dans des installations de stockage, dont le principal risque est d’impacter à nouveau l’environnement, l’incinération est actuellement la seule alternative.
Le problème est que les PFAS sont des molécules très stables. Cette technique recourt aux incinérateurs spécialisés dans les déchets dangereux ou incinérateurs de cimenterie, dont la température monte au-dessus de 1 000 °C pour un temps de résidence d’au moins trois secondes. Il s’agit d’une technique énergivore et pas entièrement sûre dans la mesure où la présence éventuelle de sous-produits de PFAS dans les gaz de combustion fait encore débat.
Parmi les autres techniques de dégradation, on peut citer l’oxydation à l’eau supercritique, qui a pu démontrer son efficacité pour dégrader un grand nombre de PFAS pour un coût énergétique moindre que l’incinération. La technique permet de déclencher l’oxydation des PFAS. Elle repose néanmoins sur des conditions de température et de pression très élevées (plus de 375 °C et plus de 218 bars) et implique donc une dépense importante d’énergie.
Il en est de même pour la sonocavitation, qui consiste à créer des bulles microscopiques à l’aide d’ultrasons qui, en implosant, génèrent des pressions et des températures à même de dégrader les PFAS en générant un minimum de sous-produits.
Le panel de techniques présenté ici n’est évidemment pas exhaustif. Il se concentre sur les techniques les plus matures, dont le nombre reste relativement restreint. Des dizaines d’autres méthodes sont actuellement à l’étude dans les laboratoires.
Que retenir de cet inventaire ? Le traitement des milieux, en particulier les eaux et les sols, n’implique pas systématiquement la dégradation des PFAS. Pour y parvenir, il faudra mobiliser des nouvelles approches encore en cours de recherche et développement.
De plus, la dépollution devra d’abord se concentrer sur le traitement des zones sources (sols directement impactés avec des produits contenant des PFAS, etc.) afin d’éviter les pollutions secondaires. En effet, une dépollution à très grande échelle engendrerait un coût gigantesque, estimé à 2 000 milliards d’euros sur vingt ans.
En conséquence, même si des techniques de dépollution existent déjà et que d’autres sont en développement, elles ne suffiront pas. Elles doivent être couplées à une surveillance accrue des milieux, à une évolution des réglementations sur l’usage et sur la production de PFAS et à un effort de recherche soutenu pour restreindre ou pour substituer ces substances lorsque cela est possible.
Maxime Cochennec a reçu des financements de l'Agence de la transition écologique (ADEME), du Ministère de la Transition Écologique dans le cadre du plan interministériel sur les PFAS et de l’Union Européenne (Horizon H2020).
Clément Zornig a reçu des financements de l'Agence de la transition écologique (ADEME), du Ministère de la Transition Écologique dans le cadre du plan interministériel sur les PFAS et de l’Union Européenne (Horizon H2020).
Stéfan Colombano a reçu des financements de l'Agence de la transition écologique (ADEME), du Ministère de la Transition Écologique dans le cadre du plan interministériel sur les PFAS et de l’Union Européenne (Horizon H2020).