LePartisan.info À propos Podcasts Fil web Écologie Blogs REVUES Médias
Souscrire à ce flux
L’expertise universitaire, l’exigence journalistique

ACCÈS LIBRE UNE Politique International Environnement Technologies Culture

▸ les 50 dernières parutions

10.09.2025 à 17:27

L’Allemagne face à Trump : le vrai poids du déséquilibre commercial

Damien Broussolle, Maître de conférences, Sciences Po Strasbourg – Université de Strasbourg

Les importations venues d’Allemagne sont dans le viseur de Donald Trump. Mais quelle est la réalité des échanges commerciaux entre l’Allemagne et les États-Unis ?
Texte intégral (3287 mots)

Le président des États-Unis Donald Trump s’est beaucoup inquiété de la place prise par les importations « Made in Germany » dans son économie. Qu’en est-il en réalité ? Dans quels secteurs l’Allemagne a-t-elle pris des parts de marché aux entreprises états-uniennes ? Quelle part occupent les biens et les services ?


La réélection de Donald Trump en 2024 a relancé une politique protectionniste à vocation mercantiliste aux États-Unis. Déjà la politique America First, lancée par le président Trump en 2018-2019, visait à réduire le déficit commercial américain en trois vagues de mesures, augmentant les droits de douanes jusqu’à 25 %. Si cette première offensive avait pu sembler surmontable, puisque finalement des aménagements avaient été trouvés, celle de l’administration Trump 2 apparaît extravagante.

En imposant des droits de douane exorbitants, prétendument réciproques, tous azimuts, elle déclare une guerre commerciale au monde entier. Dans ce combat, l’Union européenne (UE), et surtout l’Allemagne, avec ses excédents commerciaux élevés, sont présentées comme des profiteuses et des adversaires. La question se pose néanmoins de savoir dans quelle mesure ces accusations sont fondées. Cela conduit à examiner le commerce bilatéral entre l’Allemagne et les États-Unis.

Près de 247 milliards d’euros d’excédent

Avec un excédent du compte des transactions courantes de près de 247 milliards d’euros en 2024, proche du produit intérieur brut (PIB) de la Grèce, l’Allemagne apparaît comme un géant naturel du commerce international. Pourtant, jusqu’au début des années 1990, elle ne se distinguait que modestement de ses principaux concurrents de l’Organisation de coopération et de développement économiques (OCDE). On a ainsi oublié que le solde commercial allemand fut fragile jusqu’au début des années 1980.

La croissance prodigieuse date surtout de l’accentuation de la mondialisation consécutive à la crise de 2008. C’est à ce moment-là que l’économie allemande s’est franchement tournée vers la Russie, vers la Chine et vers les États-Unis, pays où les entreprises d’outre-Rhin avaient identifié de nouvelles sources de croissance des exportations pour les points forts du commerce allemand (automobile, équipement industriel,chimie-pharmacie).


À lire aussi : Trump impose des droits de douane sur les automobiles : quels constructeurs ont le plus à perdre ?


Depuis le début des années 2000, l’Allemagne tutoie la part des États-Unis dans les exportations mondiales de marchandises, qui avoisine les 8 %. Depuis 2015, ils sont devenus son premier partenaire commercial. En 2024, le commerce vers les États-Unis représentait 10,4 % de ses exportations (1re position), et 6,9 % de ses importations (2e position). La même année, 3,7 % des exportations des États-Unis étaient destinés à l’Allemagne (7e position), alors que 4,9 % des importations (4e position) en provenaient, nous y reviendrons.

Dans les deux cas, le décalage entre exportations et importations illustre l’importance du surplus du commerce extérieur allemand. Sa valeur a d’ailleurs nettement augmenté depuis le premier mandat du président Trump, pour atteindre les 70 milliards d’euros en 2024 (Graphique 1). Ce chiffre est en grande partie dû à l’excédent de marchandises. Depuis plusieurs années, combiné avec les services, il se maintient aux environs de 1,75 % du PIB allemand.

Hausse des revenus des investissements

Les revenus des investissements allemands aux États-Unis renforcent l’excédent commercial. Ils ont augmenté de façon sensible depuis 2022. En 2024, l’Allemagne est le troisième investisseur aux États-Unis pour un montant de 677 millions de dollars. Du côté américain, le poids du déficit commercial bilatéral dans le PIB est globalement stable depuis plusieurs années, à 0,25 % du PIB : environ 10 % du déficit commercial des États-Unis est attribuable au commerce avec l’Allemagne.

Graphique 1 : Solde des échanges de biens et services de l’Allemagne avec les États-Unis

Première partie de la balance des paiements : échanges de biens et de services et flux des revenus primaires et secondaires.

Fourni par l'auteur

Source : Destatis (N. B. En noir, années du premier mandat de Trump marquées par la crise du Covid-19).

L’ampleur du déficit américain de marchandises apparaît spectaculaire. Depuis près de vingt-cinq ans, bon an mal an, les entreprises installées en Allemagne vendent aux États-Unis le double de la valeur des marchandises qu’elles y achètent (Graphique 2).

Graphique 2 : Commerce bilatéral de marchandises (en milliards de dollars réels)

Fourni par l'auteur

Source : Census Bureau of USA. Poids du solde échelle de droite, inversée ; (20) = – 20.

_Lecture : En 2024, le déficit des marchandises atteint -50 % du commerce bilatéral.

Dollars US réels : hors inflation (déflateur du PIB, Banque mondiale)_.

Un concurrent industriel de premier plan

Au cours de cette période, la plupart des lignes de la nomenclature de produits marquent une dégradation pour les États-Unis. De sorte qu’actuellement, mis à part les produits pétroliers et ceux tirés de l’agriculture ou de la pêche, toutes les grandes rubriques sont excédentaires pour l’Allemagne (Graphique 3).

Graphique 3 : Contribution au solde des échanges de marchandises, moyenne 2022-2024 (en %)

Fourni par l'auteur

Source : Destatis. Le solde global équivaut à 100 %.

_Lecture : En moyenne, sur les trois années 2022-2024, le solde des échanges de métaux et articles en métal contribue au solde global positif pour +8,1 %.

N. B. Certains soldes étant volatils, la moyenne sur trois ans a été utilisée pour lisser les données_.

Ces constats confirment, s’il en était besoin, que l’Allemagne est une redoutable concurrente industrielle, fournissant des produits de qualité peu sensibles aux prix du fait de leurs caractéristiques, avec une spécialisation dans les machines, dans les équipements industriels, dans l’automobile et dans la chimie. Moins connue est, toutefois, sa position dans le domaine des échanges de services.

Il convient, tout d’abord, de souligner que les spécificités des échanges de services font que les volumes enregistrés dans la balance commerciale sont habituellement modestes. Le commerce entre les deux pays ne déroge pas à ce constat général. Ainsi, en 2024, leurs échanges de services représentaient pour chacun d’entre eux moins de 30 % du commerce extérieur. Pour autant, l’Allemagne bénéficie depuis au moins deux décennies d’un excédent dans le domaine des services. Il est revenu, en 2024, à un étiage proche de celui du premier mandat de Trump, à moins de 4 milliards d’euros (Graphique 4). Cet excédent résulte d’un tableau contrasté avec de forts déficits bilatéraux, compensés par des excédents encore plus élevés (graphique n°5).

Graphique 4 : Échanges de services de l’Allemagne avec les États-Unis (milliards de dollars courants)

Fourni par l'auteur

Source : OCDE, Balanced trade in services (BaTIS).

Les États-Unis plus forts que l’Allemagne pour le tourisme

L’Allemagne est un pays moins touristique que les États-Unis, qui, du fait de leur spécialisation internationale, ont, en outre, des surplus dans les services de télécommunications et d’information, dans les services financiers, dans les services aux entreprises et, enfin, dans les services récréatifs et culturels. Plusieurs de ces excédents américains ont néanmoins subi une érosion entre 2005 et 2023. Cumulées, ces rubriques font plonger le solde allemand des échanges de services (Graphique 5).

France 24, 2025.

Toutefois l’impact des échanges de marchandises sur les flux de services contrebalance quasiment cette chute (transports de marchandises, services de réparation, revenus de la propriété intellectuelle sur les produits industriels, chimiques et pharmaceutiques). Ces catégories rétablissent déjà quasiment l’équilibre. S’ajoute une catégorie hybride, excédentaire depuis des années, qui recense l’ensemble des échanges des administrations gouvernementales et de leur personnel (ambassades, organisations internationales, bases militaires…) et englobe essentiellement des mouvements de marchandises. Son excédent est donc aussi en relation avec la puissance industrielle allemande.

Graphique 5 : Contributions au solde des échanges de services de l’Allemagne avec les États-Unis en 2023 (en %)

Fourni par l'auteur

Source : OCDE (BaTIS). Le solde global équivaut à 100 %.

Lecture : Le solde des échanges de services de télécommunications et d’information contribue pour -61 % au solde global.

Une dernière rubrique largement excédentaire (près de +70 % en 2023), illustre la compétitivité de l’Allemagne dans le secteur de l’assurance. Finalement, si de nombreuses rubriques de la balance des services sont défavorables à l’Allemagne, sa force dans le domaine industriel lui permet de les compenser presque entièrement. Ceci étant dit, l’image donnée est probablement incomplète.

Le rôle de l’optimisation fiscale

Comme le souligne la Bundesbank, les principales économies des pays de l’UE ont toutes une balance des services excédentaires vis-à-vis des États-Unis, alors que l’UE, considérée globalement, est largement déficitaire (-109 milliards d’euros en 2023). Les stratégies d’optimisation fiscales des entreprises américaines d’Internet pourraient expliquer cette étrangeté.

Ce tour d’horizon du commerce entre l’Allemagne et les États-Unis illustre le fait que, malgré ses outrances et son comportement apparemment incohérent, le président Trump ne choisit pas ses attaques ni ses points de blocage au hasard. Il y a, en effet, un important déséquilibre commercial entre les deux pays. Cela n’en valide pas pour autant sa méthode ou son raisonnement, qui bafouent les principes des négociations commerciales internationales menées depuis 1947, sous l’égide des États-Unis, avec la création du GATT.

Ce « problème » bilatéral nourrit un différend européen puisque le commerce international est du domaine communautaire. L’UE tout entière s’est donc trouvée placée dans le collimateur de Trump 2, en partie du fait de l’ampleur de l’excédent allemand.

De 2022 à 2024, à elle seule, l’Allemagne expliquait quasiment 40 % de l’excédent européen vis-à-vis des États-Unis. Les pays déficitaires avec les États-Unis (Espagne, Belgique, Pays-Bas), ou à faible excédent comme la France, se sont alors trouvés indûment frappés des mêmes droits prétendument réciproques que l’Allemagne, qui en revanche a pu s’abriter derrière sa situation commerciale moins problématique du point de vue américain. Cette « solidarité » européenne s’est retrouvée dans les négociations commerciales, qui ont surtout consisté, du côté européen, à éviter à l’automobile et à la chimie-pharmacie allemande les conséquences les plus désastreuses des outrances trumpiennes (DGTES 2025).

The Conversation

Damien Broussolle ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

10.09.2025 à 17:26

Échec du présidentialisme, retour au parlementarisme ?

Nicolas Rousselier, professeur d'histoire politique, Sciences Po

Depuis la dissolution de 2024, l’exécutif ne domine plus le Parlement. Un rééquilibrage entre ces deux pouvoirs, historiquement concurrents, est-il en cours ?
Texte intégral (2467 mots)

Après la chute des gouvernements Barnier et Bayrou, le nouveau premier ministre Sébastien Lecornu saura-t-il obtenir le soutien des parlementaires ? La domination de l’exécutif sur le législatif, en place depuis le début de la Ve République, semble désormais dépassée. Un rééquilibrage entre ces deux pouvoirs, historiquement concurrents, est-il en cours ?


Jamais les feux de l’actualité ne furent braqués à ce point sur le Parlement. L’épisode Bayrou en donne une illustration frappante : la chute de son gouvernement a placé l’exécutif en position de faiblesse et de renoncement face aux difficultés annoncées du débat budgétaire. À l’inverse, les députés, en refusant de voter la confiance, ont placé l’Assemblée nationale en position de force vis-à-vis du gouvernement. Celui-ci, pour la première fois (sous cette forme) depuis le début de la Ve République, était contraint à la démission. Le pouvoir exécutif, qui n’avait cessé de se renforcer et de se transformer depuis plus de soixante ans, trahissait ainsi une faiblesse inattendue.

Deux questions sont donc soulevées, l’une sur le caractère momentané ou profond de ce « trou d’air » que rencontre l’exécutif, l’autre sur la possible relance du parlementarisme.

Dès le Moyen Âge, le Parlement contre le prince

L’épisode s’inscrit dans la longue histoire du bras de fer qui a opposé l’exécutif et le législatif depuis plusieurs siècles. Philosophiquement et politiquement, l’opposition a placé la figure du prince – pour faire référence aux travaux de Harvey Mansfield – face à la forme prise par le Parlement depuis les XIIIe et XIVe siècles. L’histoire est ainsi beaucoup plus ancienne que celle de la démocratie moderne. La monarchie française avait été notamment marquée et affaiblie par des affrontements opposant le roi et le Parlement de Paris au cours du XVIIIe siècle. Pour le XIXe et le XXe siècle, l’ensemble de la modernité démocratique peut se définir comme un vaste aller-retour avec une première phase où la démocratie se définit comme la nécessité de contrôler et de circonscrire le plus possible le pouvoir exécutif, puis une seconde phase où la démocratie a progressivement accueilli un exécutif puissant, moderne et dominateur, tout en prenant le risque d’affaiblir le rôle des assemblées.

Cette lutte ancestrale a pris une allure particulièrement dramatique et prononcée dans le cas français. L’histoire politique française a ceci de particulier qu’elle a poussé beaucoup plus loin que les autres aussi bien la force du parlementarisme, dans un premier temps (IIIe puis IVe République), que la domination presque sans partage de l’exécutif, dans un deuxième temps (Ve République). Nous vivons dans ce deuxième temps depuis plus de soixante ans, une durée suffisante pour qu’un habitus se soit ancré dans les comportements des acteurs politiques comme dans les attentes des électeurs.

Historiquement, la domination de l’exécutif sur le législatif a donné à l’élection présidentielle une force d’attraction exceptionnelle puisque le corps électoral est invité à choisir un candidat qui, une fois élu, disposera de très larges pouvoirs pour mener à bien les réformes et les politiques annoncées lors de sa campagne électorale. Dans les faits, cette force du président était complétée par la victoire de son parti aux élections législatives (souvent avec des petits partis alliés et complémentaires). La cohabitation n’a pas modifié la domination de l’exécutif : la force du gouverner s’est alors concentrée sur le premier ministre qui disposait toujours d’un contrôle efficace du Parlement.

Par contraste avec cette « période heureuse » de la Ve République, la situation actuelle est donc très simple : ne disposant pas d’un fait majoritaire à l’Assemblée, l’exécutif se retrouve paralysé dans son pouvoir d’agir. Chaque premier ministre qui passe (Attal, Borne, Barnier, Bayrou, maintenant Lecornu) se retrouve encore un peu plus éloigné de toute légitimité électorale. Aussi la facilité avec laquelle le dispositif de la Ve République s’est démantelé sous nos yeux apparaît spectaculaire. Certes, en toute logique, l’ancien dispositif pourrait se reconstituer aussi vite qu’il a été brisé. Rien n’interdit de penser qu’une nouvelle élection présidentielle suivie de nouvelles élections législatives ne pourrait pas redonner au chef de l’État une assurance majoritaire. Rien n’interdit de penser, non plus, que de simples élections législatives intervenant après une dissolution pourraient conduire à un fait majoritaire au profit d’un seul parti ou d’un parti dominant qui rallierait à lui de petits partis satellitaires.

Tout ceci est possible et occupe visiblement l’esprit et l’espoir des acteurs politiques. Se replacer ainsi dans l’hypothèse du confort majoritaire sous-estime toutefois le caractère beaucoup plus profond des changements intervenus dans la période récente. La force de gouverner sous la Ve République reposait en effet sur un écosystème complexe dont il faut rappeler les deux principaux éléments.

Une domination de l’exécutif fondée sur l’expertise et sur le règne des partis

Tout d’abord, la domination de l’exécutif s’est jouée sur le terrain de l’expertise. Des organes de planification, de prospective et d’aides à la décision ont fleuri autour du gouvernement classique, surtout après 1945. Par comparaison, les assemblées parlementaires ont bénéficié d’une modernisation beaucoup plus limitée en termes de moyens. Elles ont développé la capacité d’évaluation des politiques publiques, mais ne disposent pas d’un organe public indépendant (ou suffisant) pour l’expertise du budget tel qu’il existe auprès du Congrès américain avec le Congressional Budget Office (CBO).

D’autre part, la force de l’exécutif a été historiquement dépendante du rôle de partis politiques modernes. Depuis les années 1960 et 1970, des partis politiques comme le Parti socialiste ou les différents partis gaullistes ont eu les moyens de jouer leur rôle de producteurs doctrinaux et de fidélisation de leur électorat. Ils étaient des « machines » capables d’exercer « une pression collective su la pensée de chacun » pour reprendre Simone Weil. Dans les assemblées, ils ont pu construire d’une main de fer la pratique de discipline de vote, des consignes de groupes et de contrôle des déclarations à la presse. Le parti majoritaire, parfois associé à de petits partis satellites ou alliés, était à même d’assurer au gouvernement une majorité connue d’avance, prête à faire voter en temps voulu le budget de l’exécutif ou les projets de loi sans modification importante. Les partis privilégiaient la cohésion collective et la verticalité de l’obéissance plutôt que le rôle d’espace de discussion. La répétition des élections présidentielles comme la fréquence du dispositif majoritaire avaient ancré les partis dans le rôle d’entrepreneurs de programmes. L’ambition de leurs plates-formes électorales était en proportion de la « force de gouverner » attendue : ce fut longtemps un atout indéniable pour que l’offre politique rencontre de fortes aspirations sociales.

Ces deux piliers de la force de l’exécutif sont aujourd’hui remis en cause. L’État planificateur de tradition jacobine s’est fortement transformé depuis les années 1990 avec la multiplication des agences et les réformes successives de décentralisation. L’âge d’or des grands serviteurs de l’État, qui offraient à l’exécutif une aide homogène à la décision, est passé. Aujourd’hui, un gouvernement est confronté à la diversité et parfois la contradiction des avis que lui fournissent les organes experts. L’expertise n’est donc plus enfermée dans le seul silo de la haute administration classique. Elle est devenue un secteur concurrentiel où des entrepreneurs d’expertise multiplient les avis et les alertes au risque d’ajouter à la confusion plutôt que d’aider à la prise de décision. La question concerne aussi bien les think tanks que des forums internationaux, tels que le Groupe d'experts intergouvernemental sur l’évolution du climat (Giec).

La « forme-parti » pour reprendre l’expression du politiste italien, Paol  Pombeni, a, elle aussi, profondément changé. L’appareil central a diminué en termes de moyens. Il n’est plus en mesure d’exercer le même contrôle sur les troupes et sur la mise en cohérence de l’ensemble. Au sein d’un même groupe parlementaire, certains membres jouent leur communication personnelle. L’affiliation par le haut étant en crise, il n’est pas étonnant de retrouver la même crise par le bas : les partis n’assurent plus de stabilité dans le lien entre leur offre politique et la demande sociale – leurs résultats d’un type d’élection à un autre sont devenus erratiques. Il est, par exemple, devenu impossible de savoir ce que représente réellement, à la fois politiquement et socialement, le Parti socialiste si l’on confronte le résultat de la dernière présidentielle (1,7 %) avec le score obtenu aux élections européennes (13 %). Comme le montrent les travaux de Rémi Lefebvre, les partis politiques ne réussissent plus à être des entrepreneurs stables d’identités qui fidélisent des sections de la société : une majorité politique est devenue introuvable parce qu’une majorité sociale est elle-même devenue impossible.

Au total, c’est toute la chaîne qui faisait la force de l’exécutif qui est démantelée, maillon par maillon. Un président n’est plus assuré de nommer un premier ministre qui sera à même de faire voter son programme électoral grâce à une majorité solide dans les assemblées.

Le parlementarisme a fonctionné sous la IIIᵉ et la IVᵉ République

Dans une telle situation, le Parlement retrouve une position centrale. Le retour à un vrai travail budgétaire ne serait d’ailleurs qu’un retour aux sources historiques des assemblées. Le « gouvernement parlementaire » avait su fonctionner de manière satisfaisante pendant la majeure partie de la IIIe République, y compris dans sa contribution essentielle à la victoire pendant la Première Guerre mondiale. Il a encore joué sa part dans la reconstruction du pays et l’établissement du modèle social sous la IVe République, de la Sécurité sociale jusqu’au salaire minimum. On commet donc une erreur quand on déclare la France « ingouvernable ». L’expression n’a de sens que si l’on réduit la notion de gouverner à la combinaison d’un exécutif dominant associé au fait majoritaire partisan.

L’art de la décision tel qu’il était pratiqué dans le « gouvernement parlementaire » conserve sa force d’inspiration : il a d’ailleurs été pratiqué dans la période récente pour certains parcours législatifs comme sur le droit à mourir. Il est donc loin d’avoir disparu. Des modifications du règlement de l’Assemblée nationale qui s’attaqueraient notamment à l’obstruction du débat par l’abus des amendements, pourraient accompagner le « reset » du parlementarisme. Transférer une part de l’expertise de l’exécutif vers le législatif aiderait aussi au redressement de la qualité du travail des commissions.


À lire aussi : Loi Duplomb, A69 : Comment le gouvernement Bayrou a contourné l’Assemblée nationale pour faire passer ses projets. La démocratie malmenée ?


Certes, rien ne dit que cela soit suffisant. Mais la situation actuelle démontre que la « combinaison magique » d’un président fort associé à un fait majoritaire et à un esprit partisan exacerbé a produit des résultats financiers, économiques et sociaux négatifs.

La Ve République avait d’abord apporté la stabilité du pouvoir, la force d’entraînement vers la modernisation du pays et le progrès social. Ce n’est plus le cas. La disparition du fait majoritaire, combinée au dévoilement du caractère abyssal de la dette, nous plonge dans la désillusion des vertus attribuées à la Ve République. Pour la première fois depuis la création de la Vᵉ République en 1958, il n’y a donc pas d’autre choix que de refaire Parlement.

The Conversation

Nicolas Rousselier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

10.09.2025 à 17:25

Quelles solutions de dépollution contre les PFAS dans les sols et les eaux souterraines ?

Maxime Cochennec, Chercheur site et sols pollués, BRGM

Clément Zornig, Responsable de l’unité Risques, Sites et Sols Pollués au BRGM, BRGM

Stéfan Colombano, Ingénieur-chercheur au BRGM, BRGM

Les techniques actuelles ne permettent pas de détruire de façon sûre et systématique ces substances sans risquer de déplacer le problème en produisant d’autres PFAS plus petits et tout aussi dangereux.
Texte intégral (2724 mots)

Les PFAS, ou substances per- et polyfluoroalkylées, sont souvent appelées « polluants éternels ». Dans les Ardennes françaises par exemple, les habitants de plusieurs communes ont, depuis juillet 2025, interdiction de consommer l’eau du robinet pour les boissons ou la préparation des biberons.

Ces substances posent un problème de pollution environnementale qui tient du casse-tête. Le cœur du problème tient aux coûts élevés de dépollution et au fait que les techniques de traitement ne permettent pas, à l’heure actuelle, de détruire de façon certaine et systématique ces composés sans risquer de déplacer le problème en produisant d’autres PFAS plus petits et potentiellement aussi dangereux.


La pollution des sols et des eaux souterraines par les substances perfluoroalkylés et polyfluoroalkylés (acronyme anglais PFAS) représente l’un des défis environnementaux et sanitaires majeurs de notre époque. Une enquête menée par le Monde et plusieurs autres médias partenaires révélait, début 2025, l’ampleur de la contamination des sols et des eaux par les PFAS.

Comment s’y prendre pour dépolluer les milieux ? Face à cette famille de composés dont certains sont classés « polluants organiques persistants et cancérogènes », des solutions de dépollution des milieux existent déjà, quoique coûteuses. Les techniques de destruction des PFAS, en revanche, sont encore en cours de maturation dans les laboratoires. État des lieux.

Ne pas confondre traitement et élimination

La distinction entre le traitement des milieux et l’élimination (ou dégradation) des PFAS n’est peut-être pas évidente, mais elle est pourtant essentielle.

Les sols aussi sont un réservoir de pollution aux PFAS. Victor Dueñas Teixeira/Unsplash, CC BY, CC BY-NC-ND

Pour les sols et pour les eaux souterraines, le traitement des PFAS consiste à diminuer suffisamment les concentrations mesurables afin de retrouver un état le plus proche possible de l’état avant la pollution, avec un coût technico-économique acceptable.

En revanche, ce traitement n’implique pas forcément la dégradation des PFAS, c’est-à-dire l’utilisation de techniques physiques, thermiques, chimiques ou biologiques permettant de transformer les PFAS en molécules moins dangereuses.

L’alternative consiste à en extraire les PFAS pour les concentrer dans des résidus liquides ou solides.

Toutefois, ce processus n’est pas entièrement satisfaisant. Bien que l’état des milieux soit rétabli, les résidus issus du traitement peuvent constituer une nouvelle source de pollution, ou tout au moins un déchet qu’il est nécessaire de gérer.

Un exemple typique est le traitement de l’eau par circulation dans du charbon actif granulaire, capable de retenir une partie des PFAS, mais une partie seulement. Le charbon actif utilisé devient alors un résidu concentré dont la bonne gestion est essentielle pour ne pas engendrer une nouvelle pollution.


À lire aussi : PFAS et dépollution de l’eau : les pistes actuelles pour traiter ces « polluants éternels »


Les ingénieurs et les chercheurs développent actuellement des méthodes pour décomposer ou éliminer les PFAS in situ, directement dans les sols et dans les eaux souterraines.

Pour le moment, la principale difficulté est d’ordre chimique. Il s’agit de rompre la liaison carbone-fluor (C-F), caractéristique des PFAS et qui leur procure cette incroyable stabilité dans le temps. En effet, il faut 30 % plus d’énergie pour casser la liaison carbone-fluor que la liaison carbone-hydrogène, que l’on retrouve dans beaucoup de polluants organiques.

Certaines techniques semblent amorcer une dégradation, mais il est crucial d’éviter une dégradation incomplète, qui pourrait générer comme sous-produits des PFAS de poids moléculaire plus faible, souvent plus mobiles et d’autant plus problématiques que leurs impacts sur la santé et sur l’environnement sont encore peu ou pas connus.

Ce n’est pas tout : les méthodes basées sur la chimie impliquent le plus souvent d’ajouter des réactifs ou de maintenir localement des conditions de température et/ou de pression potentiellement néfastes pour l’environnement.

D’autres approches envisagent la biodégradation des PFAS par des microorganismes, mais les résultats sont pour le moment contrastés, malgré quelques travaux récents plus encourageants.


À lire aussi : PFAS : comment les analyse-t-on aujourd’hui ? Pourra-t-on bientôt faire ces mesures hors du laboratoire ?


Les solutions éprouvées

On l’a vu, la dégradation des PFAS directement dans les sols et dans les eaux implique de nombreux verrous scientifiques à lever.

Un certain nombre de techniques permettent toutefois de séparer les PFAS des eaux après pompage (c’est-à-dire, ex-situ), et cela à l’échelle industrielle. Les trois techniques les plus matures sont le charbon actif granulaire, les résines échangeuses d’ions et la filtration membranaire – en particulier la nanofiltration et l’osmose inverse.

Le charbon actif et les résines échangeuses d’ions reposent sur une affinité chimique des PFAS beaucoup plus grande pour le substrat (charbon ou résine) que pour le milieu aqueux : ce sont des techniques dites d’adsorption.

Charbon actif après utilisation (dans le cadre d’un autre précédé que la dépollution aux PFAS). Olivier Lemoine, CC BY-SA

L’adsorption ne doit pas être confondue avec l’absorption, dans la mesure où il s’agit d’un phénomène de surface. Les PFAS s’accumulent alors sur la surface, plutôt qu’à l’intérieur, du substrat, notamment via des interactions électrostatiques attractives. Heureusement, la surface disponible pour du charbon actif en granulés est importante grâce à sa porosité microscopique. Pour 100 grammes de produit, elle représente l’équivalent d’une dizaine de terrains de football.

La filtration, enfin, repose principalement sur l’exclusion par la taille des molécules. Or, les PFAS les plus préoccupants sont des molécules relativement petites. Les pores des filtres doivent donc être particulièrement petits, et l’énergie nécessaire pour y faire circuler l’eau importante. Cela constitue le principal défi posé par cette technique appliquée au traitement des PFAS.

Les défis pour les PFAS à chaînes courtes et le traitement des sols

Les techniques qui précèdent sont déjà connues et utilisées de longue date pour d’autres polluants, mais qu’elles demeurent efficaces pour de nombreux PFAS. Ces techniques sont d’ailleurs parmi les rares ayant atteint le niveau 9 sur l’échelle TRL (Technology Readiness Level), un niveau maximal qui correspond à la validation du procédé dans l’environnement réel.

Néanmoins, de nombreuses recherches sont en cours pour rendre ces techniques plus efficaces vis-à-vis des PFAS à chaînes courtes et ultra-courtes – c’est-à-dire, qui comportent moins de six atomes de carbones perfluorés. En effet, ces molécules ont moins d’affinités avec les surfaces et sont donc plus difficiles à séparer du milieu aqueux.

Quant aux techniques pour traiter les sols, l’approche doit être radicalement différente : il faut récupérer les PFAS adsorbés sur les sols. Pour ce faire, des solutions basées sur l’injection d’eau sont à l’étude, par exemple avec l’ajout d’additifs comme des gels et des solvants.

Ces additifs, lorsqu’ils sont bien choisis, permettent de modifier les interactions électrostatiques et hydrophobes dans le système sol-eau souterraine afin de mobiliser les PFAS et de pouvoir les en extraire. Le principal défi est qu’ils ne doivent pas générer une pollution secondaire des milieux. L’eau extraite, chargée en PFAS, doit alors être gérée avec précaution, comme pour un charbon actif usagé.

Les pistes pour détruire les PFAS

Reste ensuite à savoir quoi faire de ces déchets chargés en PFAS. Outre le confinement dans des installations de stockage, dont le principal risque est d’impacter à nouveau l’environnement, l’incinération est actuellement la seule alternative.

Le problème est que les PFAS sont des molécules très stables. Cette technique recourt aux incinérateurs spécialisés dans les déchets dangereux ou incinérateurs de cimenterie, dont la température monte au-dessus de 1 000 °C pour un temps de résidence d’au moins trois secondes. Il s’agit d’une technique énergivore et pas entièrement sûre dans la mesure où la présence éventuelle de sous-produits de PFAS dans les gaz de combustion fait encore débat.

Parmi les autres techniques de dégradation, on peut citer l’oxydation à l’eau supercritique, qui a pu démontrer son efficacité pour dégrader un grand nombre de PFAS pour un coût énergétique moindre que l’incinération. La technique permet de déclencher l’oxydation des PFAS. Elle repose néanmoins sur des conditions de température et de pression très élevées (plus de 375 °C et plus de 218 bars) et implique donc une dépense importante d’énergie.

Il en est de même pour la sonocavitation, qui consiste à créer des bulles microscopiques à l’aide d’ultrasons qui, en implosant, génèrent des pressions et des températures à même de dégrader les PFAS en générant un minimum de sous-produits.

Le panel de techniques présenté ici n’est évidemment pas exhaustif. Il se concentre sur les techniques les plus matures, dont le nombre reste relativement restreint. Des dizaines d’autres méthodes sont actuellement à l’étude dans les laboratoires.

Que retenir de cet inventaire ? Le traitement des milieux, en particulier les eaux et les sols, n’implique pas systématiquement la dégradation des PFAS. Pour y parvenir, il faudra mobiliser des nouvelles approches encore en cours de recherche et développement.

De plus, la dépollution devra d’abord se concentrer sur le traitement des zones sources (sols directement impactés avec des produits contenant des PFAS, etc.) afin d’éviter les pollutions secondaires. En effet, une dépollution à très grande échelle engendrerait un coût gigantesque, estimé à 2 000 milliards d’euros sur vingt ans.

En conséquence, même si des techniques de dépollution existent déjà et que d’autres sont en développement, elles ne suffiront pas. Elles doivent être couplées à une surveillance accrue des milieux, à une évolution des réglementations sur l’usage et sur la production de PFAS et à un effort de recherche soutenu pour restreindre ou pour substituer ces substances lorsque cela est possible.

The Conversation

Maxime Cochennec a reçu des financements de l'Agence de la transition écologique (ADEME), du Ministère de la Transition Écologique dans le cadre du plan interministériel sur les PFAS et de l’Union Européenne (Horizon H2020).

Clément Zornig a reçu des financements de l'Agence de la transition écologique (ADEME), du Ministère de la Transition Écologique dans le cadre du plan interministériel sur les PFAS et de l’Union Européenne (Horizon H2020).

Stéfan Colombano a reçu des financements de l'Agence de la transition écologique (ADEME), du Ministère de la Transition Écologique dans le cadre du plan interministériel sur les PFAS et de l’Union Européenne (Horizon H2020).

PDF
50 / 50
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Lava
La revue des médias
Le Grand Continent
Le Diplo
Le Nouvel Obs
Lundi Matin
Mouais
Multitudes
Politis
Regards
Smolny
Socialter
The Conversation
UPMagazine
Usbek & Rica
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
Contretemps
A Contretemps
Alter-éditions
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
Philo Mag
Terrestres
Vie des Idées
 
  ARTS
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
 
Fiabilité 3/5
Slate
Ulyces
 
Fiabilité 1/5
Contre-Attaque
Issues
Korii
Positivr
Regain
🌓