09.04.2026 à 16:48
Jean-Marc Figuet, Professeur d'économie, ISG Lab, Université de Bordeaux
C’est un paradoxe : le taux de rémunération du Livret A est régulièrement l’objet de critiques pour sa faiblesse relative. Simultanément, il reste le placement préféré des Français, détenu par 8 sur 10 d’entre eux. Peut-être parce que ce n’est pas qu’une question de rendement financier. Et que ce livret plus que bicentenaire remplit des fonctions essentielles dans l’économie, avec un encours total de… 450 milliards d’euros.
Le Livret A est né le 22 mai 1818, à Paris, avec la création de la première Caisse d’épargne. Depuis, il est le produit d’épargne préféré des Français, puisqu’ils sont près de 57 millions (83 % de la population) à en posséder un aujourd’hui. Au début de 2026, l’encours total frôlait 450 milliards d’euros.
La popularité du Livret A s’explique par sa simplicité d’ouverture, sa parfaite liquidité, son absence de fiscalité et de risque.
Chaque Français, quel que soit son âge, peut ouvrir un Livret A (et un seul !) dans la banque de son choix avec un capital initial de 10 euros (1,50 euros à la Banque postale), soit le montant du solde minimum. Le plafond est fixé à 22 950 euros. Le Livret A a un quasi « jumeau », le Livret de développement durable et solidaire (LDDS) qui obéit aux mêmes règles, mais avec un plafond maximal de 12 000 euros. Le livret A est également accessible à certaines personnes morales (associations, syndicats de copropriétaires et organismes HLM), mais non aux entreprises.
À lire aussi : Épargne : les Français toujours accro au livret A malgré des envies de risque et de rendement
Les fonds sont disponibles sans préavis à la différence d’autres supports d’épargne, tels que l’assurance vie, c’est dire que c’est un placement très liquide. Le retrait minimal est de 10 euros (1,50 euros à la Banque postale). Il est possible de retirer des espèces directement au guichet ou à un distributeur automatique de billets.
Les intérêts perçus sont exonérés d’impôt sur le revenu et de prélèvements sociaux. Autrement dit, le rendement nominal est strictement égal au rendement brut. Le taux d’intérêt servi à l’épargnant est fixe entre deux semestres. Chaque détenteur peut alors calculer le montant des intérêts (calculés par quinzaine et capitalisés au 31 décembre de chaque année).
Enfin, le Livret A est un actif sans risque, car l’épargne placée est protégée par le Fonds de garantie des dépôts et de résolution en cas de faillite de la banque.
Ces avantages font du Livret A le support privilégié pour l’épargne de précaution des ménages, c’est-à-dire un matelas de sécurité immédiatement mobilisable pour faire face à un imprévu. Pour de nombreux Français, il s’agit d’ailleurs du seul support d’épargne. D’où son caractère singulier. Bien évidemment, ces qualités indéniables sont contrebalancées par un rendement faible qui peut faire l’objet de polémiques.
Le taux d’intérêt du Livret A est fixé par l’État qui se réfère au calcul effectué par la Banque de France deux fois par an. Depuis 2021, le taux est la moyenne semestrielle du taux d’inflation (hors prix du tabac) et des taux interbancaires à court terme (€STR), avec un arrondi au dixième de point le plus proche.
Cette formule implique que le taux d’intérêt plancher du Livret A est de 0,5 %. Elle implique également que, à certaines périodes, le rendement réel (taux nominal auquel on retranche l’inflation) du Livret A soit négatif : cela implique une perte de pouvoir d’achat de l’argent ainsi épargné. Ce fut le cas notamment lors de la période post-Covid (voir graphique).
Depuis le 1er février 2026, le taux nominal est ainsi fixé à 1,5 % (contre 1,7 % auparavant), ce qui implique un rendement réel d’environ à 0, 8 %. Du point du seul rendement, le Livret A n’est donc pas le produit le plus intéressant. En comparaison, les contrats d’assurance-vie en euros ont rapporté, en moyenne, 2,65 % en 2025.
Sur la même période, le CAC 40 a progressé de plus de 10 %. Rappelons toutefois qu’à l’inverse le rendement nominal des dépôts à vue est nul, donc toujours inférieur à celui du Livret A.
La faiblesse du rendement du Livret A n’est donc que la contrepartie de ses avantages. En détenant des encours parfaitement sécurisés, les épargnants doivent accepter un rendement réel faible. En finance, ce n’est pas vraiment une surprise. Plus de rendement implique nécessairement de prendre plus de risque, comme l’a souligné le Prix Nobel d’économie William Sharpe. Le Livret A est alors un support adéquat pour les épargnants manifestant une forte aversion pour le risque.
La faiblesse du rendement ne doit pas, non plus, occulter le rôle économique et social que joue le Livret A pour l’économie française par l’intermédiaire de la Caisse des dépôts et des banques.
Les quelque 450 milliards d’euros placés sur le Livret A ne dorment pas paisiblement. Ils alimentent un circuit de financement de prêts à long terme qui doit simultanément rester liquide pour faire face aux demandes de retraits. Ainsi l’annonce de la baisse du taux au 1er février s’est-elle accompagnée d’une décollecte de 1,87 milliard d’euros en janvier 2026.
Près de 65 % des fonds sont centralisés à la Caisse des dépôts, qui transforme des dépôts liquides en financements longs, notamment par des prêts au logement social et à la politique de la ville. Le Livret A n’est donc pas une caisse fermée. C’est un dispositif de transformation des dépôts liquides en financements longs, sous contrainte de liquidité.
Pour la Caisse des dépôts et sa Banque des territoires, l’enjeu est massif puisque le stock de prêts sur fonds d’épargne atteint 202 milliards d’euros en 2024, dont 180 milliards consacrés au logement social et à la politique de la ville. Pour la seule année 2024, 28,5 milliards d’euros de prêts ont été accordés.
Le Livret A est ainsi une ressource structurante pour le financement du logement social et d’investissements territoriaux de long terme. Concrètement, ces financements couvrent la construction et la réhabilitation de logements sociaux, mais aussi les résidences étudiantes et, dans certains cas, des équipements médico-sociaux, tels que les Ehpad, pour accompagner le vieillissement de la population française.
Mais l’effet du Livret A ne s’arrête pas à la sphère publique. La part non centralisée, soit 35 % des encours, reste au bilan des banques distributrices. Cet autre versant, plus discret, implique que l’épargne réglementée contribue aussi au financement de l’économie.
La part non centralisée demeure au passif du bilan des banques et constitue une ressource de financement. La loi impose que ces ressources soient orientées vers le financement des petites et moyennes entreprises (PME), de la transition énergétique et de l’économie sociale et solidaire, avec des obligations de reporting public.
La Banque de France chiffre à 245,6 milliards d’euros l’encours conservé au bilan fin 2024. Pour la même année, les prêts nouveaux aux PME atteignent 116,7 milliards d’euros et l’encours total de crédits aux PME 568,5 milliards d’euros. Il s’agit donc d’un fléchage par enveloppe plutôt qu’un « tuyau » euro-pour-euro. En effet, la part non centralisée alimente une enveloppe de ressources au bilan bancaire, et le fléchage se vérifie par des montants agrégés, non par une correspondance euro-pour-euro entre un dépôt et un prêt.
Le Livret A remplit donc une double fonction. D’un côté, il offre aux ménages une épargne de précaution simple et sécurisée. De l’autre, il alimente un circuit de financement collectif, du logement social au crédit bancaire aux PME. Cette ambivalence explique sa place particulière.
Jean-Marc Figuet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
09.04.2026 à 16:47
Victor Bianchini, Maître de conférences en sciences économiques, Université Paris 1 Panthéon-Sorbonne
Abdelkader Slifi, Enseignant chercheur en économie, Université Paris Dauphine – PSL

La mort du biologiste Paul Ralph Ehrlich le 13 mars 2026, a remis en lumière The Population Bomb, un classique de la littérature écologique publié en 1968. Les auteurs rappellent ici que la « surpopulation » n’est pas un simple fait naturel, mais un objet profondément politique. Depuis Thomas Robert Malthus, la restriction démographique reste un sujet d’actualité brûlant.
Pour la première fois en France depuis 1945, le nombre de naissances est devenu inférieur aux décès en 2025 ; l’indicateur de fécondité atteint 1,56 enfant par femme, son plus faible niveau depuis la Première Guerre mondiale.
Dès 2024, le président Emmanuel Macron appelait à un « réarmement démographique » pour répondre au vieillissement de la population. Dans le même temps, à propos de Mayotte, était soulevée la question de la « surpopulation » ou de la « pression démographique » sur l’île française.
Bien que ces diagnostics portent sur des échelles territoriales différentes, selon les contextes, la population peut être présentée comme une ressource à développer ou un problème à contenir. Le débat n’est pas nouveau. Coécrit par les biologistes américains Paul R. Ehrlich (1932-2026) et Anne H. Ehrlich, The Population Bomb reprend les principaux postulats malthusiens, en les replaçant dans le contexte de la crise écologique.
Alors que le malthusianisme classique fonde l’idée de surpopulation sur la rareté des ressources agricoles, le néo-malthusianisme du XXe siècle l’inscrit dans le cadre plus large des limites environnementales.
Anne et Paul Ehrlich coécrivent cet ouvrage dans un contexte marqué par le renouveau du néo-malthusianisme d’après-guerre et par l’affirmation d’une écologie attentive aux limites de la planète, dont témoignera notamment le rapport Meadows de 1972.
Très influent et polémique, l’ouvrage installe une idée devenue familière : les crises alimentaires et écologiques seraient d’abord le produit d’un excès d’humains sur Terre. Si le livre est connu pour ses prédictions catastrophistes, l’essentiel est ailleurs. The Population Bomb a transformé la manière de poser le problème, en présentant la surpopulation comme un fait scientifique, une réalité objective dictée par des contraintes naturelles, et appelant dès lors des réponses politiques fortes.
Leur point de départ est celui de la biologie des populations. Dès le premier chapitre de The Population Bomb – structuré autour « Trop d’humains », « Trop peu de nourriture » et « Une planète mourante » –, ils s’intéressent aux dynamiques de croissance, aux interactions entre population et environnement, ainsi qu’aux contraintes écologiques. L’ouvrage en donne d’emblée la clé de lecture :
« Les Américains commencent à prendre conscience que les pays en développement sont confrontés à une crise démographique et alimentaire inévitable. »
Parmi ces sections, « Trop d’humains » joue un rôle central. La population humaine y est d’abord traitée comme une variable naturelle à l’échelle mondiale, avant d’être envisagée dans ses dimensions sociales, économiques et politiques.
Dans The Population Bomb, le constat est sans appel : « la bataille pour nourrir toute l’humanité est perdue ».
Les crises alimentaires ne sont pas d’abord pensées comme des défaillances économiques, mais comme le rapport de l’homme à la nature ; la croissance démographique conduit à une pénurie de ressources. La hausse du prix de la nourriture résulterait de la mise en culture de terres moins fertiles, elles-mêmes conséquence de la croissance démographique :
« Nous savons déjà qu’il est impossible d’augmenter suffisamment la production alimentaire pour faire face à la croissance démographique continue. »
Anne et Paul Ehrlich déploient un registre catastrophiste, fait d’échéances rapprochées, de famines et d’effondrements sociaux. L’argument ne se limite pas aux pays en développement. Les sociétés riches sont aussi concernées, sous d’autres formes :
« Plutôt que de souffrir de pénuries alimentaires, ces pays en subissent les conséquences sous la forme d’une dégradation de l’environnement et d’une difficulté croissante à se procurer les ressources nécessaires pour maintenir leur niveau de vie. »
Cette approche ne signifie pas une absence du politique. La surpopulation est posée comme un fait objectif, quasi indiscutable, issu de lois naturelles, appelant ensuite des réponses politiques fortes. Le débat ne porte pas tant sur la définition du problème que sur les moyens d’y répondre.
Dans les derniers chapitres de l’ouvrage, Anne et Paul Ehrlich appellent explicitement à l’action coercitive de l’administration des États-Unis plutôt qu’à des mesures incitatives : contrôle des naissances grâce à la contraception, y compris la stérilisation forcée, droit à l’avortement ou réorientation de l’aide internationale.
Dans son discours de 1965, le président états-unien Lyndon Johnson appelait à traiter le problème de l’explosion démographique et de la rareté des ressources avec un contrôle des naissances. La réalité démographique contemporaine est loin d’être homogène. De nombreux pays développés font aujourd’hui face au vieillissement de leur population – Japon, France ou États-Unis –, tandis que d’autres régions concentrent l’essentiel de la croissance démographique mondiale et de la jeunesse. Le nombre d’habitants de l’Afrique subsaharienne pourrait dépasser les deux milliards en 2050.
Surtout, les pressions écologiques ne dépendent pas uniquement du nombre d’habitants, mais aussi des modes de production, de consommation, ainsi que de la concentration spatiale des activités économiques. Deux populations de taille comparable peuvent avoir des impacts très différents.
Parler de « surpopulation » ne renvoie jamais à une humanité indifférenciée. Cette catégorie suppose, implicitement, des écarts entre populations selon les territoires et les conditions sociales. Dès l’Essai sur le principe de population de Thomas Robert Malthus, la croissance démographique est pensée comme une loi naturelle. Elle s’accompagne d’une prise de position politique explicite : la critique des politiques d’assistance, notamment les « Poor Laws » accusées d’encourager la reproduction des plus pauvres.
Cette manière de poser le problème ne disparaît pas complètement avec le néo-malthusianisme. Dans The Population Bomb, Thomas Robert Malthus n’est pas mobilisé de manière explicite. Le problème est posé à l’échelle globale, sans désignation de groupes sociaux, tout en orientant implicitement le diagnostic vers certains territoires en développement. Aujourd’hui encore, cette logique se prolonge sous des formes plus diffuses, que certains travaux désignent comme un « effet Malthus ». Concrètement, les inégalités sociales et territoriales sont reformulées en termes apparemment naturalisés, à travers des diagnostics globaux qui évitent de nommer les populations concernées.
Parler d’un monde où il y aurait « trop d’humains » suppose donc, même tacitement, que certaines dynamiques démographiques sont plus problématiques que d’autres.
En 1971, Paul Ehrlich proposait avec le professeur de sciences de l’environnement John Holdren une formulation plus large de l’impact environnemental, souvent résumée par l’équation I = P × A × T. Impact environnemental (I) = taille de la population (P), richesse de la population (A) et technologie (T).
Cette équation fait dépendre l’impact environnemental du produit de la population, l’abondance – mesurée par la consommation par tête –, et de la technologie. Cette approche, reprise notamment dans The Population Explosion, reconnaît le rôle des choix économiques et techniques, que l’ouvrage de 1968 tendait à subordonner à la seule dynamique démographique.
Les débats se sont ensuite recentrés sur la mesure des contributions de ces facteurs au réchauffement climatique. Dans les années 1990, l’identité de Kaya permet de mesurer empiriquement les émissions de gaz à effet de serre en les reliant à la population, au produit intérieur brut par habitant, à l’intensité énergétique de la production et au contenu carbone de l’énergie. Plutôt que de se limiter au facteur démographique, elle met en évidence la nécessité de découpler la croissance de la consommation des émissions de gaz à effet de serre, notamment par la décarbonation.
La crise écologique impose des limites à l’exploitation des ressources, mais celles-ci tiennent moins à une supposée « surpopulation » qu’aux impacts environnementaux des modes de production et de consommation sur le climat. Autrement dit, l’enjeu n’est pas tant le nombre d’humains que la manière dont les sociétés organisent production, décarbonation, répartition et sobriété de la consommation des ressources.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
09.04.2026 à 16:46
Anne Gensane, Chercheuse en sciences du langage, Université d'Artois
Les parlers du nord de la France sont-ils en train de se figer en souvenir d’un autre temps ? Ou continuent-ils à se manifester dans les usages contemporains, y compris là où on ne les attend pas ?
À partir d’une enquête de terrain menée dans plusieurs établissements des Hauts-de-France entre 2016 et 2025, il est possible d’observer non pas un retour massif de patois, mais une circulation complexe de quelques formes septentrionales (entendre par là, parlers « du Nord ») au sein de répertoires linguistiques hétérogènes.
À lire aussi : Que reste-t-il de nos argots ?
Dès 1971, le linguiste Pierre Guiraud notait que des mots d’origine dialectale (issus de variétés linguistiques régionales distinctes du français « standard ») pouvaient être relayés par l’argot. Timothy Pooley, autre linguiste, évoquait un peu plus tard une possible « dépicardisation » , soit une disparition du picard – celui-ci étant une langue régionale d’oïl historiquement parlée dans le nord de la France et en Belgique. Faut-il y voir un déclin irrémédiable ou plutôt la transformation d’un héritage ?
Les jeunes du Nord parlent-ils encore « patois » ? Dans les corpus recueillis (listes lexicales co-construites, entretiens, observations) dominent les emprunts à l’arabe, à l’anglais et au rromani. Pour autant, un noyau de régionalismes du Nord persiste et, parmi eux, les substantifs et appellatifs « biloute » (gars, mec) et « tchot » (petit), « chicour » (champion), le déterminant « ch’ », la locution verbale « dire quoi », ou encore le verbe « finquer » (fumer). Le relevé révèle par ailleurs des flottements étymologiques : certaines origines sont discutables – de même que les termes employés pour les décrire : patois, dialecte, régionalisme.
Premier enseignement que nous livre cette étude : ces mots ne subissent aucune manipulation morphologique notable. Par exemple, pas de verlanisation bien connue des pratiques argotiques contemporaines. Là où l’argot contemporain aime à transformer, le régionalisme nordiste est inséré sans cette modification.
Deuxième enseignement : leur vitalité est inégale. « Biloute » et « tchot » sont massivement compris, et encore employés par une partie des locuteurs interrogés en 2025 dans l’étude citée plus tôt. « Finquer » est plus fragile. « Chicour » donne lieu à des définitions divergentes (de « champion » spécialisé uniquement à son sens littéral, à « frimeur »). Pour désigner ces savoirs linguistiques diffus, les linguistes parlent par exemple de « compétence latente », souvent sous-estimée par les locuteurs.
Les discours épilinguistiques (discours au sujet de la langue) recueillis éclairent cette situation. Les formes régionales sont fréquemment associées à la famille, au « patrimoine » du Nord. Elles relèvent donc d’une mémoire territoriale.
Mais cette valorisation affective coexiste avec une forte dépréciation sociale : l’idée même du « chti », nous informe un lycéen interrogé, renvoie à l’image des « anciens », mais aussi… aux « bouseux ». On oscille alors entre « condescendance et attendrissement », si nous reprenons les mots du linguiste Pierre Rézeau. L’accent du Nord, même s’il n’est pas le seul, fait l’objet de moqueries récurrentes. On retrouve ici ce que Philippe Blanchet nomme la « glottophobie » : la stigmatisation des manières de parler. Le paradoxe est d’ailleurs souvent frappant ; des locuteurs peuvent se moquer d’un accent qu’ils partagent eux-mêmes. L’insécurité linguistique persiste, et explique en partie la faible revendication explicite des régionalismes dans les usages ordinaires.
À l’inverse, les pratiques argotiques contemporaines souvent associées aux « banlieues » bénéficient parfois d’une sorte de prestige paradoxal pour certains jeunes locuteurs interrogés dans la même étude ; elles incarnent souvent (mais pas toujours) l’opposition, et aiment se distinguer par « rupture », au contraire du patois.
Pour autant, opposer frontalement argot et patois serait simplificateur. Un argot contemporain, comme un dialecte, est localisé, marqué socialement et investi d’une forte charge identitaire. De même, tous deux participent d’un déplacement du Soi par rapport à l’Autre : inclusion des pairs, distinction vis-à-vis de l’extérieur.
Cela peut nous conduire à penser que les régionalismes du Nord intégrés aux « parlers jeunes » n’apparaissent pas comme des fossiles folkloriques, mais fonctionnent plutôt comme des indices discrets de connivence. L’argot peut relever davantage de l’opposition, le patois davantage de la proximité… mais ils partagent un même ressort symbolique.
Les arts et médias contemporains jouent un rôle non négligeable dans ces circulations. Le rap, devenu un genre musical d’importance, agit comme instance de légitimation linguistique. Si des artistes comme Jul ont diffusé des régionalismes méridionaux (« tarpin », « fraté »), certains évoquent très ponctuellement le Nord. C’est ainsi que nous pouvons noter la présence de le « chnord » (présence un tant soit peu erronée, « ch » étant déjà un déterminant), chez Freeze Corleone qui n’est pas du Nord.
Mais nous trouvons aussi notamment les Nordistes BEN plg et ZKR, issus d’un espace urbain identifié comme un foyer actif de production rap et argotique, soit souvent Roubaix, et dont les usages font apparaître des formes localement ancrées (par exemple, « zig » pour désigner un individu), et bien que certaines soient issues, au départ, de ressources empruntées à l’arabe (par exemple, « tneket », qui signifie incroyable). Toutes ces occurrences réinvestissent l’imaginaire territorial du Nord. Nous pourrions également citer le groupe Paula Fargue qui met en valeur patois et accent du Nord.
Les réseaux sociaux ou les publicités contribuent à donner de l’importance à certaines formes. Des expressions virales, portées par des influenceurs ou des émissions de téléréalité, pourraient y acquérir une visibilité nationale.
Les formes régionales y trouvent parfois une nouvelle scène, comme ce fut le cas du mot « drache » dans une campagne publicitaire récente d’une marque de cosmétiques. Ces « tiers » médiatiques modifient l’équation : ce qui était perçu comme ringard peut devenir tendance, à condition d’être adoubé par une figure d’autorité culturelle.
Enfin, nous n’oublierons pas le rôle du dictionnaire : « drache » est justement entré dans celui-ci il y a quelques années, avec la marque lexicographique « régionalisme ». En légitimise-t-il l’usage ?
Les données recueillies révèlent une ambivalence bien connue de la sociolinguistique : attachement affectif d’un côté, distance sociale de l’autre. Les jeunes interrogés n’expriment pas de crainte de voir disparaître le patois et n’en font pas une cause à défendre. En revanche, ils mobilisent certains mots comme des ressources ponctuelles, souvent chargées d’affect.
Le « renouvellement » dont nous pourrions parler ne prend donc pas la forme d’un retour à un parler dialectal homogène. Il réside dans la réinterprétation au sein d’un répertoire où se côtoient arabe dialectal, anglicismes, rromanismes… et héritages locaux.
À l’heure où les langues sont souvent pensées en termes de concurrence ou de remplacement, cette situation invite à une autre lecture : celle d’une cohabitation mouvante, celle de répertoires linguistiques avec styles à activer en fonction de la situation. Quelques mots résistent, certains voyagent et reviennent par le biais du numérique… et l’accent persiste. C’est peut-être ici que se joue l’avenir des parlers régionaux chez les « jeunes » : moins dans la fidélité déclarée que dans les usages rares mais tenaces, et labiles… vivants, en somme.
Nous n’oublierons pas, quoi qu’il en soit, que le picard (comme le flamand occidental dont nous n’avons pas parlé ici) peuvent être enseignés au sein de l’éducation nationale depuis 2022. On peut donc imaginer que cela contribue progressivement à faire disparaître la possible insécurité voire la honte liée à l’accent ou au vocabulaire patoisant. En acquérant davantage de connaissances sur l’histoire et la richesse de ces pratiques linguistiques, les locuteurs pourraient développer davantage l’envie de son recours, ce qui pourrait donner lieu à un nouvel essor des pratiques linguistiques régionales à observer.
Anne Gensane ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
09.04.2026 à 11:29
Valérie Martin, Cheffe du service Mobilisation citoyenne et médias, Ademe (Agence de la transition écologique)
Faire le tri parmi les promesses environnementales dont les entreprises nous inondent est devenu quasiment impossible. Pourtant, le greenwashing est une pratique interdite, dont les contours sont de plus en plus strictement définis par la loi. L’Agence de la transition écologique, l’Ademe, propose quelques repères pour le détecter et le combattre.
En octobre 2025, le tribunal judiciaire de Paris condamnait TotalEnergies à « cesser la diffusion de communication trompeuse », ciblant ses allégations d’« ambition de neutralité carbone d’ici 2050 », la société affirmant être une « actrice majeure de la transition ».
Face au flot d’allégations environnementales qui inondent notre quotidien dans la publicité, dans la communication des entreprises en général, sur les réseaux sociaux ou sur les emballages des produits que nous achetons, nous sommes souvent démunis. Comment faire le tri entre les affirmations légitimes et fiables et celles, trompeuses ou mensongères, qui relèvent du « greenwashing » (ou écoblanchiment) ?
Le Larousse définit ce terme, depuis 2023, comme :
« [L’]utilisation fallacieuse d’arguments faisant état de bonnes pratiques écologiques dans des opérations de marketing ou de communication. »
Cette confusion a des effets délétères sur la mise en œuvre de la transition écologique. En effet, le greenwashing dégrade considérablement la confiance des citoyens envers les marques et les pouvoirs publics et décrédibilise, dans le même temps, les efforts réels que certaines structures mettent en place, ce qui pourrait freiner leur engagement.
Heureusement, comme le montre la condamnation de TotalEnergies, le problème ne se résume pas à un enjeu moral : le greenwashing est interdit par la loi. Connaître ses contours juridiques peut nous aider à mieux le repérer et à mieux le combattre. Afin d’encourager davantage les entreprises qui font réellement des efforts en faveur de l’environnement, l’Agence de la transition écologique (Ademe) a élaboré un guide anti-greenwashing, qui doit aider les entreprises à respecter la loi et adopter des pratiques vertueuses.
Le greenwashing couvre toutes les formes de décalage entre le discours et la réalité des actes, relativement à l’empreinte environnementale de ses produits ou à ses engagements environnementaux dans le cadre de sa démarche de responsabilité sociétale des entreprises (RSE).
À ce titre, il relève légalement de la lutte contre les pratiques commerciales trompeuses. Ces dernières sont interdites par une directive européenne de 2005 et transposées en droit français dans le Code de la consommation.
Depuis, d’autres règles plus strictes ont été adoptées. La France, précurseuse en la matière, a adopté des dispositions contre le greenwashing dans la loi Anti-gaspillage pour une économie circulaire (Agec) en 2020 et la loi Climat et résilience de 2021.
Au niveau européen, la directive de 2024 qui vise à « donner aux consommateurs les moyens d’agir en faveur de la transition verte grâce à une meilleure protection contre les pratiques déloyales et grâce à une meilleure information » doit être transposée en droit français, les nouvelles dispositions devant entrer en application le 27 septembre 2026. Cette directive définit notamment de façon très précise l’allégation environnementale.
Ces textes définissent et encadrent la notion d’allégation environnementale, qui s’étend ainsi à toutes formes de mentions (texte, image, représentation graphique, symbole, label, dénomination sociale ou dénomination de produit…), de communication et toute organisation (y compris des professionnels).
Elles interdisent l’usage de certaines mentions génériques ne pouvant pas être démontrées, comme « biodégradable », « respectueux de l’environnement », « non toxique », « non nocif », « non polluant », « écologique » ou autres allégations similaires. Elles encadrent également strictement certaines affirmations comme « neutre en carbone » ou « recyclable ».
Au-delà de ces lois contraignantes, des textes de « droit souple » (c’est-à-dire, n’ayant pas d’effets contraignants par eux-mêmes) peuvent être pris en compte par les juridictions pour interpréter les textes de loi. Dans cet esprit, l’Ademe a, par exemple, publié un avis d’experts en 2022 sur la communication relative à la neutralité carbone. Cet avis formule un certain nombre de recommandations à l’intention de tous les acteurs du secteur privé et du secteur public.
Enfin, des normes internationales ISO ainsi que des règles déontologiques aiguillent les pratiques de communication autour de l’environnement. C’est par exemple le cas de la recommandation relative au développement durable de l’Autorité de régulation professionnelle de la publicité (ARPP).
En France, c’est la Direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF) qui se charge de détecter et sanctionner les cas de greenwashing. Or, le bilan des enquêtes qu’elle a menées en 2023 et 2024 a mis en évidence l’ampleur du phénomène.
Sur plus de 3 200 entreprises, 15 % des professionnels contrôlés présentaient des manquements graves à la réglementation. Plus de 430 entreprises ont ainsi été gratifiées d’une injonction de mise en conformité et 74 se sont vu infliger des sanctions (amendes administratives ou procès-verbaux). Plus de 500 avertissements ont également été adressés pour des informations manquantes ou imprécises.
Sur le périmètre de la publicité, l’Ademe et l’ARPP réalisent par ailleurs une étude qui porte sur plusieurs centaines de publicités environnementales pendant 4 mois depuis 2007. Selon les années, le taux de visuels non conformes à la recommandation développement durable de l’ARPP varie entre 6 et 12 % – ce qui est beaucoup plus important que dans d’autres bilans thématiques menés par cette instance.
En outre, ces chiffres sont sans doute sous-estimés, car certains supports promouvant ces allégations environnementales demeurent à ce stade mal étudiés. C’est notamment le cas sur les réseaux sociaux (influenceurs), lors des prises de paroles de dirigeants, dans les rapports d’impact ou RSE, sur les sites Web et sur les offres d’emploi.
Preuve que ces pratiques affectent la crédibilité des organisations et en particulier des entreprises, seuls 40 % des consommateurs français déclaraient en 2025 « faire globalement confiance aux marques », contre 58 % en 2004.
Dans ce contexte, il apparaît urgent que les citoyens soient mieux armés pour trier le bon grain de l’ivraie, dans le flot de communications qui les inondent. Face à une allégation environnementale, plusieurs signes peuvent alerter.
De façon générale, il s’agit de se méfier face aux communications qui véhiculent des promesses inappropriées, déloyales et excessives, d’être vigilants vis-à-vis des allégations ambiguës ou mal justifiées, qui n’apportent aucune preuve de ce qu’elles avancent, ou aux messages qui incitent à des comportements ou des modes de vie contraires à la transition écologique, tout en se parant de vertu environnementale.
De même, les éléments sonores ou visuels trompeurs, notamment les belles images et la représentation d’éléments naturels comme l’eau, la forêt, le ciel, le soleil, la banquise, que ce soit en vidéo, en photo, sous forme de pictogramme ou d’émoticônes, sont souvent utilisés pour « verdir » l’image d’un produit, sans que ces vertus ne soient étayées.
À l’inverse, des signes distinctifs positifs peuvent nous aider à repérer les performances environnementales des produits.
Différents textes législatifs ou réglementaires imposent aux fabricants ou aux importateurs d’indiquer certaines informations de nature environnementale sur les produits qu’ils mettent sur le marché. Ces informations obligatoires, comme l'indice de réparabilité, l'indice de durabilité ou l'étiquette énergie, donnent aux consommateurs les moyens de comparer les produits d’une même catégorie sur la base d’informations comparables relatives à leurs niveaux d'impacts, lors de l'achat des produits concernés (TV, smartphones, lave-linge, ordinateur…).
L’affichage environnemental, prévu par la loi Climat et résilience de 2021, doit permettre d’informer les citoyens sur les impacts environnementaux des produits qu’ils achètent de façon claire et transparente. D'application volontaire et encadrée, ce coût environnemental traduit, sous forme d’une valeur chiffrée, l’impact sur l’environnement tout au long du cycle de vie du produit. Il est, à ce stade, en cours de déploiement sur certaines catégories de produits, mais il est appelé à se généraliser à terme aux principaux produits de consommation et services.
Les labels sont un autre outil qui peuvent nous aider à faire un choix éclairé – autant qu’il peut nous perdre. Pour pouvoir s’y fier, il faut savoir se repérer dans la jungle des labels existants – plus de 350 ont été recensés par l’Ademe. Pour nous guider, l’agence recommande de privilégier en priorité ceux qui sont conformes à la norme ISO 14024 et a dressé 7 critères pour reconnaître un label de confiance. Elle a par ailleurs publié un outil en ligne qui rassemble de façon non exhaustive des labels garantissant vraiment un impact limité du point de vue environnemental, classés par catégories de produits. Il est à noter également que la directive européenne citée plus haut renforce également les règles applicables aux labels en imposant une vérification par un tiers.
Certaines entreprises sont tentées, face à ces réglementations, de tomber dans le « greenhushing », c’est-à-dire de réduire fortement toute communication sur les innovations leur permettant de réduire leur impact environnemental pour éviter le problème. Une telle attitude contribuera aussi à freiner la transition écologique : communiquer sur ces avancées est essentiel. Simplement faut-il le faire en ayant conscience que les mots et les images ont un sens et une influence sur les imaginaires, et que cette responsabilité doit être prise en compte.
Pour les aiguiller, des outils comme le guide anti-greenwashing et les tests en ligne existent pour se poser les bonnes questions en amont, renforcer les procédures de relecture et de validation, et renforcer une communication plus responsable. Les entreprises ont tout intérêt à éviter le piège du greenwashing au profit d’une communication juste, responsable et honnête sur les efforts qu’elles font et ceux qu’il leur reste à faire. Il ne s’agit pas de se montrer parfaites, mais d’être transparentes sur les atouts de leurs produits, leurs engagements en matière de RSE et leur marge de progression. C’est le seul moyen de regagner la confiance des consommateurs, mais aussi, en interne, des salariés.
Valérie Martin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
09.04.2026 à 10:39
Theresa Reinold, Professeure assistante de droit international, EDHEC Business School
One of the most striking aspects of the war with Iran is the extent to which it has highlighted the irrelevance of international organisations and multilateral approaches to resolving global conflicts.
If we take war as an indicator of the viability of the rules-based international order established after World War II, then we may well conclude that the “patient” is showing a very weak pulse.
The United Nations and the European Union are two organisations that epitomise the post-1945 global normative order – an order which is founded on principles such as the rule of law, non-aggression, and respect for sovereign states’ territorial integrity and political independence.
These principles, and the international organisations that embody then, are among the first casualties of the US-Israeli military campaign. How did this happen and what could be done in order to revitalise the patient?
Beginning with the UN, the war with Iran has made it abundantly clear that the system of collective security system established after 1945 is largely disabled when a major power decides to go it alone. The UN Security Council was designated as the guardian of international peace and security, yet has been paralysed by the veto powers of its permanent members, which have time and again used their influence to shield their own actions and those of their allies from international scrutiny.
When the US and Israel launched strikes against Iran in late February 2026, the Security Council initially failed to come up with any kind of meaningful response, let alone authorise any measures to de-escalate the crisis. Instead, the conflict unfolded outside the framework of international law, with unilateral military actions becoming the norm rather than remaining the exception.
The Security Council eventually adopted a resolution on March 11, which focused narrowly on condemning Iran’s attacks on Gulf states. The resolution, passed with 13 votes in favour and abstentions from Russia and China, labelled Iran’s actions as “egregious attacks” and demanded an immediate halt to its regional aggression.
While the resolution is an important signal that the patient is still alive and that the UN has some residual willingness to protect the fundamental norms on which it was built, the resolution’s one-sided approach underscores the Security Council’s persistent double standards: the resolution makes no mention of the initial US-Israeli strikes on Iran that triggered the escalation, nor does it address the broader context of the conflict, such as the legality of those strikes or the killing of Iran’s supreme leader.
The deafening silence of the UN Security Council in the face of US and Israeli breaches of peremptory international law suggests, once more, the use of double standards and further undermines the credibility of the UN Security Council as the guardian of international peace and security.
However, while the Council is currently more or less paralysed, there is a procedure that could revitalise the UN in this geopolitical crisis, namely the Uniting for Peace procedure.
This mechanism empowers the UN General Assembly in the case of Security Council deadlock. If this has not been used yet in the Iran crisis, it is because there has not been sufficient political will to do so.
Another noteworthy (yet unsurprising) aspect of the Iranian conflict is the complete irrelevance of the European Union as a mediator and peacemaker.
The founding impetus for the EU was to build peace on the basis of multilateral cooperation and the non-violent resolution of disputes.
The EU sees itself as a normative power which seeks to project its values worldwide through the use of soft power but tends to shy away from applying coercion.
Unfortunately, the world we live in is one where the most powerful states in the system have decided that violence is now the preferred tool for pursuing foreign policy objectives – either by removing unfriendly regimes from power or by usurping foreign territories through armed aggression.
In this dog-eat-dog world, Europe seems helpless. The EU was neither consulted in the run-up to the Iran war, nor is it actively taking part in hostilities. Instead, it is watching from the sidelines, issuing futile calls for restraint and sabotaging itself in internal quarrels. This is regrettable, given Europe’s historical leadership in negotiating the Iran nuclear deal.
Why does the EU find itself watching from the sidelines in the most important geopolitical event of 2026?
For one, because it – again – has failed to speak with one voice. Member states have adopted divergent positions, with some expressing support of US-Israeli actions and others calling for restraint.
Spain, for instance, has risked open conflict with the Trump administration over the use of its military bases for the war effort, while other critical players, including Germany and France have expressed a certain degree of sympathy for the air strikes.
While it is easy to criticise the EU for its lack of unity on important geopolitical questions, this multiplicity of voices is actually an intended design feature of this hybrid entity, which combines both supranational and intergovernmental elements in its institutional architecture.
At the same time, this design feature actively undermines EU agency in important geopolitical matters. Another factor condemning the EU to futility in geopolitical crises is Europe’s dependency on the US for security and the lack of a common defence policy underpinned by a European army.
However, the biggest obstacle to EU agency in geopolitics is neither institutional nor material. It is psychological. There is no will to lead, no will to use a muscular approach to counter Trump’s blatant disregard of multilateralism and international law (values that are at the heart of Europe’s identity), and a naive belief that the transatlantic relationship will somehow repair itself.
Instead of leveraging its economic and diplomatic weight to push back against unilateral US actions, the EU has often defaulted to reactive, conciliatory gestures, hoping that transatlantic harmony will somehow be restored by goodwill alone. This reflects a fundamental miscalculation: the belief that the US, under Trump or any other leader, will eventually recognise and reward European loyalty, even as Washington’s actions demonstrate the opposite.
The good news is that this can be changed. Mindsets can be changed, identities can be reconstructed, and agency can be built.
So no, multilateralism isn’t dead. International organisations such as the UN and the EU have not only put in place norms and mechanisms that would allow them to play a critical role in geopolitical crises, they also have enormous resources at their disposal that would enable them to play such a role.
The patient’s pulse is thus weak, but there are effective remedies available to strengthen it. Now, we must muster the political will to implement them.
A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!
Theresa Reinold ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
08.04.2026 à 17:46
Frédéric Bernard, Maître de conférences en neuropsychologie, Université de Strasbourg
Whether it’s documents in textbooks or fiction studied in literature classes, reading print remains a pillar in learning. But the audiobook craze opens up new possibilities.
Could listening to literary works become part of the curriculum as opposed to reading them? Is reading comprehension the same for listening to a text as it is for reading a book?’
A meta-analysis published in the Review of Educational Research and taking into account the results of 46 studies conducted between 1955 and 2020, including a total of 4,687 child and adult participants, Virginia Clinton-Lisell, university lecturer and researcher in Educational Psychology at the University of North Dakota, found that levels of understanding do not differ significantly when the same texts are read or listened to.
This result can be compared to a study by Madison Berl and her colleagues, published in 2010 in the journal Brain and Language, showing that children aged 7 to 12 years activate common brain regions when listening to and reading stories.
These regions notably include a frontotemporal network involved in semantic and syntactic processing shared between the two exploration modalities, which the authors describe as the “comprehension cortex.”
A comparable network, to which the parietal region was added, was also activated among adults who listened to or read the same story in the study by Fatma Deniz et al., published in 2019 in The Journal of Neuroscience.
However, the Clinton-Lisell meta-analysis also highlights that understanding is more improved in reading than in listening when participants can read at their own pace. Reading indeed offers the possibility to freely adjust your reading speed: slowing down when encountering a difficulty, going back or checking information. This cognitive control is not an option when listening to a text whose rhythm is predetermined, without the possibility of naturally backtracking.
Reading proves especially more effective than listening when evaluating general and inferential comprehension, which is not the case for literal comprehension.
Listening comes with an imposed rhythm and auditory structure, which makes it more difficult to implement comprehension strategies and generate inferences (conclusions based on evidence and reasoning) – or links between the ideas derived from the text and our personal knowledge and memories.
Reading, on the contrary, offers greater freedom around mental organisation and promotes interpretative creativity, supported by processes for regulating attention and cognitive control.
When it comes to getting students to develop deeper thinking, reading remains the most effective modality. It stimulates the creation of inferences, essential for establishing the coherence of a text – which guarantees fine and deep understanding.
However, listening to a text has certain advantages, particularly in terms of the experience it offers.
It involves perception of voices, intonations and prosodies which, for people who are sensitive to them, adds a more direct affective and emotional dimension than silent reading. It can make texts more easily accessible to students with reading difficulties, reducing visual load and supporting continuity of attention.
However, listening also demands auditory attention, which is in itself a specific skill, mobilising both working memory and sustained attention. The task requires the listener to maintain sustained vigilance when facing a continuous verbal flow, which can represent a challenge for some students, especially those with difficulties in concentration or auditory processing. In this respect, listening promotes auditory immersion that generally improves the overall understanding of the narrative, even if it does not always offer the same degree of control for getting to grips with the details of the text.
A voice recording can strengthen the listener’s engagement and enrich the reception of a narrative text by accentuating the presence of the characters and the pace of how the story unfolds. Reading, on the other hand, allows for a form of inner dialogue and suspends time, which is conducive to reflection.
In Lire le monde, anthropologist Michèle Petit very subtly describes the power of the reading experience at any age. In the chapter entitled “What is the purpose of reading?” she evokes several of its virtues, including how reading allows us to withdraw from the chaos, to open ourselves up to other worlds and to self-construct. The section “Lifting your eyes away from your book” illustrates this singular experience particularly well: reading a text allows us to conjure up a thought, an image or a memory – whereas listening, which is comparatively more linear, favours less.
In several of her books – the most recent being Bacteria to AI: Human Futures with Our Nonhuman Symbionts (2025), Professor of Literature Katherine Hayles puts forward the concept of “cognitive assembly” to denote hybrid systems in which humans interact with technologies that extend their mental abilities. While this framework primarily pertains to the relationship between humans and computers, it can be expanded to include how we become one with reading and listening material.
Reading a text or listening to it fall under distinct forms of cognitive assemblies; each one taps differently into our senses, attention, memory and emotions. Learning to recognise these differences – and choosing the most suitable option for different purposes (in-depth reading or immersive listening) and our preferences (for visual and tactile, even olfactory, or auditory pursuits) – amounts to forming a virtuous cognitive assembly, capable of leveraging the richness of each mode of interaction with language and culture.
For schools, the challenge is not whether to choose between reading and listening, but to teach students to recognise the inherent value of each learning mode and think about how to combine the two.
Awareness of the different modes of exploring a text is part of differentiated instruction that is attentive to specific learning styles. It paves the way for fostering metacognition in education: observing each individual’s own way of learning, adjusting pace, and choosing the most suitable medium to fit a given context.
Knowing when to read, when to listen and how to switch from one to the other – or even combine the two modes – is about learning to adjust your way of learning, and, more broadly, to think for yourself.
A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!
Frédéric Bernard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.