LePartisan.info À propos Podcasts Fil web Écologie Blogs REVUES Médias
Souscrire à ce flux
L’expertise universitaire, l’exigence journalistique

▸ Les 50 dernières parutions

03.05.2026 à 16:15

Aux obsèques aussi, la musique a un prix

Jordy Bony, Docteur et Professeur en droit à l'EM Lyon, EM Lyon Business School

Annika Romano, Professor of practice, Droit du numérique, propriété intellectuelle et contrats internationaux, EM Lyon Business School

Le tribunal judiciaire de Paris a jugé que la diffusion de musique lors des cérémonies d’obsèques constituait bien « une communication au public ».
Texte intégral (2361 mots)

Si, intuitivement, nous pensons les cérémonies funéraires comme des moments qui ne concernent que le cercle des proches et relèvent de l’intimité, le droit considère que la diffusion de musique dans ce cadre doit donner lieu à la rétribution des droits d’auteur. Une question juridique complexe qui s’impose dans un moment de grande vulnérabilité et qui mérite d’être mieux comprise.


Entre hommage personnalisé et cadre réglementaire une décision rendue le 31 janvier 2024 par le tribunal judiciaire de Paris invite à reconsidérer les pratiques du secteur funéraire en jugeant que la diffusion de musique lors des cérémonies funéraires constitue un acte de communication au public au sens du Code de la propriété intellectuelle, ce qui entraîne la rémunération des auteurs par l’intermédiaire de la Societé des auteurs, compositeurs et éditeurs de musique (Sacem).

Cette évolution soulève toutefois plusieurs questions quant à la conciliation entre le respect des droits d’auteur et le caractère sensible et intime des funérailles.

C’est l’occasion de revenir sur les fondements juridiques du droit d’auteur, du cas particulier des cérémonies funéraires et sur les questions que tout cela pose pour l’avenir juridique de ce secteur.

Fondements juridiques du droit d’auteur

Le droit d’auteur regroupe les droits dont dispose un auteur sur ses œuvres de l’esprit, c’est-à-dire des créations originales, telles que les œuvres littéraires, plastiques, photographiques, logicielles ou musicales. En matière musicale, les droits d’auteur protègent à la fois le compositeur et le parolier, c’est-à-dire l’auteur du texte.

Afin d’être protégées, toutefois, ces œuvres de l’esprit doivent présenter un caractère « original ». Autrement dit, l’œuvre doit porter l’empreinte de la personnalité de son auteur ou refléter un apport intellectuel ou un effort créatif. La jurisprudence a progressivement permis de définir plus clairement cet élément de l’originalité. En particulier, dans l’arrêt Painer du 1ᵉʳ décembre 2011, la Cour de justice de l’Union européenne renforce la reconnaissance de la personnalité créative de l’auteur, en affirmant que l’originalité d’une œuvre est définie comme le reflet de sa personnalité qui se manifeste à travers des choix libres et créatifs.

De surcroît, l’originalité d’une œuvre musicale possède des éléments qui lui sont propres, notamment sa nature. Selon la Cour de cassation, en effet, l’originalité de l’œuvre musicale s’apprécie à l’écoute de l’ensemble de l’œuvre, au regard de ses éléments constitutifs que sont la mélodie, l’harmonie et le rythme.

De manière plus générale, le droit d’auteur repose sur un ensemble de principes, clairement énoncés dans le Code de la propriété intellectuelle, qui définissent le cadre de protection des œuvres artistiques et littéraires, dont les œuvres musicales, les enregistrements et les reproductions Notamment, l’article L. 111-1 consacre le droit exclusif de l’auteur du seul fait de la création, la protection de l’œuvre ne nécessite aucune formalité. Par conséquent, aucun dépôt constitutif n’est, en théorie, nécessaire afin d’acquérir ce droit exclusif sur sa musique.

Malgré ce principe, en cas de litige sur la paternité, l’auteur devra être en mesure de donner la preuve de la date de création de l’œuvre. À cette fin, il pourra déposer une enveloppe Soleau auprès de l’Institut national de la propriété industrielle (Inpi) afin d’horodater la création ou déposer l’œuvre chez un notaire, un huissier de justice ou faire appel à une société d’auteurs.

Ce droit exclusif de l’auteur, qui est en théorie opposable à tous, compte des attributs d’ordre patrimonial, à savoir les droits sur l’exploitation de l’œuvre, mais aussi des droits moraux, notamment le droit à la paternité de l’œuvre, à sa divulgation et son respect.

Si le droit moral est perpétuel et incessible, les droits patrimoniaux ont une durée limitée à la vie de l’auteur et durent soixante-dix ans après sa mort. Parmi ces droits patrimoniaux figure le droit de représentation et de communication au public des œuvres musicales, défini aux articles L. 122-1 et L. 122-2 du Code de la propriété intellectuelle.

Ces dispositions imposent notamment que toute diffusion d’une œuvre en dehors du cercle strictement privé, entendu comme un groupe composé d’un nombre restreint de proches, fasse l’objet d’une autorisation préalable et surtout d’une rémunération de l’auteur. C’est là que le bât blesse en ce qui concerne les cérémonies funéraires. Ne sont-elles pas organisées dans le cadre privé, avec un groupe restreint de proches ?

Le cas particulier des cérémonies funéraires

C’est ici que le sujet devient délicat. En apparence, les funérailles relèvent de l’intime : elles réunissent famille, proches et quelques connaissances dans un moment de recueillement. Beaucoup seraient donc tentés de voir dans la diffusion d’une chanson un acte relevant naturellement du cadre privé. Pourtant, en droit d’auteur, cette intuition ne suffit pas. Le Code de la propriété intellectuelle cité ci-dessus ne vise pas toute situation simplement « privée » au sens courant, mais uniquement les représentations privées et gratuites effectuées exclusivement dans un cercle de famille. Cette exception est d’interprétation stricte.

C’est précisément sur ce point qu’est intervenue la décision rendue par le tribunal judiciaire de Paris, le 31 janvier 2024. Saisi d’un litige opposant notamment la Sacem à des fédérations du secteur funéraire, le tribunal a jugé que la diffusion de musique lors des cérémonies d’obsèques constituait bien « une communication au public ». Il a donc écarté l’argument selon lequel ces diffusions relèveraient automatiquement du cercle de famille. Autrement dit, le caractère solennel, émotionnel ou même familial d’une cérémonie funéraire ne suffit pas, à lui seul, à la faire échapper au droit d’auteur.

Cela peut sembler assez logique : la qualification de « communication au public » repose sur des critères objectifs, tenant notamment à la nature de la diffusion et au cercle des personnes qui y ont accès. Or, le caractère solennel, émotionnel ou même familial d’une cérémonie funéraire n’a pas, en lui-même, pour effet de soustraire cette diffusion au droit d’auteur.

D’un point de vue très pragmatique, la solution peut toutefois sembler contre-intuitive. Dans le langage courant, les obsèques sont souvent perçues comme un événement privé. Mais le droit raisonne autrement. Ce qui compte, ce n’est pas seulement l’intimité ressentie par les participants, mais aussi le cadre dans lequel la musique est diffusée. Lorsqu’une œuvre musicale est intégrée à une cérémonie organisée par un opérateur funéraire, dans le cadre d’une prestation de services, avec des moyens techniques de diffusion mis à disposition de plusieurs personnes, les juges peuvent y voir un acte de communication au public. La cérémonie demeure un moment personnel pour les proches, sans pour autant relever nécessairement, au sens juridique, du cercle de famille.

Il faut d’ailleurs souligner un point important : la question ne revient pas à demander si une famille endeuillée devra elle-même régler des droits d’auteur pour chaque morceau choisi. En pratique, le débat concerne surtout les opérateurs funéraires, c’est-à-dire les professionnels qui organisent la cérémonie et assurent la diffusion de musique dans le cadre de leur activité. C’est à ce niveau que s’organise la relation avec la Sacem et que se pose la question de la rémunération des auteurs. Cette précision compte, car elle montre que la controverse vise moins les familles que l’encadrement juridique d’une prestation professionnelle intégrant des œuvres protégées. Dernier élément rassurant : cela ne change quasiment rien sur la facture. En effet, la redevance coûte entre 1,6 et 3 euros par cérémonie aux opérateurs.

Reste que la solution suscite un malaise compréhensible. Les funérailles ne sont ni un spectacle ni un simple service marchand comme un autre. La musique y joue souvent un rôle symbolique fort : elle accompagne le deuil, rappelle la personnalité du défunt et participe à la singularité de l’hommage. C’est pourquoi la soumission de ces diffusions au droit d’auteur peut apparaître, pour certains, comme une intrusion de la logique patrimoniale dans un moment de grande vulnérabilité humaine.

À l’inverse, on peut aussi soutenir qu’il n’existe pas, en principe, de raison de priver les auteurs de rémunération au seul motif que leurs œuvres sont utilisées dans un contexte funéraire. Le véritable enjeu est donc moins d’opposer brutalement les familles aux titulaires de droits que de trouver un équilibre entre la dignité des cérémonies et le respect des règles de propriété intellectuelle.

Quoi qu’il en soit, tout cela a donné naissance à la signature d’un compromis sectoriel en 2025 entre la Sacem et les opérateurs du funéraires. Cet accord a permis d’abaisser les coûts et de simplifier les modalités déclaratives pour les professionnels. Sur le plan pratique, il constitue donc une réponse utile. Il ne tranche toutefois pas, à lui seul, la question de fond. La réduction des tarifs et l’organisation administrative du dispositif n’effacent ni le débat sur la qualification juridique des cérémonies, ni l’inconfort symbolique que suscite l’application du droit d’auteur à un moment de deuil.

Le compromis apaise la pratique, sans nécessairement clore la réflexion, laquelle peut d’ailleurs s’étendre au-delà du seul secteur funéraire.

Repenser les rapports entre pratiques funéraires et catégories juridiques établies

Dès lors, plusieurs questions peuvent être posées pour mieux envisager l’avenir et anticiper les litiges.

D’abord, la notion de « cercle de famille » est-elle encore adaptée aux rituels contemporains du deuil ? Le contentieux relatif à la musique diffusée lors des obsèques révèle peut-être les limites de cette notion juridique ancienne. En refusant d’assimiler automatiquement les cérémonies funéraires à cette exception, le tribunal judiciaire de Paris a rappelé que le droit d’auteur retient une conception étroite de la représentation privée. Mais cette rigueur interroge : les formes contemporaines du deuil, souvent plus ouvertes, plus personnalisées et parfois organisées par des opérateurs funéraires, entrent-elles encore dans les catégories classiques du droit de la propriété intellectuelle ?

Plus largement, cela revient à se demander jusqu’où la cérémonie funéraire peut être assimilée à une prestation de services comme une autre. Le raisonnement des juges repose en partie sur le fait que la diffusion musicale s’insère dans une prestation organisée par un professionnel. Cette logique est juridiquement cohérente, mais elle soulève une question plus large : la cérémonie funéraire doit-elle être analysée comme une simple prestation de services comportant un fond musical ou comme un rituel social et humain si particulier qu’il appelle un traitement distinct ? En d’autres termes, la qualification juridique actuelle rend peut-être compte du fonctionnement économique du secteur, sans épouser pleinement la singularité sociale des obsèques. Le compromis sectoriel de 2025 précité, par exemple, ne permet pas de répondre à cette question.

Pour finir, cette affaire montre combien certaines catégories du droit peuvent paraître contre-intuitives au grand public. Dans le langage courant, les funérailles sont perçues comme un moment intime ; en droit d’auteur, cela ne suffit pas à relever du cercle de famille. L’écart entre ces deux perceptions explique une grande part de l’émotion suscitée par le sujet. Peut-être faut-il donc, au-delà du débat de fond, mieux expliquer la logique du droit positif : non pour éteindre la critique, mais pour permettre qu’elle se formule sur des bases plus précises et mieux comprises.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

03.05.2026 à 16:15

« Pourquoi l’attitude psychanalytique me sert de boussole dans ce monde chaotique »

Nicola Redhouse, Lecturer, Publishing and Editing, The University of Melbourne

Face à un monde instable et violent, il est tentant de se raccrocher à des certitudes. Mais c’est peut-être son contraire – la curiosité – dont nous avons besoin.
Texte intégral (3033 mots)
« La curiosité est l’opposé du fanatisme ; elle nous conduit à nous interroger : “Existe-t-il d’autres vérités ?” », écrit le psychanalyste Mannie Sher. Triff/Shutterstock

Face à un monde instable et violent, il est tentant de se raccrocher à des certitudes et à des logiques d’opposition binaires et partisanes. L’essayiste Nicola Redhouse s’inspire du psychanalyste Wilfred Bion (1897-1979), selon qui être en prise avec la réalité implique de supporter l’incertitude. En un sens positif, cette incertitude permet de déployer une ouverture d’esprit et une curiosité salutaire.


Lorsque j’enseignais l’écriture de nouvelles, je citais souvent Meg Wolitzer : « Vous vous retrouverez dans un endroit que vous ne connaissiez pas. Un endroit où vous ne pensiez pas aller. »

Le principe, disais-je à mes étudiants, c’est de rendre le lecteur curieux. C’était il y a dix ans. Depuis, la curiosité semble passée de mode.

L’IA encourage des réponses rapides, souvent fragiles, plutôt que des enquêtes patientes et nuancées (alors qu’en ce moment, une culture du mensonge à la Maison Blanche – comme lorsque Donald Trump a affirmé qu’un changement de régime avait eu lieu en Iran – exigerait un travail de vérification rigoureux). L’IA favorise aussi des formes de divertissement brèves et superficielles, dans un monde où 36 % des 18–24 ans s’informent via TikTok.

Aujourd’hui, le monde paraît particulièrement instable. De nouveaux conflits en Iran et au Liban s’ajoutent à ceux d’Ukraine et de Gaza – où un cessez-le-feu tient, pour l’instant. Trump se dispute avec le pape. Le seul point lumineux : la défaite de l’autocrate Viktor Orban en Hongrie. Tout cela sur fond d’accélération de la catastrophe climatique.

Dans ces conditions, il n’est pas étonnant que nous cherchions de la certitude. Mais c’est peut-être son contraire – la curiosité – dont nous avons besoin. Elle pourrait rouvrir un peu les possibles, nous permettre de nous intéresser à ce que ressent l’autre, à la manière dont il souffre, ou même à ce qui pourrait nous faire rire ensemble.

Ma vision du monde a été profondément marquée par le psychanalyste du XXe siècle Wilfred Bion et par ce que l’on appelle « l’attitude psychanalytique » : une curiosité ouverte, disponible, dépourvue de précipitation. Les idées de Bion offrent, me semble-t-il, une manière de rencontrer le monde – et peut-être d’en atténuer les formes actuelles de fondamentalisme.

L’attitude psychanalytique

Avec le temps, je me suis moins intéressée aux réponses qu’à comprendre ce qui nous amène à nous questionner – à tâtonner à l’aveugle. À essayer d’imaginer ce que cela ferait d’être hors de mon propre corps, ou dans la tête de quelqu’un d’autre. « La curiosité est l’opposé du fanatisme ; elle nous conduit à nous interroger : “Existe-t-il d’autres vérités ?” », écrit le psychothérapeute Mannie Sher.

Pour Wilfred Bion, la possibilité même de penser – et d’être en prise avec la réalité – dépend de notre capacité à supporter l’incertitude. Sans cela, la pensée bascule facilement dans la peur, la colère, ou des fantasmes d’anéantissement.

Wilfred Bion. Facebook

Bion comprenait qu’adopter une posture de savoir préalable empêchait la possibilité d’une compréhension véritable. Son travail s’appuyait sur ce que le poète John Keats considérait comme essentielle à toute grande pensée – la « capacité négative » qu’il définit comme « la faculté chez un homme de savoir exister au sein des incertitudes, des mystères, des doutes, sans vouloir d’irritante façon rejoindre à tout prix le terrain des faits et de la raison ».

La théorie de Bion prend sa source dans la relation mère-bébé. La mère ou la personne qui s’occupe de l’enfant adopte une forme d’écoute et d’attention et supporte de ne pas comprendre ce que veut le bébé. Elle peut contenir la rage ou la déception du nourrisson par le langage et par des gestes apaisants – comme gazouiller ou bercer – jusqu’à comprendre ce qu’il exprime en répondant à ses besoins.

« L’attitude psychanalytique » est devenue la pierre angulaire d’un travail fécond pour ceux qui s’inspirent de la pensée de Bion. Le psychothérapeute Robert Snell la décrit comme « une orientation émotionnelle… un engagement, fondé sur le respect, à maintenir une posture radicalement ouverte d’esprit ».

Confronter des vérités complexes

Le partisanisme, l’indignation et les divisions profondes caractérisent de plus en plus notre culture politique et idéologique.

Le conflit à Gaza est devenu un point de cristallisation. Prendre position – ou être perçu comme appartenant à un camp – comporte désormais des risques réels.

« Le conflit entre Israël et Gaza est la question la plus polarisante du XXIe siècle », déclarait un participant à un sondage de 2024.

Sur les réseaux sociaux, la vitesse de circulation des informations fausses ou incendiaires, combinée à la brièveté imposée, renforce cette polarisation. Il en résulte une forme de certitude assénée qui empêche d’entendre d’autres vérités – celles, vécues et émotionnelles, d’individus ou de communautés qui ne sont pas les nôtres.

Ces vérités, souvent hors de nos algorithmes, demandent que nous baissions un peu nos défenses et que nous écoutions vraiment – pour être touchés.

Ces dernières années, cela m’est arrivé. Je suis juive, et j’ai été bouleversée de voir combien, après le 7 octobre, certains ont nié ou minimisé les attaques du Hamas. Mais j’ai aussi commencé à me demander ce que je ne savais pas – ou ce que j’avais évité de comprendre. Je n’avais été formée qu’à certaines parties de l’histoire d’Israël. Je suis devenue curieuse.

Cela a ouvert ma pensée à des expériences auxquelles je ne m’étais pas assez confrontée : j’ai écouté des témoignages palestiniens, lu des récits historiques palestiniens, regardé des images de Gaza – en m’efforçant de le faire sans le poids de ce que je croyais déjà savoir. J’en ai été profondément bouleversée.

Je conservais le sentiment d’horreur et de chagrin face aux événements du 7-Octobre ainsi que le souvenir de mes propres expériences récentes d’antisémitisme.

La compréhension à laquelle je suis parvenue était d’ordre émotionnel. Elle est contenue dans les mots d’un survivant de la Shoah manifestant en Israël : « Je ne pense pas que nous puissions nous souvenir de notre souffrance sans reconnaître celle de Gaza… Elle occupe la même place dans mon cœur. »

Nous ne pouvons parvenir à ce type de connaissance que si nous pouvons, comme l’écrit Sher, « faire notre deuil sans accusation […] rester liés sans sombrer dans l’idéologie […] préserver la capacité de penser au milieu du bruit de la certitude ».

Ces vérités peuvent être désordonnées : des récits où les coupables sont aussi des victimes, ou l’inverse ; où des individus ordinaires commettent des actes terribles au nom de la bureaucratie ; où des sociétés entières, sous l’emprise d’un pouvoir ou d’un système brutal, agissent mal – ou n’agissent pas du tout. Elles peuvent même impliquer notre responsabilité.

Se détourner de ces vérités ne fait que renforcer les oppositions simples – ce « nous » contre « eux » – dans lesquelles peuvent s’enraciner des horreurs comme les génocides, les pogroms ou les nettoyages ethniques.

Attention, algorithmes et « faits alternatifs »

« Les intérêts qui sont les nôtres, l’attention que nous développons à certaines choses semblent être les meilleurs moyens d’accéder aux vies que nous désirons », écrit le psychanalyste Adam Phillips.

Toute forme d’attention autre que fragmentée est devenue un luxe. Tout semble accéléré, y compris le processus de recueil des informations et de formation de nos opinions.

Une analyse de 35 millions de publications Facebook a montré que 75 % des liens partagés n’avaient même pas été lus par ceux qui les publiaient. Une étude de grande échelle sur Twitter (désormais X) a montré que la position idéologique d’un utilisateur dans un débat prédit ses positions dans d’autres. Nous tirons des vérités de discours de ceux avec qui nous sommes déjà d’accord.

L’« autre camp » propose souvent une autre vérité. L’écart se creuse.

Qu’est-ce qui est encore réel, pourraient demander les plus jeunes, à une époque où l’on peine à distinguer une chanson humaine d’une chanson générée par une IA ; où les arnaques se multiplient ; où les sites satiriques désorientent plus qu’ils ne font rire.

Sur les réseaux sociaux, où nous passons plus de temps que jamais, les contraintes d’espace et d’immédiateté façonnent la manière dont nous formulons nos pensées, en favorisant des conclusions tranchées.

Nous savons déjà – et nous pensons en savoir assez. Des histoires entières sont réduites à des slogans. Des traumas personnels réduits à 30 caractères. J’aime, je ris, j’adore, je compatis, je m’indigne. Un seul clic.

Ce type de savoir ne peut pas accueillir le réel.

Une incertitude féconde

Cela laisse aussi peu de place à une position de non-savoir – ce que j’appelle une « incertitude générative ». Une position qui peut ouvrir à un déplacement, à un changement. Un point de départ plutôt qu’une fin.

Il y a des années, après une table ronde, une femme s’est approchée de moi pour me dire qu’elle n’achèterait pas mon livre. « Il a l’air de poser beaucoup de questions, et moi je veux des réponses. » À l’époque, cela m’avait amusée. Aujourd’hui, beaucoup moins.

Avec sa logique de repérage de motifs, l’IA propose précisément ce type de savoir fermé – sans place pour l’incertitude. Elle peut être utile pour traiter certaines données, par exemple en identifiant des maladies rares. Mais elle commet des erreurs dès qu’il s’agit de contexte, donnant parfois des conseils dangereux, notamment sur les troubles alimentaires ou la dépression.

Les réponses automatisées répondent à notre désir de savoir sans passer par le travail de recherche – un processus qui demande du temps, de la réflexion, parfois une lecture étendue. C’est pour cette raison que la philosophe Gillian Rose a critiqué la tendance à écrire « en tant que » – « en tant que femme », « en tant que juive » – comme si l’identité pouvait tenir lieu de savoir.

« Ma trajectoire ne suit aucune logique de ce type », écrit-elle. « Si je savais qui ou ce que je suis, je n’écrirais pas. » Comme tant d’autres, elle écrit pour le découvrir.

Accueillir la confusion

En dehors du cabinet de psychanalyse, nous pourrions mobiliser cette « attitude psychanalytique » pour transformer l’indignation brutale qui domine tant de prises de parole en ligne en une curiosité tournée vers nous-mêmes – afin de mieux comprendre nos propres désirs et préjugés. « Nous devrions accueillir la confusion comme un état d’esprit souhaitable », écrit le psychanalyste Stephen Seligman.

Il ne s’agit pas de renoncer à la vérité. Nous devons nous baser sur les témoignages, les archives, les faits afin de poser un jugement « discipliné et sobre » selon les mots de Raimond Gaita.

Le savoir auquel j’aspire naît de cette double exigence : une ouverture réelle et une fidélité aux faits.

Nous devons aussi être capables de supporter l’ambivalence du réel, sans céder à ce que le philosophe Paul Katsafanas appelle une « politique du ressentiment ».

La peur ou la haine qui nous rendent si sûrs de la faute de l’autre doivent être tempérées par une capacité à s’intéresser à l’autre.

La curiosité, alliée à la colère, peut produire ce que la philosophe Martha Nussbaum appelle une « colère de transition » – une colère tournée vers la réparation plutôt que la vengeance.

Les leçons de la littérature

L’une de mes nouvelles préférées est « The Lottery », de Shirley Jackson, récit troublant d’un village où l’on procède à une lapidation rituelle. Le choc – comprendre que le tirage au sort désigne celui qui sera mis à mort  – est vertigineux.

Lors de sa publication dans le New Yorker en 1948, le texte a suscité incompréhension et protestations. Beaucoup de lecteurs pensaient qu’un tel village existait réellement.

Aujourd’hui, cette histoire de violence collective ressemble presque à un reportage. Mais la forme littéraire qui me semble la plus à même de nous aider aujourd’hui est le poème.

Le psychanalyste et poète David Shaddock écrit que l’imagination poétique, comme le travail analytique, ouvre un espace de vérité psychique : Un « champ qui s’ouvre lorsque le réel est reconnu ». Nous sommes touchés – et cette capacité à être touchés nous ancre dans le réel.

La poésie peut désarmer nos certitudes et créer un espace où quelque chose de nouveau peut advenir. Un espace d’imagination où nous cessons d’être sûrs – pour redevenir curieux.

The Conversation

Dr Mannie Sher est un parent de l'auteur

PDF

03.05.2026 à 08:40

Pourquoi les États-Uniens se serrent la ceinture mais peuvent dépenser près de 20 euros pour un smoothie

Yuanyuan (Gina) Cui, Assistant Professor of Marketing, Coastal Carolina University

Patrick van Esch, Associate Professor of Marketing, Coastal Carolina University

Et si le vrai luxe, aujourd’hui, se trouvait dans l’assiette ? Derrière l’essor de l’alimentation premium, une transformation des façons de consommer et de se raconter.
Texte intégral (2395 mots)
Alors que le pouvoir d’achat est sous pression, les produits alimentaires haut de gamme prospèrent. Pxhere, CC BY

Derrière le succès des smoothies de luxe, une mécanique psychologique : en période d’incertitude, les consommateurs se tournent vers de petits achats premium pour reprendre le contrôle.


Face à la crise du pouvoir d’achat, les Américains renoncent aux dîners au restaurant, repoussent l’achat d’une voiture et traquent les bonnes affaires en supermarché. Sur fond d’inquiétudes liées aux droits de douane et, plus largement, au coût de la vie, la confiance des consommateurs est tombée à des niveaux inédits depuis plus de dix ans, selon The Conference Board, un cercle de réflexion économique. À ce stade, ce sont les consommateurs les plus aisés qui portent l’essentiel des dépenses dans l’économie américaine.

Comment expliquer, dès lors, le succès spectaculaire des smoothies à 22 dollars (soit environ 19 euros) commercialisés là-bas par la chaîne spécialisée dans l’alimentation « healthy » Erewhon ?

Cette chaîne d’épiceries de Los Angeles qui vend ces préparations sophistiquées se porte si bien qu’elle a ouvert trois nouveaux magasins en 2025 – sa plus forte expansion depuis 2011. Elle générerait entre 1 500 et 2 100 euros de chiffre d’affaires par mètre carré, soit jusqu’à cinq fois plus qu’un supermarché américain classique.

Et il ne s’agit pas de simples smoothies : on y trouve des ingrédients comme du gel d’algues marines haut de gamme, des champignons adaptogènes ou encore des peptides de collagène. Souvent, ces boissons portent même le nom d’une célébrité.

Tout cela s’inscrit dans l’essor plus large du marché américain des produits alimentaires de spécialité, qui a dépassé les 187 milliards d’euros – soit une hausse de près de 150 % en dix ans, selon la Specialty Food Association. Une progression bien supérieure à celle des ventes globales de produits alimentaires aux États-Unis, qui n’ont augmenté que d’environ 47 % sur la même période.

Des données indépendantes du cabinet d’études Circana confirment cette tendance : malgré l’inflation, qui pousse de nombreux consommateurs à se tourner vers des marques de distributeur, les produits premium et de spécialité résistent et ont même continué à gagner des parts de marché en valeur jusqu’en 2025. Sur TikTok, les créateurs qui filmaient autrefois leurs achats de sacs de luxe publient désormais des plateaux de conserves de poisson à 12 dollars. Quant aux tablettes de chocolat artisanal vendues entre 8 et 12 dollars, elles sont désormais présentées, sans ironie, comme du « self-care ».

Si les consommateurs sont aussi anxieux, pourquoi continuent-ils à se faire plaisir ? En réalité, il n’y a pas de contradiction : il s’agit de deux expressions d’une même réaction psychologique.

Lorsque les individus ont le sentiment de perdre le contrôle de leur vie, ils se tournent vers des achats modestes mais coûteux qui permettent d’afficher certaines valeurs. C’est la véritable raison pour laquelle les produits alimentaires premium sont en plein essor tandis que certaines marques de luxe traditionnelles peinent, expliquent des spécialistes de la psychologie du consommateur.

Nous sommes professeurs en comportement du consommateur et marketing et nous étudions la manière dont les individus prennent leurs décisions d’achat en période d’incertitude économique ainsi que l’écart entre ce qu’ils ressentent et la façon dont ils dépensent réellement. Nos travaux mettent en évidence un constat récurrent : lorsque les gens ont le sentiment de perdre la main sur les grandes dimensions de leur vie, ils cherchent à reprendre le contrôle sur les petites.

Un détour par la trousse de maquillage

Les économistes ont déjà observé ce phénomène.

En 2001, Leonard Lauder, président d’Estée Lauder, a forgé l’expression « indice du rouge à lèvres » après avoir constaté que les ventes de rouges à lèvres avaient augmenté de 11 % à la suite des attentats du 11 septembre 2001. Lorsque les produits de luxe deviennent inaccessibles, les consommateurs se tournent vers des substituts plus modestes. Un rouge à lèvres à 60 dollars (plus de 51 euros) reste cher pour un produit cosmétique, mais comparé au sac Hermès qu’il remplace symboliquement, il donne l’impression d’être une bonne affaire.

Hier comme aujourd’hui, les individus cherchent à reprendre prise là où ils le peuvent. Les psychologues de la consommation parlent de « consommation compensatoire » : acheter pour reprendre le contrôle lorsque la vie semble nous échapper.

Même si les ventes de produits de beauté ralentissent actuellement, cette impulsion n’a pas disparu. Elle a simplement trouvé de nouveaux terrains d’expression tels que l’alimentation.

À bien des égards, la nourriture est un support idéal pour cette forme de compensation. Elle est d’abord sensorielle : on la goûte, on la sent, on la savoure. Elle est aussi émotionnelle, chargée d’associations liées au réconfort, au soin et au foyer. Et elle est visible : à l’ère des réseaux sociaux, ce que l’on mange est devenu aussi exposé que ce que l’on porte. Les produits alimentaires premium ne se consomment pas seulement – ils se filment, se publient, se mettent en scène.

Surtout, ils restent relativement accessibles. Dix-neuf euros peuvent sembler un prix absurde pour une boisson, mais c’est peu comparé à une retraite bien-être à plus de 300 euros.

Se faire plaisir, avec un supplément de vertu

C’est ce qui distingue la situation actuelle de l’indice du rouge à lèvres de Lauder. Cet exemple relevait avant tout du plaisir : les consommateurs cherchaient une forme de consolation dans de petits achats indulgents. Aujourd’hui, les produits alimentaires premium ajoutent une dimension supplémentaire : ils sont perçus comme vertueux.

Un smoothie d’Erewhon n’est pas seulement une gourmandise. Il est bio, enrichi en superaliments et aligné avec une logique de bien-être. De la même manière, une bouteille d’huile d’olive monocépage à 17 euros n’est pas qu’une matière grasse pour cuisiner ; c’est un engagement en faveur du savoir-faire et de la santé. Quant aux conserves de poisson premium, elles ne sont plus un produit de dépannage : ce sont des protéines issues de la pêche sauvage, durable, présentées dans des emballages suffisamment soignés pour être exposés.

Cette mise en scène de la vertu accomplit le travail psychologique le plus important au moment de l’achat : elle transforme une faiblesse en investissement sur soi.

On ne dépense pas de manière excessive en période difficile ; on fait quelque chose pour sa santé. On n’est pas frivole ; on soutient de petits producteurs. Les recherches montrent que les consommateurs ont besoin de raisons pour justifier des achats coups de cœur, surtout en période d’anxiété financière – et les produits alimentaires premium sont particulièrement efficaces, car cette justification est intégrée au produit lui-même.

Le label bio, le récit de durabilité, le cadrage autour du bien-être : tout concourt à dissiper la culpabilité avant même qu’elle n’apparaisse.

Consommé en cuisine… et sur les réseaux

Il y a une raison à l’accélération de cette tendance. Beaucoup d’achats alimentaires premium sont consommés deux fois – une première fois physiquement, une seconde fois numériquement. L’achat d’un smoothie chez Erewhon ne concerne pas seulement la boisson ; il tient aussi au contenu qu’elle permet de produire. Le plateau de conserves de poisson est dressé pour Instagram avant même que quelqu’un n’y goûte.

Les réseaux sociaux ne se contentent pas d’amplifier la tendance ; ils la complètent. En publiant une photo ou une vidéo de ce smoothie, on affiche son attachement au bien-être, à la qualité et à une forme d’intentionnalité. À un moment où exhiber un sac de créateur peut paraître déplacé, l’alimentation offre une couverture idéale. C’est la démonstration de statut la plus acceptable qui soit. Rien d’étonnant, dès lors, à ce qu’une vidéo YouTube d’un « haul », ces vidéos où quelqu’un montre tout ce qu’il a acheté en une séance de shopping, réalisée chez Erewhon par la créatrice culinaire @KarissaEats ait dépassé les 14 millions de vues.

Tout cela soulève une question légitime : la montée de l’ « économie en K » suffit-elle à expliquer ce boom ? Pour de nombreux économistes, les ménages à revenus faibles et intermédiaires réduisent leurs dépenses, pris en étau par le coût de la santé, du logement ou encore de l’éducation. À l’inverse, les consommateurs les plus aisés compensent largement, en continuant à dépenser et à tirer la croissance du produit intérieur brut.

Dans ce contexte, les produits alimentaires premium prospèrent parce qu’ils restent accessibles pour ceux qui vont bien financièrement, tandis que les autres se serrent la ceinture. C’est en partie vrai. Mais cette explication ne suffit pas à rendre compte d’un autre déplacement : pourquoi les consommateurs aisés délaissent certaines dépenses ostentatoires, comme les sacs de créateurs, au profit de courses alimentaires haut de gamme.

C’est pourquoi cette analyse centrée sur la « vertu » est si déterminante. Si la question était uniquement celle du pouvoir d’achat, le luxe traditionnel serait lui aussi en plein essor. Or, ce n’est pas le cas.

En témoigne LVMH, le groupe derrière Louis Vuitton et Dior, dont la division Mode a vu ses profits reculer de 13 % en 2025.

Même les consommateurs disposant de revenus confortables ont besoin d’une forme de permission psychologique pour dépenser en période d’incertitude. Le phénomène des produits alimentaires premium tient donc moins à la question de savoir qui peut se permettre de dépenser qu’à celle de comprendre pourquoi l’alimentation est devenue le terrain privilégié de ces dépenses.

Et lorsqu’un smoothie devient un symbole de statut, cela dit quelque chose de plus large sur la sécurité économique. Les prix alimentaires ont augmenté de près de 30 % depuis 2019, contre 23 % pour l’ensemble des prix à la consommation, selon le Bureau of Labor Statistics. Pour une famille au budget serré, 19 euros, ce n’est pas un smoothie : c’est un dîner.

Le besoin de contrôle, le désir d’identité, le réconfort qu’apporte une forme de légitimation morale – ces mécanismes sont universels. Une mère célibataire cumulant deux emplois ressent le même besoin de reprendre la main que l’influenceuse qui filme ses courses. Simplement, les achats capables de répondre à ces besoins sont de plus en plus contraints par les prix. La justification ne fonctionne que si l’on peut se permettre ce genre de dépense.

Ce qu’il y a vraiment dans le panier

La prochaine fois que vous êtes au supermarché et que vous tendez la main vers un produit un peu plus cher que nécessaire, marquez une pause – non pour le reposer, mais pour réfléchir à ce que vous êtes réellement en train de chercher.

Il y a de fortes chances que ce ne soit pas vraiment le produit en lui-même. C’est le sentiment de choisir quelque chose, dans un moment où tout semble échapper au contrôle. Un smoothie à 19 euros n’est jamais seulement un smoothie. C’est ce que l’on va chercher quand on a besoin de se donner la permission d’aller bien.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

03.05.2026 à 08:39

L’IA sait tout produire… mais pas encore juger : pourquoi nous devenons des opérateurs de l’abondance

Bruno Deffains, Professeur de Sciences Économique, Membre honoraire de l'Institut Universitaire de France, Université Paris-Panthéon-Assas

Le développement des IA ne va pas supprimer tous les postes de cols blancs, mais il va les changer. Les compétences à posséder vont évoluer. Comment s’adapter ?
Texte intégral (1967 mots)

Et si on ne posait pas la bonne question quand on s’inquiète de l’impact des intelligences artificielles sur l’emploi ? Au-delà des emplois potentiellement détruits ou créés, que restera-t-il, et que doit-il rester, à l’humain ? Loin de remplacer tous les cols blancs, les IA vont modifier le rôle dévolu à chacun, ce qui devrait mobiliser l’enseignement pour apprendre aux plus jeunes à devenir des opérateurs d’abondance.


Le 10 mars 2026, le PDG de Nvidia Jensen Huang publiait un essai déclarant que l’IA crée plus d’emplois qu’elle n’en détruit. Quelques jours plus tôt, les économistes d’Anthropic publiaient des données empiriques racontant une histoire bien plus nuancée. Entre ces deux lectures, une question demeure entière : dans un monde où la machine produit instantanément, abondamment, et souvent convenablement, qu’est-ce que l’humain doit impérativement conserver comme capacité propre ?

Il y a quelque chose de troublant dans le débat actuel sur l’intelligence artificielle et le travail. Ce n’est pas qu’il soit faux, c’est qu’il pose systématiquement la mauvaise question. On se demande si l’IA va détruire des emplois, si les cols blancs sont les nouvelles victimes du progrès technique, s’ils vont connaître à leur tour « une sorte de désindustrialisation ». Ce débat est légitime.

Mais il écarte une interrogation autrement plus profonde qui consiste à s’interroger sur ce que doit conserver l’humain comme capacité propre dans un monde où la machine produit instantanément, abondamment, et souvent convenablement ? Pour répondre à cette question, le concept d’opérateur de l’abondance apporte un éclairage à maints égards pertinent.


À lire aussi : L'IA générative ne détruira pas votre emploi mais elle va changer profondément votre métier


L’abondance n’est pas la valeur

Jensen Huang utilise une formule a priori séduisante selon laquelle l’IA génère des réponses en temps réel, contextualisées et d’une plausibilité souvent confondante. En quelques secondes, elle produit un projet de conclusions judiciaires, une synthèse bibliographique, une analyse de risques, un plan de cours. C’est techniquement exact. Mais cette exactitude masque une ambiguïté fondamentale : produire ne signifie pas valoir.

La vraie question n’est pas « Est-ce que ce contenu est bon ? », mais pour qui est-il bon ? Dans quel contexte ? Avec quelles conséquences si l’on se trompe ? Et à cette question, le modèle ne répond pas, parce qu’elle exige une forme de connaissance que le philosophe Michael Polanyi qualifiait de tacite dans ses travaux sur les fondements du savoir scientifique « We can know more than we can tell », y écrit-il), un savoir qui vit dans la mémoire des situations, dans l’expérience accumulée des erreurs, dans la lecture des rapports de force d’une organisation, dans la sensibilité aux attentes implicites d’une juridiction ou d’un comité. Ce savoir-là ne se met pas dans un prompt, parce qu’il n’est pas de l’ordre de ce qui peut être intégralement formulé, et qu’il résiste, par nature, à toute tentative de formalisation complète.

Miroir amplificateur

C’est ici que les données empiriques publiées en janvier 2026 par les économistes d’Anthropic fournissent un éclairage décisif. Parmi les millions d’interactions analysées avec Claude, 52 % relèvent de modes augmentatifs. Autrement dit, l’humain itère, ajuste, réoriente. Il ne délègue pas, il collabore. Et surtout, les auteurs constatent une corrélation quasi parfaite entre la sophistication de la question posée et la qualité de la réponse obtenue.

Le modèle est un miroir amplificateur, il ne produit de valeur cognitive que dans la mesure où celui qui l’interroge est capable de formuler ce qu’il cherche. L’abondance que génère l’IA n’est donc pas une ressource libre d’accès. Elle est conditionnée par la compétence de celui qui la sollicite. Ce n’est pas une loi technique, c’est une loi cognitive.

L’opérateur de l’abondance

Il conviendrait d’appeler « opérateur de l’abondance » la figure professionnelle que l’économie de l’IA requiert, et que nos systèmes de formation ne produisent pas encore. Ce n’est ni le programmeur de modèles ni l’utilisateur passif. C’est quelqu’un qui sait formuler un problème en termes exploitables par un modèle, évaluer la pertinence et la fiabilité d’un output, injecter le contexte que la machine ne peut pas avoir et assumer la responsabilité d’une décision fondée en partie sur des suggestions qu’il n’a pas lui-même générées.

Cette compétence n’est pas technique au sens étroit. Elle est profondément intellectuelle. Elle suppose d’avoir été formée à la pensée critique, à l’argumentation, à l’identification des biais. Elle suppose d’avoir fait l’expérience de se tromper et d’avoir appris à détecter pourquoi. En un mot, elle suppose d’avoir été exposé à la difficulté des tâches que l’on délègue désormais, avant de les déléguer.

Le risque silencieux de la délégation aveugle

C’est là que le rapport publié le 5 mars 2026 par les économistes d’Anthropic Maxim Massenkoff et Peter McCrory introduit une distinction cruciale, à savoir la différence entre l’exposition théorique à l’IA, ce que le modèle pourrait techniquement faire dans un métier, et l’exposition observée, ce qu’il fait effectivement. La première dépasse 90 % dans les professions juridiques, financières et managériales. La seconde est bien inférieure, pour des raisons légales, organisationnelles, institutionnelles. Mais l’écart se réduit.

Et le signe avant-coureur le plus inquiétant n’est pas le chômage. C’est le ralentissement du recrutement des jeunes diplômés (22-25 ans) dans les professions les plus exposées. Les entreprises n’embauchent plus autant de juniors pour des tâches que l’IA fait désormais plus vite et moins cher. Ce n’est pas que l’IA supprime des postes, elle contracte plutôt les flux d’entrée dans les professions qualifiées, privant une génération de ce que l’économiste Kenneth Arrow appelait le learning by doing, ce processus lent et irremplaçable par lequel on devient capable de superviser ce qu’on n’a pas encore tout à fait compris.

La déqualification cognitive, c’est précisément cela. Non pas perdre son emploi, mais perdre progressivement la capacité de superviser ce qu’on délègue. On délègue la rédaction sans avoir appris à rédiger. On valide des outputs sans avoir développé la compétence critique qui permettrait de détecter ce que l’IA fait mal, ses angles morts, sa tendance à produire du plausible, là où il faudrait du vrai. Cette « délégation aveugle » n’est pas une fatalité technologique. Elle est le produit d’une augmentation passive, une délégation sans réinvestissement dans des compétences de niveau supérieur.

Quand la boucle se ferme sans nous

Ce raisonnement prend encore plus de force avec l’IA agentique, cette nouvelle génération de systèmes qui n’attendent pas une validation humaine à chaque étape, mais agissent. Ils naviguent, rédigent, exécutent du code, orchestrent d’autres agents, prennent des décisions intermédiaires dans des chaînes d’action qui s’étalent sur des heures sans intervention humaine. Jensen Huang l’a annoncé au GTC 2026 en déclarant que dans dix ans, chaque employé humain travaillera aux côtés de cent agents IA. Le chiffre est peut-être exagéré mais la direction ne l’est pas.

Avec l’IA générative, la boucle revenait toujours à l’humain. Il évaluait un output et décidait. Avec l’IA agentique, cette boucle peut se fermer en interne. L’opérateur de l’abondance doit alors devenir ce qu’on pourrait appeler un « architecte d’objectifs » ; non plus « est-ce que ce texte est bon ? » mais « cet agent a-t-il bien compris ce que je voulais, et ses cinquante actions intermédiaires étaient-elles toutes légitimes ? »

France 24, 2026.

Or, les données Anthropic montrent que le taux de succès des modèles décroît significativement à mesure que la complexité de la tâche augmente, précisément là où les agents déploient le plus d’autonomie. La surveillance humaine est donc la plus nécessaire là où elle est la plus difficile à exercer. Et elle est impossible pour qui n’a jamais eu à faire ce qu’il supervise.

Urgence d’une politique de formation

La thèse de Jensen Huang n’est pas fausse, elle est incomplète. Oui, le déploiement de l’IA génère de l’emploi dans les secteurs de l’infrastructure physique. Mais, comme les réseaux électriques du début du XXe siècle, une infrastructure ne s’irrigue pas équitablement par la seule vertu du marché. Et surtout, elle ne dit rien des effets sur les trajectoires d’apprentissage des professions intellectuelles.

Ce que les données suggèrent avec force, c’est l’urgence d’une politique de formation aux compétences d’exploitation de l’IA, non pas apprendre à coder des modèles, mais apprendre à penser avec eux, à les interroger, à en critiquer les outputs, à maintenir vivante la compétence que l’on délègue. Former des opérateurs de l’abondance. Cette tâche revient en premier lieu aux institutions d’enseignement supérieur, et elle est urgente, parce que la contraction des flux d’entrée des jeunes dans les métiers exposés laisse peu de temps avant que l’apprentissage ne soit structurellement impossible.

Car ce que l’IA ne peut pas faire à notre place, c’est précisément décider que tel output vaut quelque chose, dans ce contexte, pour cette personne, avec ces enjeux. Ce jugement n’est pas une technique. C’est une forme de responsabilité et elle reste irréductiblement humaine.

The Conversation

Bruno Deffains ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

03.05.2026 à 08:39

Étudiants étrangers : des outils d’intelligence artificielle pour réduire la barrière de la langue ?

Vincent Berry, Professeur, Université de Montpellier

Chouki Tibermacine, Professeur des universités en sciences du logiciel, Université Bretagne Sud (UBS)

Chrysta Pelissier, Maîtresse de conférences en sciences du langage et sciences de l'Education, Université de Montpellier

Éric Anglaret, Professeur en physique des matériaux, directeur délégué aux relations internationales Polytech Montpellier, Université de Montpellier

Vanessa Vigano, Ingenieure pedagogique, Université de Montpellier

À l’université, la traduction automatique face au défi de la maîtrise de la langue française pour les étudiants étrangers.
Texte intégral (2016 mots)
La barrière linguistique complique l’assimilation des connaissances techniques des étudiants étrangers. Redmind Studio/Unsplash, CC BY

Dans l’enseignement supérieur, le parcours des étudiants étrangers reste marqué par un défi central : comprendre, suivre et participer dans une langue qu’ils ne maîtrisent pas pleinement. Les avancées récentes de l’intelligence artificielle en traduction et en interprétation ouvrent des perspectives, tout en soulevant des enjeux sensibles de protection des données. Une piste se dessine alors : développer des outils alternatifs, directement hébergés par les établissements eux-mêmes. Des chercheurs de l’Université de Montpellier ont développé un tel prototype.


L’enseignement supérieur français a attiré près de 450 000 étudiants étrangers en 2024-2025, plaçant la France au 7e rang mondial. Ils représentent près de 15 % des effectifs étudiants dans les universités françaises.

La mobilité étudiante est en constante augmentation. En Europe, il y a eu plus de mobilités organisées en dix ans qu’au cours des vingt-sept années précédentes, la demande en 2025 étant en hausse de 9 % par rapport à 2024. Cette accélération est corrélée à l’augmentation des accords bilatéraux entre pays et un élargissement d’Erasmus+, le programme support européen aux mobilités internationales.

Au niveau mondial, les pays les plus attractifs sont sans surprise les pays anglophones, notamment les États-Unis, le Royaume-Uni et l’Australie, l’anglais étant de mise dans les échanges internationaux. Mais pour ceux qui choisissent la France et le français, dans quelle aventure s’engagent-ils ?

Les difficultés rencontrées par les étudiants étrangers

Pour ces étudiants, la barrière linguistique complique l’assimilation des connaissances techniques, freine la participation active en classe et l’immersion dans la vie étudiante, et cela malgré les enseignements de français langue étrangère (FLE). La complexité de la langue française augmente ce défi, même pour les étudiants étrangers francophones peu exposés au français académique.

L’Union européenne est consciente de ce frein à la mobilité et encourage ses États à fournir un soutien universitaire et extra-universitaire.

Nous avons mené en 2024 et 2025 une enquête auprès d’une partie des 9 000 étudiants étrangers qu’accueille chaque année l’Université de Montpellier. Elle révèle des besoins d’aide clairs :

  • pendant les cours et les conférences, pour comprendre les enseignants à l’oral et avoir la transcription du contenu afin de mieux appréhender leur formation ;

  • après les cours, dans une visée de mémorisation, de révision et de vérification du contenu des cours.

Les récents progrès de l’intelligence artificielle (IA) permettent de répondre à une partie de ces besoins.

Une analyse comparative des solutions de traduction simultanée basées sur l’IA a été menée selon trois critères principaux : la capacité de reconnaissance automatique de la langue parlée (permettant une adaptation dynamique lorsque l’intervenant change de langue ou lorsqu’une question est posée dans une autre langue), la facilité d’usage (minimisant les contraintes d’installation et de configuration pour les étudiants et les enseignants), et la qualité de la traduction produite. Cette analyse fait émerger deux types de solutions : des outils commerciaux accessibles par le cloud et des outils open source pouvant être installés en local sur serveurs propres.

Les outils commerciaux : efficaces, mais chers et risqués en termes de propriété intellectuelle

Du côté des outils commerciaux, notre veille technologique indique que l’outil le plus adapté aux besoins identifiés est eventCat. Un tel outil fournit un service clés en main, engendrant peu de contraintes informatiques et audiovisuelles pour être déployé. Cet outil a été testé en 2024 puis 2025 lors d’une conférence médicale partagée entre deux universités. Les intervenants avaient des profils linguistiques variés : chercheurs disposant d’un haut niveau d’anglais, médecins habitués à s’exprimer en français et représentants de patients possédant une connaissance limitée de l’anglais. Le public était constitué d’étudiants français et néerlandais, ces derniers maîtrisant bien l’anglais mais ne comprenant pas le français.

L’outil a permis aux intervenants de s’exprimer dans leur langue de prédilection, tandis que les étudiants anglophones suivaient via une traduction simultanée sur un lien dédié. Les retours des intervenants ont été très positifs. Afficher les traductions sur un grand écran installé à côté des intervenants plutôt que sur les smartphones ou ordinateurs portables des étudiants a permis de réduire leur charge cognitive, ceux-ci devant déjà simultanément suivre le discours oral et lire la transcription. La qualité de la traduction s’est avérée globalement satisfaisante, les acronymes du domaine et les accents des intervenants posant toutefois des soucis. Ceci souligne la nécessité d’une adaptation contextuelle plus fine pour des contenus hautement spécialisés.

Les inconvénients d’une telle solution sont un coût annuel de plusieurs dizaines de milliers d’euros par formation et une incertitude concernant les données. Par exemple, à la date de rédaction de cet article, la politique RGPD de l’outil identifié est de ne pas stocker plus de sept jours les flux audios reçus et leurs transcriptions et de ne pas utiliser ces données pour entraîner ses modèles IA, ce qui exposerait ces données aux attaques par prompts malicieux.

Cependant, la société opérant ce service est localisée aux États-Unis, elle est donc soumise au Cloud Act, l’obligeant à communiquer les données qu’elle stocke en cas d’injonction d’une autorité administrative de son pays. Les préoccupations sur la protection des données sont revenues à plusieurs reprises dans nos échanges avec les enseignants et également avec les étudiants, lors de notre enquête. Rappelons que les enseignants et les enseignants-chercheurs de l’enseignement supérieur sont titulaires des droits d’auteur sur les cours qu’ils proposent, c’est donc leur propriété intellectuelle qui peut être exposée par un outil de transcription et traduction automatique.

Un prototype d’outil en open source pour protéger les données

Il est donc préférable que les équipes pédagogiques disposent de solutions alternatives hébergées au sein de leur établissement. Le logiciel open source est dans ce cadre la voie naturelle, malheureusement en 2025, aucune solution de ce type n’existait encore pour répondre aux besoins exprimés par les étudiants étrangers dans nos analyses.

Nous avons donc élaboré les bases d’un tel outil et proposé un premier prototype. Celui-ci effectue déjà en local la traduction d’un contenu textuel, par un modèle d’IA libre pouvant s’exécuter sur un serveur classique. En revanche, la transcription des flux audio repose encore sur des services IA proposés par plusieurs acteurs du cloud (les modèles les plus efficaces pour cette étape sont soit plus lourds soit tout simplement propriétaires), bien que n’étant pas liés à un fournisseur particulier. Ce prototype bénéficie de la technologie RAG (génération augmentée par récupération) pour s’adapter à un vocabulaire technique et a pu être utilisé dans des cours de 20 à 30 étudiants. Les étudiants indiquent un fort intérêt pour ce type d’outils qu’ils utilisent aussi pour des discussions de socialisation.

Toutefois, ils notent tous des difficultés dans des cours techniques en français faisant appel à de nombreux anglicismes. Ces défauts restent à corriger mais la prochaine étape majeure consiste à effectuer la transcription de l’audio en texte de façon locale, sans recourir à un service cloud. En l’état actuel des modèles, ceci nécessite l’usage de processeurs spécifiques (GPU), représentant un effort d’équipement de l’ordre de plusieurs milliers d’euros par site. C’est le coût à payer pour la préservation des données.

L’apprentissage de la langue du pays d’accueil constitue un objectif central des mobilités internationales. Les outils numériques évoqués ci-dessus facilitent cet apprentissage et la réussite académique des étudiants étrangers, mais ne se substituent pas pour autant aux enseignements de FLE. Les outils IA favorisent l’acquisition de savoirs disciplinaires et, dans une certaine mesure, l’acculturation des étudiants étrangers. Mais ils ne sont pas suffisants pour une intégration réussie. Sur ce plan, ce que le pays d’origine met en place pour préparer la mobilité reste prépondérant.

The Conversation

Vincent Berry a reçu un financement de l'Université Montpellier (CNUMF).

Chouki Tibermacine est membre de l'ACM (Association of Computing Machinery). Il a reçu plusieurs financements publiques pour ses travaux de recherche : ANR, DGA, Région Bretagne.

Chrysta Pelissier, Vanessa Vigano et Éric Anglaret ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.

PDF

03.05.2026 à 08:38

Pourquoi la première rencontre entre Washington et Téhéran a échoué : comprendre la psychologie des négociations

Marwan Sinaceur, Professor of Organizational Behavior, ESSEC

Dans des négociations aussi complexes que celles conduites entre Washington et Téhéran, certains mécanismes comportementaux jouent un rôle décisif.
Texte intégral (2078 mots)

Les recherches en sciences comportementales permettent de mettre en évidence les erreurs commises par l’administration Trump lors de la première session de négociations avec l’Iran, tenue à Islamabad les 11 et 12 avril.


Les négociations entre les États-Unis et l’Iran piétinent. La deuxième rencontre de négociation prévue entre les belligérants n’a finalement pas eu lieu. Le président Trump vient d’annuler l’envoi d’une délégation au Pakistan, tandis que l’Iran semble poser des pré-conditions préalables à toute reprise des discussions. Dans ce contexte incertain, il semble utile de revenir à la première rencontre entre Washington et Téhéran, tenue les 11 et 12 avril 2026 au Pakistan, et de comprendre pourquoi elle a échoué.

Pour expliquer l’échec de cette première session de négociations, le vice-président américain J. D Vance, qui y avait pris part en personne, a affirmé que les États-Unis avaient proposé à l’Iran « leur meilleure et dernière offre » concernant la question du nucléaire. Cette offre ayant été rejetée, il avait mis fin aux pourparlers d’Islamabad et, avec l’ensemble de la délégation américaine, brusquement quitté la capitale pakistanaise après à peine un jour de négociations.

Cette déclaration sur la « meilleure et dernière offre » illustre une méconnaissance profonde de la dynamique et de la psychologie des négociations. Elle en serait risible, si les enjeux n’en étaient pas aussi importants pour la paix dans le monde et l’économie mondiale.

Faire une offre tôt est contre-productif pour régler un conflit

Mettre une offre sur la table dès le début des négociations est tout à fait contre-productif pour régler un conflit. La recherche empirique sur les négociations montre en effet que le timing des offres est crucial : faire une offre trop tôt réduit l’échange d’informations entre les négociateurs et accentue la dimension compétitive de la négociation. Il en résulte souvent une guerre de positions : les négociateurs se crispent et ne cherchent plus qu’à défendre leur position plutôt qu’à comprendre les motivations de la partie adverse. Au contraire, faire une offre tard dans la négociation permet à chacun de comprendre les intérêts, les besoins et les craintes (parfois inexprimées ouvertement) des parties en présence. Lorsque l’offre est faite tardivement, les négociateurs ont plus le loisir d’échanger des informations et d’explorer des solutions créatives avant de rentrer dans le marchandage compétitif. Or l’efficacité en négociation repose de manière cruciale sur la capacité à rechercher des informations sur la partie adverse et de lui poser des questions, plutôt que de simplement énoncer des demandes.

Même lorsque les deux parties sont disposées à faire des compromis, l’exploration des intérêts sous-jacents, la discussion des questions épineuses, la révélation des informations sensibles et l’élaboration de solutions mutuellement acceptables prennent du temps. De fait, la recherche a montré que discuter de plusieurs offres simultanées est plus efficace que proposer une offre unilatérale.

Contrairement à ce qu’a prétendu Vance, la première offre est rarement la meilleure si l’on souhaite réellement parvenir à un accord et résoudre un conflit. Les négociateurs sont en effet souvent influencés par des biais cognitifs dans la manière dont ils perçoivent la partie adverse, ce qui les conduit à commettre de nombreuses erreurs lorsqu’ils interprètent les informations dont ils disposent à son sujet ou tentent de comprendre ses intérêts et ses préférences. C’est d’autant plus le cas lorsque le conflit ne met pas seulement en jeu des intérêts pragmatiques, mais aussi des valeurs sacralisées. Dans ce cas, offrir des concessions symboliques (la reconnaissance symbolique de certaines prétentions de l’autre partie) est efficace pour amener l’autre à concéder quelque chose en retour. Dans ce cas précis, la présidence Trump semble par exemple nettement sous-estimer l’enjeu de fierté nationale et de reconnaissance symbolique que revêt pour l’Iran la question de l’enrichissement de l’uranium.

Tout est question de « timing »

En outre, mettre une offre sur la table au début de la négociation signifie faire une offre à un moment où l’autre partie n’est pas encore prête à faire des concessions. En effet, les gens sont plus enclins à faire des concessions à la fin qu’au début des négociations. Pour deux raisons.

Au départ, la confiance est absente. Elle met du temps à se construire et, dans les premières phrases, chaque partie tend à interpréter les comportements de l’autre avec méfiance. Ainsi, il n’est pas rare que les gens rejettent une offre qui vient de l’autre partie… simplement parce qu’elle provient de la partie adverse : ils l’évaluent alors en fonction de son origine plutôt que de ses mérites intrinsèques. Ce phénomène, caractéristique des négociations et nommé la « réaction de dévaluation » : nous jugeons que l’offre de l’autre partie doit être déterminée par ses intérêts, et nous percevons nos intérêts comme étant forcément antagonistes (perception de jeu à somme nulle).

D’autre part, le coût psychologique d’une sortie de la négociation évolue avec le temps. Au début, se retirer et aboutir à une impasse est relativement peu coûteux : l’investissement en temps et en effort reste limité. En revanche, en fin de négociation, une rupture devient bien plus difficile à accepter. C’est une application d’un biais bien connu, l’escalade de l’engagement (ou escalation of commitment) : plus on investit du temps dans une action, plus on a envie qu’elle réussisse. Et inversement.

De fait, les tactiques qui visent à faire céder l’autre sont plus efficaces à la fin qu’au début des négociations. Exprimer une menace ou se mettre en colère est plus efficace tard que tôt, car au début de la négociation, ces tactiques véhiculent une intention expressément négative, tandis qu’à la fin elles sont perçues comme étant plus acceptables — puisqu’à ce moment, la relation humaine est déjà construite.

Ces résultats de recherches empiriques corroborent les théories qui font de la négociation un jeu à plusieurs phases : discussions ouvertes d’abord ; marchandage à la fin. Commencer par des tactiques agressives ruine les chances de trouver des solutions coopératives. La capacité à rester cognitivement ouvert tout le long de l’interaction et à ne pas acter les choses trop tôt est déterminante. C’est pour cela que la patience est une qualité clé dans les négociations.

Analyser les signes d’amateurisme

Ces recherches empiriques sur la négociation sont, faut-il le préciser, publiées très majoritairement dans les revues académiques américaines de sciences comportementales. Elles sont bien connues aux États-Unis.

La proclamation de J. D. Vance sur la « meilleure et dernière offre » avancée d’entrée de jeu par Washington a donc dénoté un amateurisme certain. Et cela d’autant plus que les négociations entre les États-Unis et l’Iran sont d’une grande complexité et englobent de multiples variables : réouverture du détroit d’Ormuz, contrôle du programme nucléaire, armements balistiques, accès au nucléaire civil, levée des sanctions, garanties que la guerre ne reprenne pas, etc.

Vouloir parvenir à un accord sur des sujets aussi difficiles en aussi peu de temps révèle une inexpérience ahurissante des négociations. Les négociations qui ont abouti à l’accord sur le nucléaire iranien sous la présidence Obama avaient pris 20 mois ; celles du vice-président Vance ont pris 21 heures.

Les experts, comme Federica Mogherini qui fut en charge des négociations avec l’Iran pour la partie européenne, pointent d’ailleurs la méconnaissance ou l’incompréhension des aspects techniques de la négociation de la part de l’équipe américaine.

L’échec des négociations entre Américains et Iraniens lors de leur première rencontre au Pakistan n’a donc rien eu de surprenant. Il est complètement en ligne avec les recherches empiriques sur la psychologie des négociations. Soit dit en passant, cette même erreur explique l’échec des négociations de Camp David entre Israéliens et Palestiniens en 2000 — avec les conséquences funestes que l’on sait. Comme le rapporte Robert Malley, alors conseiller de Bill Clinton pour le Moyen-Orient, une offre avait été mise sur la table beaucoup trop tôt, à un moment où « ni les Israéliens ni les Palestiniens ne s’étaient préparés à complètement comprendre les peurs et les besoins de l’autre partie ».

Négocier, ce n’est pas imposer des conditions unilatérales à la partie adverse. Ce n’est pas non plus faire en sorte que l’autre accepte une reddition sans condition. Cette démarche peut fonctionner dans des négociations qui concernent une seule variable compétitive (le prix), ou lorsque l’on est en position de force, comme lorsqu’on est un riche propriétaire immobilier à New York. Mais elle s’avère inefficace dans des négociations qui concernent plusieurs variables et nécessitent un cheminement à tâtons vers des solutions mutuellement acceptables, ou lorsque le rapport de forces est incertain.

Pour paraphraser une phrase d’un autre président américain, Dwight Eisenhower : la négociation est « l’art de faire faire à quelqu’un quelque chose que vous voulez voir fait, parce qu’il a envie de le faire ».

À tous points de vue, ce qui s’est passé entre Américains et Iraniens lors de leur première rencontre au Pakistan ne ressemble pas à de la négociation.

The Conversation

Marwan Sinaceur a reçu des financements de ESSEC Research Center, Fondation ESSEC, Fondation INSEAD, Stanford University.

PDF

02.05.2026 à 09:58

Qu’est-ce qu’une « lingua franca » ? Brève histoire, des croisades à nos jours

Alexandra Aikhenvald, Professor and Australian Laureate Fellow, Jawun Research Institute, CQUniversity Australia

De la Méditerranée des croisades à l’anglais global d’aujourd’hui, l’histoire des lingua francas raconte comment les sociétés fabriquent des langues communes pour commercer, gouverner et coexister.
Texte intégral (1897 mots)
Face à l’expansion de l’anglais, la résilience des locuteurs et des cultures pourrait bien rebattre les cartes. Gokul Gurung/Unsplash, CC BY

Pourquoi certaines langues s’imposent-elles comme outils universels avant de décliner ? De l’Antiquité à l’ère numérique, les lingua francas suivent les routes du pouvoir et des échanges.


Lorsque les Croisés débarquent sur les rivages orientaux de la Méditerranée à la fin du XIe siècle, ils doivent communiquer entre eux, mais aussi avec les marchands et les populations locales.

Beaucoup parlent alors différentes langues romanes : l’italien (notamment celui des puissantes cités-États de Venise et de Gênes), le provençal, le français ou encore leur ancêtre commun, le latin.

La plupart des Occidentaux présents en Europe du Sud sont français, en particulier originaires de la zone comprise entre Marseille et Gênes, d’où partent navires et marchands vers le Moyen-Orient. Ces Occidentaux sont désignés collectivement par les Arabes et les Grecs sous le nom de « Francs ».

Autour de la quatrième croisade (1202–1204), voire un peu plus tôt, une langue composite émerge progressivement en Méditerranée orientale, avant de se diffuser vers l’ouest. Cette langue commune, utilisée par les « Francs » et par ceux qui commercent et combattent avec eux, est aussi appelée sabir, italien bâtard ou espagnol bâtard. Mais c’est sans doute sous le nom de lingua franca que vous la connaissez le mieux : littéralement, la « langue des Francs ».

Cette langue franque est un mélange d’italien, de français et d’espagnol simplifiés, enrichi de quelques apports arabes et turcs. Elle est utilisée sur les rivages méditerranéens du Moyen-Orient jusqu’à la fin du XIXe siècle, avant de tomber en désuétude.

Écrit en minuscules, lingua franca désigne aujourd’hui toute langue servant de moyen de communication entre des personnes qui n’en partagent pas d’autre.

Une tradition ancienne

Les lingua francas remontent à l’Antiquité. Le sanskrit a ainsi servi de langue véhiculaire dans une grande partie de l’Asie du Sud-Est et de l’Asie centrale au cours du premier millénaire de notre ère, notamment par le biais des échanges commerciaux et de la diffusion religieuse.

Autour de la Méditerranée, le grec joue ce rôle d’environ 300 avant J.-C. à 500 après J.-C. : il est utilisé dans le commerce, la littérature, l’enseignement et dans la propagation du christianisme primitif.

Entre le IIe et le IVe siècles, le latin standard supplante le grec comme lingua franca de l’Église catholique en expansion. Il s’impose alors comme langue paneuropéenne de la religion, de la culture et du savoir, et le demeure jusqu’au XIXe siècle.

Un pendentif en or portant une inscription en latin
Le latin devient la lingua franca européenne, comme l’illustre ce pendentif britannique du XIIe siècle. The Metropolitan Museum of Art

À partir du XVIIe siècle, l’arabe s’impose comme une _lingua franc_a dans l’ensemble du monde islamique, reliant des communautés d’Afrique et d’Asie.

Au même siècle, avec l’essor de la France comme puissance économique, le français remplace progressivement le latin dans de nombreux domaines et devient la première lingua franca « mondiale » en politique, diplomatie, commerce et éducation. Langue des cours royales, il est utilisé par les savants, les aristocrates, les marchands et les diplomates pour communiquer et écrire entre eux. Le français demeure la principale langue des relations internationales jusqu’à la fin de la Seconde Guerre mondiale.

Après les années 1940, en partie sous l’effet de l’influence croissante des États-Unis, l’anglais s’impose comme la principale lingua franca à l’échelle mondiale.

Fabriquer une nouvelle langue

Avec l’expansion coloniale des puissances impériales et de leurs langues — espagnol, anglais, français, portugais, allemand et néerlandais — à partir du XVe siècle environ, le terme lingua franca en vient à être utilisé comme un nom commun.

Tout au long de la colonisation européenne, des personnes issues de groupes linguistiques différents sont contraintes de travailler ensemble comme esclaves ou engagés sous contrat. Elles communiquent entre elles, ainsi qu’avec leurs maîtres, au moyen d’une langue simplifiée, utilisée pour des besoins limités : des ordres simples, des questions, des énoncés basiques mêlant les éléments dont chacun dispose. Ce type de moyen de communication improvisé est appelé pidgin (qui viendrait du mot anglais « business »).

Les pidgins peuvent servir de lingua franca. Lorsque leurs locuteurs commencent à se marier entre eux, un pidgin peut devenir la seule langue parlée par la génération suivante. Il se développe alors en une langue à part entière — un créole — utilisée dans tous les contextes.

Des créoles comme le tok pisin en Papouasie-Nouvelle-Guinée, le sranan au Suriname, le kristang en Malaisie ou encore le créole haïtien en Haïti servent aujourd’hui de lingua franca dans ces pays.

Une langue globale peut aussi être créée de toutes pièces.

La fin du XIXe siècle voit fleurir les projets de langues universelles. La plus célèbre est l’espéranto, « langue de l’espoir », créé par Ludwik Zamenhof en 1887 comme « langue internationale », c’est-à-dire une lingua franca générale. L’espéranto compte encore aujourd’hui quelques milliers de locuteurs natifs et bien davantage d’adeptes, mais son usage tend progressivement à reculer.

La « lingua franca » mondiale aujourd’hui

Les lingua francas apparaissent lorsqu’elles deviennent nécessaires, puis déclinent lorsqu’elles sont remplacées par d’autres. L’allemand a ainsi cessé d’en être une avec la perte des colonies après la Première Guerre mondiale. Le portugais reste une lingua franca au Brésil, et l’espagnol dans d’autres pays d’Amérique du Sud.

Quant au français, son empreinte mondiale perdure : à l'étranger, on envoie encore une lettre par avion ou poste restante.

Mais il y a un grand gagnant, loin devant les autres. L’anglais est désormais devenu la langue mondiale, s’étendant bien au-delà des locuteurs natifs et des anciennes colonies des puissances anglophones. Il est la langue de la diplomatie internationale, du monde académique et, surtout, des avancées technologiques, des réseaux sociaux et de l’intelligence artificielle.

La diffusion rapide de l’anglais menace-t-elle de faire disparaître les autres langues, qu’il s’agisse de langues minoritaires ou d’autres lingua francas, et plus largement la diversité linguistique à l’échelle mondiale ? La question reste ouverte. L’importance croissante du mandarin comme principale lingua franca en Chine, de l’arabe à travers l’Afrique et le Moyen-Orient, ainsi que la résilience des locuteurs à faire vivre leurs langues – et, avec elles, leurs cultures et leurs histoires – pourraient bien contenir l’hégémonie de l’anglais.

The Conversation

Alexandra Aikhenvald ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

02.05.2026 à 09:32

Dans les bas rapiécés de l’homme le plus riche des États-Unis, le travail oublié des femmes américaines

Emily J. Whitted, Ph.D. Candidate in Early American History, UMass Amherst

En étudiant les bas de soie de Stephen Girard, une historienne met au jour le rôle crucial — et largement invisibilisé — des femmes, libres ou esclaves, dans l’économie américaine du début du XIXe siècle.
Texte intégral (1170 mots)

Rapiécer, gérer, entretenir : dans le foyer de l’un des hommes les plus riches d’Amérique, des femmes ont contribué, sans reconnaissance, à une prospérité qui leur échappait.


À sa mort en 1831, Stephen Girard – marchand, banquier et philanthrope de Philadelphie – était l’homme le plus riche des États-Unis. Dans son testament, il légua à la ville de Philadelphie (Pennsylvanie, Nord-Est des États-Unis) un don exceptionnel d’environ 6 millions de dollars, soit près de 194 millions d’euros aujourd’hui.

Girard demanda notamment qu’une partie de cette somme soit utilisée pour fonder un internat destiné aux garçons blancs pauvres et orphelins. Aujourd’hui, cet établissement, qui accueille des élèves du primaire au lycée, est connu sous le nom de Girard College et admet des élèves issus de milieux défavorisés, sans distinction de race ni de genre. L’institution a hérité des biens matériels de Girard, parmi lesquels du mobilier, des papiers personnels et des vêtements – dont une paire de bas de soie abondamment rapiécés.

Leur conservation peut surprendre : pourquoi l’homme le plus riche des États-Unis portait-il des vêtements raccommodés ? En tant qu’historienne du textile, spécialisée dans le travail du raccommodage dans l’Amérique des débuts, j’ai étudié les points utilisés pour réparer les bas de Girard, ainsi que ses riches archives.

Croisées, ces sources historiques m’ont permis de mettre au jour de nouveaux éléments sur la valeur des textiles dans l’Amérique d’alors, mais aussi sur le rôle des femmes – notamment celles qui travaillaient dans la maison du riche marchand – dans l’essor économique du pays.

Ce que nous disent ces bas

Les textiles étaient utilisés au quotidien par la quasi-totalité des Américains de l’époque coloniale et des débuts de la République et constituaient alors bien souvent les biens les plus précieux que l’on pouvait posséder.

Malgré la mécanisation à grande échelle, ils coûtaient cher en raison du prix des matières premières et du travail qualifié nécessaire à la fabrication des étoffes ; ils étaient en outre fréquemment importés. À la fin du XVIIIe et au début du XIXe siècle, les États-Unis voyaient émerger une industrie textile nationale, mais de nombreux Américains continuaient d’importer des tissus depuis l’étranger, notamment de Grande-Bretagne, de France et d’Inde. Les factures du foyer de Girard montrent qu’il achetait régulièrement une grande partie de ses vêtements – y compris ses bas de soie – en France.

La forte valeur des textiles à cette époque explique que même les foyers les plus aisés jetaient rarement les vêtements abîmés. On les réparait plutôt, à l’aide d’aiguilles et de fil. Si certains hommes pratiquaient aussi le raccommodage, l’immense majorité de ces travaux était réalisée par des femmes.

Les raccommodeuses : Sally, Polly et Hannah

Au sein du foyer de Girard, au moins trois femmes se chargeaient de repriser ses bas de soie et ses autres vêtements.

Bien que Girard ait été marié, son épouse Mary fut internée pour troubles mentaux à l’hôpital de Pennsylvanie en 1790, et le couple n’eut pas d’enfants. En l’absence de Mary, Girard eut plusieurs maîtresses qui faisaient office de gouvernantes : Sally Bickham, une femme quaker que Girard décrit dans une lettre comme une « tayloress », c’est-à-dire couturière, et Polly Kenton, blanchisseuse. Dans le cadre de leur travail, elles géraient les affaires domestiques et les achats de Girard, assurant le bon fonctionnement de son quotidien.

Par ailleurs, une femme noire nommée Hannah Brown, originaire de Saint-Domingue, ancienne colonie française correspondant aujourd’hui à Haïti, fut réduite en esclavage au sein du foyer de Girard pendant plus de quarante ans. Et ce, alors même que la loi d’abolition progressive adoptée en Pennsylvanie en 1780 aurait dû lui garantir la liberté dans les six mois suivant son arrivée aux États-Unis. L’abolition progressive n'y fut appliquée que de manière inégale, permettant à des propriétaires d’esclaves comme Girard d’en contourner les effets. Le testament du marchand accorda finalement la liberté à Hannah Brown.

Toutes trois travaillaient au service de Girard : elles reprisaient ses bas, géraient les tâches quotidiennes du foyer et veillaient à l’entretien de la maison. Les trois techniques de raccommodage visibles sur ses bas – comme le reprisage à la suisse, le reprisage tissé ou encore le renforcement des talons – constituent autant de traces matérielles de leur travail, aux côtés des archives écrites telles que les factures domestiques, les lettres et les reçus.

Aux premiers temps des États-Unis, de nombreuses femmes, libres ou réduites en esclavage, accomplissaient un travail domestique non rémunéré. Pourtant, ce travail a été une force essentielle de la croissance économique nationale au début du XIXe siècle. Partout dans le pays, des hommes comme Girard ont encouragé et tiré profit de l’industrialisation et de l’expansion des activités commerciales ; mais c’est le travail domestique non rémunéré des femmes qui a rendu possibles leur participation et leurs profits.

Si les habitants de Philadelphie ne voient aujourd’hui leurs noms ni sur les grandes artères ni sur les bâtiments de la ville, les efforts conjugués de Sally, Polly et Hannah — dissimulés dans les chaussures de Girard et éclipsés par l’ampleur de son héritage historique à Philadelphie — ont été essentiels à sa réussite économique.

The Conversation

Emily J. Whitted a reçu des financements de The Library Company of Philadelphia.

PDF

02.05.2026 à 08:55

L’abandon d’une stratégie vieille de 250 ans… Ce que change la fin de l’obligation vaccinale dans l’armée américaine

Katrine L. Wallace, Assistant Professor of Epidemiology and Biostatistics, University of Illinois Chicago

Pendant près de 80 ans, la vaccination contre la grippe allait de soi dans l’armée américaine. Sa remise en cause récente ne repose pas tant sur des arguments médicaux que sur une évolution politique autour de la notion de « liberté médicale ».
Texte intégral (2116 mots)
L’armée opère généralement dans des conditions - caserne, navire, etc. - qui favorisent la propagation des virus respiratoires Bumble Dee/Shutterstock

De George Washington à la Seconde Guerre mondiale, la vaccination a été pensée comme un outil stratégique face aux maladies capables de décimer les troupes. Aujourd’hui, cette logique historique entre en tension avec la montée des revendications individuelles.


Pour la première fois depuis près de 80 ans, les militaires états-uniens ne seront plus tenus de recevoir le vaccin annuel contre la grippe. Le secrétaire à la Défense Pete Hegseth a annoncé ce changement le 22 avril 2026. Invoquant l’autonomie médicale et la liberté religieuse, il a qualifié cette obligation de « trop large et dénuée de rationalité », déclarant aux soldats que « votre corps, votre foi et vos convictions ne sont pas négociables ».

L’obligation vaccinale contre la grippe à laquelle Pete Hegseth a mis fin était en vigueur depuis 1945, avec une brève interruption en 1949. Elle s’inscrivait dans une tradition d’obligations vaccinales militaires presque aussi ancienne que les États-Unis eux-mêmes.

En tant qu’épidémiologiste spécialisée dans les maladies évitables par la vaccination, je trouve la fin de cette obligation moins marquante pour ses effets immédiats que pour ce qu’elle révèle. Pendant la majeure partie de l’histoire américaine, les commandants militaires partaient du principe que les maladies infectieuses pouvaient leur faire perdre une guerre, raison pour laquelle la vaccination relevait de la préparation opérationnelle plutôt que d’un choix individuel.

Une tradition qui remonte à George Washington

La première obligation vaccinale militaire américaine est antérieure à la Constitution. À l’hiver 1777, le général George Washington ordonne l’inoculation massive de l’armée continentale contre la variole.

Sa décision n’était pas idéologique – elle était stratégique. L’année précédente, une épidémie de variole avait ravagé les troupes américaines près de Québec, contribuant à l’effondrement de la campagne du Nord. John Adams écrivit à sa femme Abigail que la variole tuait dix soldats pour un seul tombé au combat.

L’inoculation en 1777 comportait elle-même des risques. La procédure, appelée variolisation, consistait à infecter volontairement un soldat avec une faible dose du virus de la variole afin de provoquer une immunité. George Washington a fait le pari qu’il valait mieux perdre quelques hommes à cause de l’inoculation que perdre une guerre face au virus. Des historiens ont attribué à cette décision le salut de l’armée continentale.

La pandémie de Covid-19 a reconfiguré les enjeux politiques autour des obligations vaccinales.

Ce schéma s’est maintenu pendant des siècles : lorsqu’une maladie infectieuse risquait de mettre plus de soldats hors de combat que les tirs ennemis, l’armée imposait des mesures de protection.

Les troupes américaines ont été vaccinées contre la variole de la guerre de 1812 jusqu’à la Seconde Guerre mondiale. Pendant la Première Guerre mondiale, l’armée a ajouté la vaccination contre la typhoïde. Lors de la Seconde Guerre mondiale, elle a élargi les obligations vaccinales pour inclure également le tétanos, le choléra, la diphtérie, la peste, la fièvre jaune et, en 1945, la grippe.

1945 : nouvelle guerre, nouveau vaccin

L’obligation vaccinale contre la grippe trouve son origine dans les expériences militaires lors de la pandémie de grippe de 1918. Ce printemps-là, une nouvelle souche de grippe s’est propagée dans des camps d’entraînement militaires surpeuplés avant de gagner l’Europe avec les troupes américaines. Environ 45 000 soldats américains sont morts de la grippe pendant la Première Guerre mondiale, presque autant que les quelque 53 000 tués au combat.

La pandémie de 1918 a fait la démonstration qu’un virus respiratoire pouvait paralyser une armée. Aussi, en 1941, alors que le pays se préparait à entrer dans un nouveau conflit mondial, l’armée américaine a-t-elle mis en place une commission sur la grippe qui s’est associée à l’université du Michigan pour développer le premier vaccin contre cette infection. Des essais cliniques menés sur des recrues ont montré qu’il réduisait de 85 % l’incidence de la maladie, et en 1945, l’armée a rendu la vaccination obligatoire. Environ 7 millions de militaires ont été vaccinés cette année-là.

L’obligation a été brièvement suspendue en 1949, lorsque les scientifiques ont compris que le vaccin devait être régulièrement mis à jour en raison de l’évolution du virus. Une fois les formulations adaptées de manière saisonnière, l’obligation a été rétablie au début des années 1950 et est restée en vigueur sans interruption jusqu’au changement de politique décidé par Pete Hegseth.

Hôpital d’urgence au camp Funston, au Kansas, en 1918, pendant l’épidémie de grippe
La pandémie de grippe de 1918 a tué presque autant de soldats américains que les combats pendant la Première Guerre mondiale. Otis Historical Archives, National Museum of Health and Medicine

Le Covid-19 a transformé la politique vaccinale

Pendant des décennies, les obligations vaccinales faisaient partie intégrante et peu contestée de la vie militaire. La pandémie de Covid-19 a changé la donne.

En août 2021, tous les militaires ont été sommés de se faire vacciner contre le Covid-19. Plus de 98 % des soldats en service actif ont obtempéré, mais cette obligation est devenue un point de crispation. Plus de 8 000 militaires ont été renvoyés de force pour avoir refusé le vaccin.

En 2023, le Congrès a adopté une loi obligeant Le Pentagone à annuler l’obligation vaccinale contre le Covid-19. Ce revirement a reconfiguré les enjeux politiques autour des obligations vaccinales dans l’armée. En janvier 2025, le président Donald Trump a ordonné la réintégration, avec indemnités rétroactives, des militaires renvoyés dans ce cadre.

En annonçant la fin de l’obligation vaccinale contre la grippe, Pete Hegseth s’est largement appuyé sur le vocabulaire de la « liberté médicale », issu des débats autour des vaccins contre le Covid-19, plutôt que sur de nouvelles données concernant la grippe ou l’efficacité du vaccin. Le mouvement pour la liberté médicale s’oppose à l’intervention de l’État dans ce que ses partisans considèrent comme des décisions de santé personnelles, y compris des recommandations de santé publique telles que les obligations vaccinales, le port du masque ou la distanciation sociale.

La justification vaccinale tient-elle toujours ?

Les critiques de l’obligation vaccinale contre la grippe dans l’armée avancent que la grippe constitue aujourd’hui une menace plus modérée qu’en 1918, que les militaires sont en meilleure santé que la population générale et que, pour un virus saisonnier, le choix individuel devrait primer sur la logique de santé publique.

L’épidémiologie raconte une autre histoire.

Même si l’intensité des saisons grippales varie, le virus mute de manière si imprévisible que des pandémies comme celles de 1918, 1957, 1968 et 2009 restent une possibilité récurrente. La grippe continue d’ailleurs de causer chaque année des hospitalisations et des décès par dizaines de milliers aux États-Unis. Les Centers for Disease Control and Prevention estiment que le vaccin contre la grippe a ainsi évité environ 180 000 hospitalisations et 12 000 décès lors de la saison 2024-2025.

L’armée opère précisément dans des conditions qui favorisent la propagation des virus respiratoires : centres d’entraînement, casernes, navires ou sous-marins où les individus vivent en promiscuité.

La logique qui a conduit George Washington en 1777 et le Surgeon General de l’armée en 1945 à imposer la vaccination n’a, au fond, guère changé. Un soldat malade ne peut ni être déployé, ni s’entraîner, et peut transmettre la maladie à toute une unité.

Ce qui a changé, en revanche, c’est le poids politique accordé au refus individuel et c’est cela, bien plus que la question de l’efficacité du vaccin, que reflète la fin de cette obligation

The Conversation

Katrine L. Wallace ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

02.05.2026 à 08:51

Les résidus de cocaïne dans les rivières et les océans modifient les déplacements des saumons

Marcus Michelangeli, Lecturer, Environmental Sustainability and Management, Griffith University

Jack Brand, Researcher in Behavioural and Movement Ecology, Swedish University of Agricultural Sciences

Des saumons qui nagent plus loin, plus vite, et peut-être au mauvais endroit. Derrière cette anomalie comportementale se cache un phénomène global : la contamination des eaux par des résidus de drogues.
Texte intégral (1459 mots)
Les poissons exposés à la benzoylecgonine parcouraient jusqu’à 1,9 fois plus de distance par semaine. Hans-Petter Fjeld / Wikimedia, CC BY

La présence croissante de drogues dans les milieux aquatiques n’est plus anecdotique. Une nouvelle étude menée en Suède montre que même à faibles doses, ces substances peuvent perturber les déplacements de poissons et potentiellement fragiliser des espèces déjà sous pression.


Du poisson ou des requins sous cocaïne : l’image semble tout droit sortie d’un scénario hollywoodien, mais la réalité est bien moins divertissante. De plus en plus souvent, les scientifiques détectent de la cocaïne et d’autres drogues puissantes dans les milieux aquatiques et les retrouvent jusque dans le cerveau et le corps des animaux sauvages.

Une étude de 2024 menée au Brésil a fait les gros titres après avoir mis en évidence la présence de cocaïne dans les muscles et le foie de requins sauvages capturés au large de Rio de Janeiro. Si cela peut surprendre, cette découverte reflète un phénomène plus large et en expansion : les drogues consommées par les humains se retrouvent désormais dans les rivières, les lacs et les océans du monde entier.

Dans notre nouvelle étude, publiée récemment dans Current Biology, nous avons cherché à comprendre ce que cela implique pour la faune sauvage.

Des poissons « sous cocaïne » dans la nature

Nous avons étudié comment des concentrations de cocaïne comparables à celles observées dans l’environnement influencent le comportement des poissons à l’état sauvage. Nous nous sommes également intéressés à une substance appelée benzoylecgonine, principal composé résiduel issu de la dégradation de la cocaïne par l’organisme.

Pour cela, nous avons mené une expérience dans le lac Vättern, en Suède, le deuxième plus grand lac du pays, où nous avons suivi de jeunes saumons atlantiques pendant huit semaines.

À l’aide d’implants chimiques à libération lente, nous avons exposé les poissons soit à la cocaïne, soit à la benzoylecgonine, puis suivi leurs déplacements grâce à la télémétrie acoustique. Cette méthode nous a permis d’observer leur comportement en milieu naturel, plutôt que dans des bassins de laboratoire.

Ce que nous avons observé est frappant. Les poissons exposés à la benzoylecgonine parcouraient jusqu’à 1,9 fois plus de distance par semaine que les poissons non exposés et se dispersaient jusqu’à 12,3 kilomètres plus loin à travers le lac. Les poissons exposés à la cocaïne présentaient une tendance similaire, mais l’effet était plus faible et moins constant.

Des eaux usées aux milieux aquatiques

Comment ces substances se retrouvent-elles dans les environnements aquatiques ?

Après consommation, la cocaïne est rapidement dégradée par l’organisme, principalement en benzoylecgonine. Des composés de ce type – résidus issus de la transformation d’une substance par le corps – sont appelés des métabolites. La drogue initiale comme son métabolite sont ensuite excrétés et rejoignent les systèmes d’eaux usées.

Or, les stations d’épuration ne sont pas conçues pour éliminer complètement ces composés : ils traversent donc les traitements et sont rejetés dans les rivières, les lacs et les eaux côtières.

Ce phénomène n’a rien de localisé. La cocaïne est désormais l’une des drogues illicites les plus fréquemment détectées dans les milieux aquatiques à l’échelle mondiale.

Une analyse globale a mis en évidence des concentrations moyennes dans les eaux de surface d’environ 105 nanogrammes par litre pour la cocaïne et 257 nanogrammes par litre pour la benzoylecgonine, avec des pics atteignant plusieurs milliers de nanogrammes. Si ces niveaux restent faibles, ils suscitent néanmoins des inquiétudes, car ces composés ciblent des systèmes cérébraux partagés par de nombreux animaux : même à faibles doses, ils peuvent donc potentiellement affecter la faune sauvage.

Pourquoi le comportement est crucial

Les changements de comportement comptent parmi les indicateurs les plus précoces et les plus sensibles d’une perturbation environnementale affectant la faune. Ils peuvent influencer des fonctions essentielles, depuis la recherche de nourriture et l’évitement des prédateurs jusqu’aux interactions sociales, à la reproduction et à la survie.

Lorsque des contaminants modifient les comportements, leurs effets peuvent se répercuter bien au-delà de l’individu. De légers changements dans la manière dont les animaux se déplacent, s’alimentent ou réagissent aux menaces peuvent, à plus grande échelle, affecter la dynamique des populations, les interactions entre espèces et le fonctionnement des écosystèmes dans leur ensemble.

Les changements que nous avons observés dans la manière dont les poissons se déplacent dans leur environnement après une exposition à la cocaïne pourraient entraîner une dépense énergétique accrue, une fréquentation d’habitats de moindre qualité ou encore une exposition plus importante au risque de prédation.

Pour des espèces comme le saumon atlantique, déjà soumises aux pressions du changement climatique, de la perte d’habitat et d’autres polluants, même de légères perturbations comportementales peuvent venir aggraver les difficultés auxquelles elles sont confrontées.

Pourquoi le métabolite compte

L’un des résultats les plus surprenants de notre étude est que la benzoylecgonine a eu un effet plus marqué sur le comportement des poissons que la cocaïne elle-même. C’est un point crucial, car les évaluations des risques environnementaux se concentrent généralement sur les substances consommées par les humains, comme la cocaïne, plutôt que sur celles qu’ils rejettent ensuite, comme la benzoylecgonine.

Or ces métabolites sont souvent plus abondants et plus persistants dans les milieux aquatiques. Nos résultats suggèrent que nous sous-estimons peut-être les risques écologiques liés à ces polluants.

Notre étude s’est concentrée sur le comportement, et non sur les effets à long terme sur la santé. Nous n’avons pas encore évalué si ces changements influencent la survie ou la reproduction.

Cependant, des travaux antérieurs montrent que la cocaïne et des composés apparentés peuvent modifier la chimie du cerveau, accroître le stress oxydant et perturber le métabolisme énergétique chez les animaux aquatiques. Ces processus étant étroitement liés à la santé et à la condition physique, ils laissent entrevoir des effets plus larges.

L’idée de « poissons sous cocaïne » peut faire sourire, mais elle renvoie à un problème bien plus vaste. Les milieux aquatiques sont de plus en plus contaminés par des mélanges complexes de substances d’origine humaine, des médicaments aux drogues illicites. Beaucoup de ces composés sont biologiquement actifs à de très faibles concentrations, et nous commençons à peine à en comprendre les effets.

The Conversation

Marcus Michelangeli travaille pour Griffith University. Il a reçu un financement et un soutien à la recherche du Conseil suédois de la recherche Formas (2022-00503), ainsi que du programme de recherche et d’innovation Horizon 2020 de l’Union européenne dans le cadre d’une bourse Marie Skłodowska-Curie (101061889) pour mener ces travaux.

Jack Brand travaille pour l’Université suédoise des sciences agricoles et reçoit un financement du Conseil suédois de la recherche Formas (2024-00507). Il occupe également un poste de chercheur invité à l’Institute of Zoology de la Zoological Society of London.

PDF

01.05.2026 à 11:08

Comment les chênes déjouent les chenilles en retardant l'ouverture de leurs bourgeons

Andreas Prinzing, Professor

Jörg Müller, Prof. Dr., Julius Maximilian University of Würzburg

Soumen Mallick, Mallick, Julius Maximilian University of Würzburg

Une nouvelle étude montre que lorsque les chênes sont fortement endommagés par des chenilles une année, ils ouvrent leurs bourgeons plus tard au printemps suivant pour éviter de se faire manger les feuilles.
Texte intégral (892 mots)

Lorsque les chênes sont fortement endommagés par des chenilles une année, ils ouvrent leurs bourgeons plus tard au printemps suivant. Notre équipe internationale de recherche a montré que cette stratégie est très efficace contre leurs prédateurs. Nous venons de publier nos résultats dans la revue Nature Ecology & Evolution.

Au printemps en forêt, de nombreuses chenilles éclosent précisément lorsque les feuilles des arbres sont encore jeunes et tendres. Elles trouvent ainsi une table abondamment garnie.

Si les chênes sont fortement infestés par des chenilles une année donnée, ils réagissent au printemps suivant : ils retardent l’apparition de leurs feuilles de trois jours. Cela est défavorable aux chenilles. Après l’éclosion, elles se retrouvent littéralement face à des assiettes vides, car les feuilles de chêne sont encore bien cachées dans les bourgeons. Cette stratégie est très efficace : chez certaines espèces toutes les chenilles meurent après trois jours sans nourriture. En conséquence, ce stratégie de débourrement retardé diminue les dégâts causés par leur alimentation sur l’arbre de 55 %.

Comment avons-nous vu, depuis l'espace, comment les chênes combattent les chenilles ?

Pour démontrer ces liens, nous avons utilisé des méthodes interdisciplinaires de pointe issues de l’écologie et de la télédétection. Auparavant, les chercheurs devaient observer laborieusement des arbres individuels sur le terrain. Pour cette étude, cependant, une zone de 2 400 kilomètres carrés en Bavière du Nord a été surveillée en continu grâce aux données du satellite Sentinel-1. Ce qui rend ces satellites radar particuliers, c’est qu’ils fournissent des données précises sur l’état des canopées, même sous une épaisse couverture nuageuse.

Nous avons analysé un total de 137 500 observations individuelles sur cinq ans, de 2017 à 2021. Les satellites ont fourni des données avec une résolution de 10×10 mètres par pixel, ce qui correspond approximativement au houppier (la partie d'un arbre constituée d'un ensemble structuré des branches situées au sommet du tronc) d’un arbre unique. Au total, 27 500 pixels de ce type ont été analysés dans 60 zones forestières.

L’année 2019 s’est révélée particulièrement instructive, car la région a connu une invasion massive de la spongieuse (un ravageur des forêts de feuillus). Les capteurs radar ont enregistré précisément quels arbres ont perdu leurs feuilles et comment ils ont réagi l’année suivante.

En quoi cette découverte est-elle importante ?

Les arbres ne réagissent pas seulement à la météo au printemps. Cette tactique de retard est plus efficace pour le chêne qu’une défense chimique, comme les tanins amers présents dans les feuilles. En effet, l’arbre devrait dépenser beaucoup d’énergie pour augmenter sa production de tanins.

Pour la première fois, l’étude explique de manière concluante pourquoi, en moyenne, la forêt ne verdit pas aussi rapidement que les températures pourraient le laisser supposer. Les modèles informatiques antérieurs calculent souvent de manière inexacte l’état des forêts, car ils prennent exclusivement en compte des facteurs climatiques comme la température et ignorent les interactions biologiques entre plantes et insectes.

Les arbres se trouvent dans une sorte de bras de fer évolutif : alors que l’augmentation des températures liée au changement climatique les pousse à produire leurs feuilles de plus en plus tôt, la pression exercée par les insectes herbivores les contraint à retarder ce processus. Un avantage clé de cette stratégie de retard est qu’elle est temporaire et réversible. Comme les arbres ne retardent leur feuillaison qu’après une infestation réelle, les insectes ne peuvent pas s’y adapter de manière permanente. Cette interaction dynamique est un exemple de la grande résilience et capacité d’adaptation des forêts dans un monde en mutation.

Quelles sont les perspectives ?

Des expériences futures devraient permettre de mieux comprendre l'importance de ces mécanismes pour des patrons expliqués depuis des décennies par d'autres mécanismes, aussi bien que les conséquences pour les interactions des arbres avec leurs symbiontes mycorhiziens et avec les ennemies de leurs ennemies, comme les mésanges et des guêpes parasitoïdes.


Tout savoir en trois minutes sur des résultats récents de recherches, commentés et contextualisés par les chercheuses et les chercheurs qui les ont menées, c’est le principe de nos « Research Briefs ». Un format à retrouver ici.


The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

01.05.2026 à 10:30

Photovoltaïque : les dernières avancées des « pérovskites », la filière émergente qui voudrait booster le silicium

Claudine Katan, Directrice de Recherche, physicienne, Centre national de la recherche scientifique (CNRS)

Aditya Mohite, Professor in the Department of Chemical and Biomolecular Engineering with joint positions in Chemistry, Material Science and Nanoengineering, Electrical Engineering, and Applied Physics

George Volonakis, Professeur - Science des matériaux

Jacky Even, Professeur des Universités à l’INSA de Rennes depuis 1999 et membre senior de l’Institut Universitaire de France depuis 2018, INSA Rennes

Vous aimez les Lego ? Vous allez aimer les « pérovskites », ces matériaux modulables qui promettent de l’énergie solaire encore moins coûteuse.
Texte intégral (2197 mots)

Grâce aux panneaux solaires en silicium, l’électricité d’origine photovoltaïque est aujourd’hui disponible à faible coût. Pour aller plus loin – récolter plus d’énergie sur les mêmes surfaces pour des coûts réduits, produire plus localement – les scientifiques développent de nouveaux matériaux. Parmi eux, les « pérovskites » sont modulables et compatibles avec le silicium, ce qui les rend particulièrement prometteurs. Où en sont ces nouvelles technologies ? Quel chemin leur reste-t-il à parcourir ?


La filière du silicium est le leader du marché mondial des technologies photovoltaïque, avec 98 % des panneaux vendus. Grâce aux progrès dans le domaine, on dispose aujourd’hui d’électricité solaire déployable à faible coût dans la grande majorité des pays à travers le monde.

La montée en puissance des énergies renouvelables, avec en chef de file celle fondée sur la conversion directe de l’énergie solaire en électricité, légitime encore aujourd’hui le développement de nouvelles technologies photovoltaïques alliant frugalité, efficacité et longévité. Il s’agit d’augmenter encore les rendements de conversion et de minimiser les coûts (impact environnemental, prix de la fabrication, du transport, de l’installation, du recyclage), mais aussi de pouvoir garantir une durée de vie acceptable pour le fabricant, le consommateur et l’environnement.

Une des filières émergentes explorées par des chercheurs, start-up et industriels est celle exploitant les matériaux « pérovskites ». Dans cette communauté en ébullition, diverses stratégies sont développées pour allier de forts rendements et une longue durée de vie.

Dans nos études les plus récentes menées avec nos collaborateurs et publiées dans Science et Nature Synthesis, nous combinons plusieurs approches. La robustesse des nouvelles structures pérovskites est testée dans des conditions d’éclairement drastiques, simulant jusqu’à 15 fois la puissance du soleil. Ces résultats marquent une étape importante qui permet d’envisager de transposer les résultats en laboratoire à des produits industriels.

Le silicium, roi du marché, et les filières émergentes

Alors même que le silicium est devenu un matériau stratégique au cœur de nombreuses technologies électroniques, il risque de devenir une matière première critique (qui présente un risque d’approvisionnement). C’est tout particulièrement le cas en Europe, car la dernière fonderie de silicium active pourrait arrêter sa production, faute de pouvoir résister à la Chine en situation de surcapacité.

Parmi les filières photovoltaïques émergentes, celle des pérovskites fait la course seule en tête, car elle a rejoint en termes de performances (pour des cellules de laboratoire de petite surface, inférieures à un centimètre carré) la filière silicium avec des rendements certifiés supérieurs à 27 %. Les matières premières nécessaires sont disponibles en Europe.

Un de ses principaux atouts est d’être compatible avec les panneaux solaires silicium traditionnels, car ces deux technologies absorbent la lumière du soleil de façon complémentaire. Ainsi, en empilant une cellule silicium et une cellule pérovskite, on obtient une unique cellule dite « tandem » – qui dépasse aujourd’hui les 35 % pour des tandems de laboratoire et 27 % pour des modules de plus de 14 000 centimètres carrés (l’équivalent de panneaux carrés de 1,2 mètre de côté), permettant aux industriels – y compris en France — d’envisager sérieusement leur commercialisation.

En augmentant l’électricité produite pour une même surface de panneaux solaires, s’ouvre une perspective de retours sur investissements beaucoup plus rapides, qui pourrait encore booster le déploiement du photovoltaïque.

C’est pourquoi Daniel Lincot, membre de l’Académie des technologies et fervent défenseur de l’énergie solaire pour la transition énergétique et écologique, n’hésite pas à dresser un parallèle avec l’augmentation énorme et inattendue des vitesses des bateaux à voile au cours des dernières décennies grâce à l’ajout de surfaces portantes immergées (foils), en disant « les pérovskites sont les foils du silicium ».

Si le potentiel des matériaux pérovskites pour augmenter fortement les rendements des dispositifs photovoltaïques en silicium n’est désormais plus à démontrer, une dégradation rapide des performances en fonctionnement de ces nouvelles cellules et panneaux solaires est le verrou principal empêchant les pérovskites d’entrer sur le marché des panneaux solaires. Pour le lever, les scientifiques développent différentes stratégies pour mieux organiser la matière à l’échelle microscopique.

Les matériaux pérovskites : des promesses, des prouesses… et des défis

Le terme générique pérovskite désigne une structure cristalline caractéristique à l’échelle atomique avec des octaèdres partageant leurs sommets formant un réseau tridimensionnel (3D). La composition chimique des matériaux présentant cette structure varie avec notamment le titanate de calcium, un minéral découvert dès 1839 en milieu naturel et qui comprend des atomes d’oxygène (en bleu sur l’image).

Les compositions pertinentes pour le photovoltaïque et reconnues comme une nouvelle classe de semiconducteurs, sont, quant à elles, synthétiques (c’est-à-dire fabriquées par les chimistes) : l’oxygène est par exemple substitué par l’iode alors que le plomb (couleur or) occupe le centre de l’octaèdre, tandis qu’un atome tel que le Césium, ou une petite molécule organique (en rose) perd un électron (on parle de cation inorganique ou organique) et s’insère dans la cavité de la structure cristalline entre les octaèdres.

Si ce cation est trop petit ou au contraire trop volumineux, le réseau préfère adopter une autre structure cristalline qui n’aura pas les propriétés requises pour produire et conduire ensuite le courant électrique au sein d’une cellule solaire. Ceci se traduit par un changement de couleur, le matériau passant de la phase pérovskite semi-conductrice dite « noire », et donc fortement absorbante pour les longueurs d’onde visibles du spectre solaire (inférieures à 0,8 micromètre), à une phase non-pérovskite dite « jaune », signe que la gamme d’énergie des photons du soleil que le matériau est capable d’absorber est beaucoup plus restreinte (inférieures à 0,5 micromètre).

Ce changement de couleur est également observé lorsque le matériau pérovskite se dégrade, ce qui réduit fortement l’efficacité de conversion de l’énergie solaire. Depuis une dizaine d’années, la communauté de recherche s’efforce donc de comprendre les mécanismes de dégradation — et bien sûr, de les circonscrire.

Les dernières avancées pour des matériaux pérovskites efficaces et plus stables

Une des principales stratégies pour augmenter l’efficacité de conversion exploite des matériaux pérovskites qui sont en fait des mélanges de différents types de pérovskites synthétiques 3D. Malheureusement, ces alliages sont sujets à des phénomènes de démixtion et/ou à des déformations du réseau cristallin, notamment sous irradiation lumineuse – ce qui conduit à une dégradation irréversible. De plus, certaines de ces compositions 3D sont très sensibles à l’humidité. Enfin, on observe aussi des problèmes de stabilité à l’échelle du dispositif (cellule et panneau solaire), particulièrement en conditions opérationnelles (sous irradiation lumineuse ou lorsqu’un courant traverse la cellule solaire).

Au sein de la communauté internationale, plusieurs stratégies ont été inventées pour pallier ces problèmes. Par exemple, l’ingénierie des ligands a pris une place prépondérante avec l’exploration de divers acides qui viennent « passiver » les interfaces (c’est-à-dire empêcher la formation de « défauts » qui capturent les électrons et limitent donc la génération d’un courant électrique).

Un autre exemple est la « stratégie du millefeuille », explorée dès les années 90 : il s’agit d’une alternance périodique où la crème correspond à la couche organique et la pâte à la couche pérovskite. Des cellules solaires contenant ces pérovskites lamellaires ont atteint dès 2016 des stabilités record en fonctionnement.

En associant des pérovskites 2D (millefeuille) et 3D au sein d’une même cellule solaire, on combine la stabilité des premières aux rendements de conversion record des deuxièmes. En particulier, un design basé sur une ingénierie très poussée des hétérostructures 2D/3D a représenté l’état de l’art en 2022 et en 2024 en matière de stabilité pour une cellule solaire pérovskite en fonctionnement.

Aujourd’hui, nos tout derniers travaux publiés en ce printemps 2026 dans Science nous rapprochent encore plus de la stabilité requise en vue d’une commercialisation. En comprenant par quel chemin le matériau pérovskite synthétique passe de la phase noire à la phase jaune, l’ajout d’un additif spécifique a permis de soumettre les cellules 2D/3D à des tests encore plus drastiques : un flux lumineux équivalent à 15 soleils !

En parallèle, la fabrication récente de pérovskites 2D multicouches ne présentant aucune distorsion structurale et permettant un transfert des charges électriques générées par le soleil sur des distances records (au-delà de 2 micromètres, de l’ordre de 2 à 3 fois le diamètre d’un cheveu) permet pour la première fois d’envisager des dépôts de couches 2D et 3D avec des épaisseurs similaires de l’ordre de 300 à 500 nanomètres. Une telle épaisseur pour la partie 2D représente une barrière robuste à la pénétration d’espèces chimiques qui autrement risqueraient de détériorer la structure. Avec une couche épaisse, la partie 2D pourra aussi contribuer à la production d’électricité. De plus, les dernières couches 2D synthétisées possèdent des seuils d’absorption en énergie suffisamment bas pour qu’il soit envisageable de les tester en association avec le silicium dans des structures tandem en s’affranchissant totalement de la partie 3D.


Le projet SURFIN (ANR-23-CE09-0001) est soutenu par l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.

The Conversation

Claudine Katan est membre du GDR HPERO.

George Volonakis a reçu des financements de l'Agence national de la recherche pare le projet de CPJ et le projet SURFIN (ANR-23-CE09-0001).

Jacky Even est membre du GDR HPERO et a reçu des financements de l'institut universitaire de France.

Aditya Mohite ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

30.04.2026 à 14:50

« Les Français ne veulent plus travailler » : généalogie d’un soupçon qui a quarante ans

Jean Pralong, Professeur de Gestion des Ressources Humaines, EM Normandie

Régulièrement, le rapport des Français au travail est remis en cause. Pourtant, les études montrent que la centralité du travail reste d’actualité. Et c’est peut-être ça le problème…
Texte intégral (1741 mots)

Les Français ne travaillent pas assez. La valeur travail recule… Ces lieux communs qui tournent en boucle dans le débat public à gauche – pour s’en féliciter- comme à droite – pour le déplorer – alors même que les faits prouvent le contraire avec une étonnante régularité. Et si cette idée reçue développée dans les années 80 était la première fake news qui empêche de poser la question du travail de manière vraiment pertinente ?


Grande démission, quiet quitting, paresse supposée des nouvelles générations, crise du sens… les Français se seraient désengagés du travail. Le diagnostic a pourtant quarante ans. Il est né au début des années 1980, dans le moment néolibéral inauguré par Ronald Reagan et Margaret Thatcher, et n’a jamais désarmé depuis. Les enquêtes longues qui mesurent ce que les Français disent du travail le contredisent avec la même constance. Apparamment en vain.

Récits jumeaux

Au tournant des années 1980, deux discours sur la « crise du travail » émergent simultanément, dans des registres opposés. D’un côté, une critique intellectuelle annonce la fin de la société du travail. André Gorz publie Adieux au prolétariat en 1980, Roger Sue Vers une société du temps libre ? en 1982, Gilles Lipovetsky L’ère du vide en 1983. La séquence se prolongera quinze ans plus tard avec Jeremy Rifkin (La fin du travail, 1996). Le travail-valeur s’effacerait derrière l’individualisme contemporain : la critique vient de la gauche intellectuelle, elle accompagne la sortie du fordisme.

De l’autre s’installe un discours patronal et managérial, dans le sillage immédiat de l’élection de Margaret Thatcher (1979) et de Ronald Reagan (1981) : les salariés occidentaux ne travailleraient pas assez, leur productivité décrocherait face aux concurrents asiatiques, les rigidités du droit du travail nous tueraient. Ezra Vogel publie Japan as Number One en 1979 ; William Ouchi Theory Z en 1981 ; Tom Peters et Robert Waterman In Search of Excellence en 1982. Le Japon devient le miroir où l’Occident se regarde et se découvre déficitaire.


À lire aussi : Libéraux et conservateurs ont-ils raison de s’attaquer à l’assistanat et à l’État social ?


La réthorique du « Jamais assez »

En France, le tournant de la rigueur de 1983 signe l’alignement de la gauche au pouvoir sur cette grammaire compétitive ; le patronat, par la voix d’Yvon Gattaz puis de ses successeurs au CNPF, fait du « jamais assez » sa rhétorique principale. Le salarié français n’est jamais assez conscient des enjeux économiques, jamais assez engagé, jamais assez productif. « Pendant que vous paressez, les Japonais travaillent » est le cliché des années 1980. L’Allemagne remplacera le Japon dans les années 1990, qui sera ensuite remplacé par la Corée, puis la Chine… Si le pays avec lequel on compare la France change ; la conclusion reste la même : un déficit permanent du salarié français, à mesurer à l’aune d’un autre toujours plus laborieux.

Si les deux récits induisent des politiques opposées, ils convergent sur une intuition partagée : le rapport au travail aurait changé. C’est cette intuition qui s’installe pour quarante ans.

Or, il existe un dispositif, l’European Values Study (EVS), qui mesure précisément ce que les Français disent du travail dans leur vie, et qui le mesure à intervalles réguliers depuis 1981. Lancée à l’initiative de chercheurs européens, conduite en France sous la direction d’Hélène Riffault, synthétisée pour l’essentiel par Jean Stoetzel dans Les valeurs du temps présent (PUF, 1983), elle interroge tous les neuf ans environ un échantillon représentatif. Cinq vagues à ce jour : 1981, 1990, 1999, 2008, 2018.

La centralité toujours renouvelée du travail

La question est simple : « Diriez-vous que le travail est, dans votre vie, très important, assez important, peu ou pas du tout important ? » Les réponses « très important » : 60 % en 1990, 69 % en 1999, 68 % en 2008, niveau comparable en 2018. La centralité subjective du travail est l’une des données les plus stables que les sciences sociales aient mesurées sur quatre décennies.

Pire pour le récit dominant : la France est parmi les pays européens où le travail conserve la plus forte centralité déclarée. L’enquête publiée en 2023 par l’Institut Montaigne avec Kantar Public, conduite sur 5 001 actifs et titrée Les Français au travail : dépasser les idées reçues – titre symptomatique du décalage –, confirme : satisfaction au travail élevée et stable, malgré une intensification massivement ressentie.

Que se passe-t-il, alors ? Une autre série d’enquêtes, conduites depuis 1978 par la DARES et renouvelées tous les sept ans (Conditions de travail 1978, 1984, 1991, 1998, 2005, 2013, 2016, 2019), documente avec précision ce qui s’est effectivement transformé, moins le rapport au travail que ses conditions concrètes d’exercice. Les contraintes de rythme se sont multipliées – en 2016, un salarié sur trois est soumis à au moins trois contraintes de rythme simultanées. La charge mentale a crû. L’autonomie réelle, malgré la rhétorique de l’empowerment et de la responsabilisation, recule. Le travail sous pression s’est durablement banalisé.

Quand la solution aggrave le problème

Cette dégradation n’est pas un effet de bord. Elle accompagne l’importation, à partir des années 1980, des pratiques managériales nées du diagnostic patronal : lean management, flexibilisation, juste-à-temps, cercles de qualité, individualisation des objectifs, évaluation continue. Le « jamais assez » a produit les dispositifs concrets qui intensifient le travail. Le diagnostic et son traitement forment un même mouvement.

Deux faits coexistent donc : le travail compte toujours autant pour les Français, même si les conditions d’exercice se sont durcies – précisément parce que la grammaire managériale dominante l’a voulu ainsi. La souffrance documentée par les enquêtes n’est pas le signe d’un retrait subjectif. Elle est l’effet d’une centralité maintenue dans des conditions dégradées par l’effort même de combattre un désengagement qui n’avait pas lieu.

Pourquoi le récit persiste

Dans ces conditions, si le récit du « jamais assez » persiste, c’est parce qu’il n’a jamais eu pour fonction de décrire, mais de justifier. Il est, d’abord, est un dispositif rhétorique qui produit la demande d’expertise censée le résoudre. Le baromètre annuel State of the Global Workplace publié par Gallup, qui chiffre depuis vingt ans le « désengagement » mondial, en est l’archétype : il documente en mesurant ce qu’il a besoin de constater pour justifier son commerce de conseil. McKinsey avait inauguré le genre à la fin des années 1990 avec son rapport War for Talent – autre récit de pénurie destiné à vendre une expertise. Chaque vague du récit nourrit un marché.

The Conversation France/Canalchat 2026.

Le dispositif a aussi une fonction générationnelle : présenter chaque cohorte qui entre sur le marché du travail comme étrangère à la précédente. Les baby-boomers étaient déjà soupçonnés en 1968 d’avoir « refusé le travail » ; les X « ne s’investissaient plus comme avant » dans les années 1990 ; les Y avaient « besoin de sens » dans les années 2000 ; les Z auraient désormais « la flemme ». La rupture est toujours générationnelle, et toujours nouvelle.

Une fonction politique enfin : il sert tour à tour à justifier la flexibilisation (« les jeunes ne veulent plus s’engager ») et à la dénoncer (« le néolibéralisme a tué le sens du travail »). Il est utilisable de tous bords.


À lire aussi : Vote radical : ce que le travail nous apprend des colères qui séparent


Soupçons permanents

Mais ces fonctions recèlent une matrice plus profonde : un dispositif de soupçon permanent à l’égard du salarié, né dans le moment néolibéral du début des années 1980 et qui n’a depuis jamais cessé de se réinventer. Or si l’on prend les données au sérieux, les politiques d’engagement, de fidélisation ou de marque employeur ne s’adressent pas à des salariés désinvestis.

Elles s’adressent à des salariés qui tiennent au travail dans des organisations qui tiennent de moins en moins leurs promesses. Tant qu’on lit la souffrance comme un retrait, on cherche à réengager des gens jamais désengagés en empilant des dispositifs qui aggravent ce qu’ils prétendent soigner. Si on la lit pour ce qu’elle est – un engagement contrarié –, on s’oblige à regarder ce qui, dans les organisations, contrarie cet engagement : l’intensification non négociée, l’autonomie reprise, le sens promis et non tenu.

The Conversation

Jean Pralong ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

30.04.2026 à 14:25

Vingt ans de sanctions économiques, 16 000 frappes et 50 % d’inflation, pourquoi le régime des mollahs ne tombe-t-il pas ?

Benyamin Shajari, Professeur de management de la chaîne d'approvisionnement, Excelia

La résilience de l’économie iranienne prend sa source dans un choix logistique, privilégiant la robustesse à l’hyperperformance. Quelles leçons en tirer ?
Texte intégral (1545 mots)

Depuis le début de l’intervention israélo-états-unienne en Iran, la résilience du régime interroge. Alors que le caractère répressif du régime annihile les mouvements d’opposition, ce dernier a mis en place une organisation logistique favorisant la robustesse à tout prix plutôt que l’efficience à court terme. L’hyperperformance des systèmes logistiques est-elle devenue, a contrario, une source de faiblesse de premier plan ?


La quête de rentabilité absolue a créé un monstre fragile. Nos chaînes logistiques mondiales sont à la fois hyperoptimisées et vulnérables. Résultat : le moindre grain de sable paralyse désormais l’économie globale.

Cette fragilité systémique se confirme avec un exemple inattendu. Le régime iranien résiste de façon spectaculaire dans l’actuel conflit au Moyen-Orient, illustrant l’efficacité redoutable d’une stratégie fondée sur la robustesse plutôt que sur la performance.

Performance logistique

Durant quarante ans le commerce mondial a vénéré l’efficience maximale. Les entreprises ont vidé leurs entrepôts pour fonctionner en flux tendus permanents. Cette obsession a concentré les échanges autour de quelques passages maritimes étroits. Le détroit d’Ormuz, le Bab-el-Mandeb (détroit de la mer Rouge, ndlr), Taïwan, Malacca (dans le sud-ouest de la Malaisie, ndlr) ou le canal de Suez (en Égypte, ndlr) incarnent cette perfection dangereuse. Un cinquième du pétrole mondial transite chaque jour par Ormuz.


À lire aussi : Le détroit d’Ormuz est un laboratoire pour gérer la logistique mondiale en temps de guerre


Cette concentration offre des profits immenses en temps de paix mais prive le système de toute marge d’erreur. Une pandémie, un navire échoué ou un conflit militaire suffit à faire vaciller l’édifice.

L’effondrement récent du trafic maritime au détroit d’Ormuz prouve que cette performance logistique est devenue notre principal point faible.

Une vulnérabilité fatale : la  perfection

Cette fragilité oblige les dirigeants à changer de logiciel mental. La performance pure ne fonctionne que dans un monde stable et abondant. Dans notre époque marquée par les crises et la rareté, l’optimisation devient une vulnérabilité fatale. Un système robuste accepte d’être sous-optimal à court terme pour garantir sa survie lors des tempêtes.

Ce renversement de pensée explique la dynamique du conflit actuel. Beaucoup prédisaient un effondrement rapide de Téhéran face à une puissance de feu supérieure. Pourtant, le régime tient bon. L’État iranien a substitué la survie à la victoire éclatante en imitant les mécanismes de défense de la nature.

La redondance comme levier de survie

Cette résilience résulte de plus de vingt années d’apprentissage forcé. La République islamique a transformé les pires sanctions de l’histoire en doctrine de survie. La redondance systémique est devenue sa règle d’or. Sur le plan militaire, Téhéran n’a pas concentré ses usines. La carte publiée par la CIA montre que le pays a disséminé la production de ses drones et de ses missiles sur tout son territoire.

CIA, Fourni par l'auteur

Ce maillage décentralisé permet à d’autres sites de prendre le relais sous les bombardements. Ainsi, une destruction de ce réseau par voie aérienne devient quasi impossible et très coûteuse. L’objectif pour le régime consiste donc à absorber le choc pour durer.

Cette logique de forteresse s’applique aussi à l’économie civile par des choix contre-intuitifs. Premièrement, l’Iran figure parmi le Top 15 mondial des producteurs de blé et frôle l’autosuffisance. Toutefois, selon l’agence de presse iranienne Tasnim, l’État, anticipant la possibilité d’un conflit majeur, a importé environ trois millions de tonnes de céréales fin 2025. Deuxièmement, le 3 mars 2026, Téhéran a même sacrifié ses précieuses rentrées de devises. Le gouvernement a interdit toute exportation agroalimentaire pour protéger son marché intérieur. Troisièmement, selon le média iranien Tabnak, le partenariat stratégique avec la Russie signé en 2025 continue à sécuriser la chaîne alimentaire par l’intermédiaire de la mer Caspienne depuis le début de la guerre en fin février. Enfin, pour contourner le blocus d’Ormuz, le pays a basculé ses échanges vers l’Asie centrale.

France 24, avril 2026.

Porte de secours

L’explosion du commerce, militaire et alimentaire, avec le Tadjikistan prouve l’efficacité de cette porte de secours. Les embargos et les bombardements n’ont donc pas tué la République islamique d’Iran. Ils ont forgé un écosystème où la sécurité des approvisionnements alimentaires et surtout militaires surpasse toujours la rentabilité.

Mais cela a forcément un prix, car l’inflation en Iran dépasse désormais le chiffre symbolique de 50 %.

Encaisser les chocs sans se briser

Cette séquence stratégique dépasse largement les frontières iraniennes. Elle sonne l’alarme pour tous les décideurs économiques. Ceci marque la fin d’une époque : la survie d’un acteur organisé pour la robustesse face à des adversaires structurés pour la performance. Dans un environnement avec des disruptions chroniques, les modèles d’affaires fondés sur la rationalisation extrême sont très fragiles.

Les entreprises doivent recréer des marges de manœuvre. Il faut accepter de sacrifier les profits immédiats. Il devient vital de multiplier les fournisseurs locaux et de reconstituer des stocks stratégiques. Une part d’inefficacité opérationnelle est le nouveau prix à payer pour la sécurité à long terme.

La compétition mondiale ne couronnera plus l’entité la plus optimisée. Elle récompensera celle qui saura encaisser les chocs sans se briser.

The Conversation

Benyamin Shajari ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

30.04.2026 à 11:27

Overcoming the algorithmic gender bias in AI-driven personal finance

Eliana Canavesio, Senior Research Associate and Project Coordinator, European University Institute

An economist explores the gender data bias behind credit scoring and borrowing money from the bank that excludes women worldwide, denying them the same economic rights as men.
Texte intégral (1546 mots)

Artificial intelligence is transforming our world and financial services are no exception. AI is reshaping the personal banking sector but where does it currently stand on gender parity, transparency and fairness?

When someone applies for a loan today, there is a growing chance that no human ever reads their application. A data-driven algorithm decides whether they qualify, how much they can borrow, and how risky they are considered, often in a matter of seconds and without explanation, quietly shaping financial opportunities in ways most people never see but feel in their everyday lives.

These systems are usually presented as neutral tools: faster than people, more consistent, less prone to prejudice.

In a sector long criticised for opacity and bias, that promise is appealing and frequently echoed in industry and policy debates. But that promise rests on a fragile assumption, rarely made explicit, that the data these systems learn from reflects everyone’s lives equally.

A recent report by the EU Agency for Fundamental Rights, based on fieldwork in five member states, examined how high-risk AI systems are governed under the EU AI Act in areas such as employment, public benefits and law enforcement. It found a striking gap between legal ambition and practice: while risks of discrimination are broadly acknowledged, providers and deployers often lack the tools, expertise and guidance to assess them systematically. Self-assessments tend to be inconsistent, and oversight remains thin.

This is an important issue. When the data feeding these systems fails to capture the reality of women’s financial lives with the same depth and accuracy as men’s, the result is not just a technical shortcoming but a structural distortion, one that shapes who gets access to credit, on what terms, and with what long-term consequences. For AI-driven finance to be fair, women must first be “visible” in the data on which these systems rely.

Algorithms do not judge fairness or ask whether an outcome makes sense, but estimate what is most likely to be correct based on the data they are given, drawing patterns and projecting them forward. When data is incomplete or distorted, the system’s conclusions rest on shaky assumptions from the start.

If women are underrepresented, poorly measured, or never analysed separately from men, the system cannot see unequal outcomes, and what it cannot see, it cannot correct. Bias is simply carried forward and made routine.

This dynamic is easy to miss when discussions stay at the level of models and regulation, but its effects become clear as soon as automated systems are observed in practice. Across different countries, evidence shows how quickly inequality can be embedded in algorithmic decisions, not because systems are designed to discriminate, but because they faithfully reproduce the distortions already present in the data they learn from.

Kenya offers a telling illustration. According to published studies, a widely used digital lending algorithm consistently offered women smaller loans than men, in some cases by more than a third, despite stronger repayment performance. The system did not single women out deliberately: it simply learned from data shaped by long-standing social and economic disparities, and then applied those patterns at scale.

What matters in this example is not Kenya itself, but what the case makes visible. The algorithm did exactly what it was designed to do, learning from past behaviour and applying those patterns consistently, yet without the ability to distinguish between women’s and men’s outcomes, there was no way to detect that inequality was being reproduced in real time. The problem was not automation, but blindness.

How can finance overcome the gender blind spot?

That is where sex-disaggregated data becomes essential. By sorting financial data by gender, regulators, financial institutions, and technology designers can uncover the impacts of automated systems, identify who has access to finance, and pinpoint areas where outcomes begin to diverge. Without that visibility, gender gaps remain hidden, and hidden gaps have a habit of becoming permanent. In digital finance, data is “a girl’s best friend”, not as a slogan, but as a practical condition for accountability.

Most financial institutions already record a customer’s gender as part of basic identification. On paper, the information is there, embedded in routine reporting and basic customer records. In practice, however, recording a variable is not the same as using it. In many countries, the sex of the customer appears in databases but is never analysed, reported, or monitored by supervisors, including in core supervisory frameworks such as prudential reporting. Too often, the data already exists, but it is collected, filed away, and then quietly ignored. The problem lies not in what can be done, but in what is done.

Fairer finance: developing countries are leading the way

The picture looks very different in countries often assumed to have fewer resources. In parts of Latin America and Africa, regulators have required sex-disaggregated reporting for years and regularly publish data on gender gaps in finance.

In Chile, financial authorities have tracked gender differences in loans and deposits for more than two decades, publishing regular sex-disaggregated financial statistics.

In Mexico, regulators combine bank data with national household surveys to understand how women and men use financial services and how they perform as borrowers.

That visibility has had practical consequences. In Mexico, supervisory data showed that women’s loans were smaller but less risky, evidence that fed into changes in loan loss provisioning rules.

In Chile, the data revealed that equal access to accounts did not translate into equal outcomes in savings or insurance, prompting more targeted policy responses. Once these gaps became visible, they became far harder to ignore.

Seen from this perspective, the situation in many high-income economies looks less like a technical lag and more like an institutional hesitation. In much of Europe, gender data remains voluntary or fragmented despite advanced data infrastructures, a failure not of technical capacity but of institutional choice. My upcoming policy paper “Data Are a Girl’s Best Friends: Tackling Digital Financial Inequality Through Sex‑Disaggregated Data”, due to be published in May explores this.

As artificial intelligence becomes more deeply embedded in financial decision-making, that choice becomes harder to defend. At a time when Europe is implementing the EU AI Act and debating how to regulate algorithmic decision-making in finance, the absence of systematic gender data raises a basic question: how can fairness be monitored if the data needed to detect inequality is never analysed?

Making women visible in the data is not symbolic. Without it, fair finance is little more than a claim.


A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!


The Conversation

Eliana Canavesio est membre de Volt Europa.

PDF

30.04.2026 à 09:45

Mesurer l’invisible : ce que l’écorce des arbres nous apprend de la pollution de l’air à Paris

Yann Sivry, Professeur des Universités, Institut de physique du globe de Paris (IPGP)

Aude Isambert, Maîtresse de conférence, Institut de physique du globe de Paris (IPGP); Université Paris Cité

Christine Franke, Maîtresse de conférence, Mines Paris - PSL

Claire Carvallo, Maîtresse de conférence, Sorbonne Université

Laure Turcati, Ingénieure de recherche en sciences participatives, Sorbonne Université

Comment mesurer plus finement la pollution de l’air en ville à l’échelle de la rue ? L’écorce des arbres peut livrer des informations précieuses pour guider l’action publique.
Texte intégral (3461 mots)

Les particules fines et ultrafines issues du trafic routier sont parmi les polluants les plus nocifs pour la santé. Elles sont aussi les plus difficiles à mesurer à l’échelle d’un quartier. À Paris, un projet de sciences participatives montre comment des citoyennes et des citoyens, en prélevant l’écorce des platanes qui peuplent la ville, peuvent compléter les dispositifs officiels et produire des données utiles à l’action publique.


Dans les grandes villes, la pollution de l’air est surveillée par des stations fixes, par exemple celles d’Airparif en Île-de-France, qui permettent le suivi assez fin de différents types de polluants et de modéliser les tendances générales. Ces stations sont encore trop peu nombreuses pour rendre compte de l’exposition réelle des populations, rue par rue.

Cette limite est particulièrement problématique pour la fraction inorganique des particules fines (de dimensions inférieurs à 2,5 micromètres) et ultrafines (plus petites que 0,1 micromètre). Par « fraction inorganique », on entend les particules minérales ne contenant pas de carbone. Elles sont d’origine soit primaire (érosion des sols, particules métalliques liées à l’usure des plaquettes de frein…), soit secondaire, formées à partir d’autres polluants gazeux. Ces particules sont étroitement liées au trafic routier et associées à des effets sanitaires majeurs. Or, à l’heure actuelle, une seule station de mesure fixe est opérationnelle dans Paris.

Platane dans le XVIᵉ arrondissement de Paris. Polymagou/Wikimédia, CC BY-SA

Pourtant, la mesure devrait guider l’action : urbanisme, aménagements cyclables, piétonisation ou régulation du trafic reposent sur des données souvent trop parcellaires pour éclairer des décisions locales.

Notre recherche, publiée dans la revue Community Science, s’appuie sur un constat simple : les arbres enregistrent la pollution de leur environnement immédiat. Les particules issues du trafic se déposent sur l’écorce, qui agit comme un capteur passif intégrant la pollution sur plusieurs mois. Cela en fait un indicateur pertinent pour évaluer une exposition chronique.

L’écorce des platanes, révélatrice de pollution

Dans le cadre du projet Ecorc’Air, des volontaires collectent, chaque printemps, au moment de l’exfoliation annuelle, des fragments d’écorce de platanes, arbre omniprésent le long des rues – et notamment au sein de la capitale parisienne, qui abrite plus de 40 000 platanes.

Ces échantillons sont ensuite transmis en laboratoire, où ils sont analysés. La mesure d’une propriété physique particulière de l’échantillon, la susceptibilité magnétique, permet d’estimer la quantité de particules métalliques déposées. Ces dernières sont directement liées aux émissions du trafic automobile.


À lire aussi : Pollution de l’air en ville : cartographie, microcapteurs et sciences participatives


Sur plusieurs milliers d’échantillons collectés depuis 2016, nous montrons que ce signal magnétique est fortement corrélé à la présence de métaux, dont certains peuvent se révéler toxiques en fonction de leur nature et des doses inhalées. Le protocole mis en place, très accessible même sans connaissances préalables, permet de cartographier la pollution à une échelle très fine, de l’ordre de quelques dizaines de mètres.

Susceptibilité magnétique des échantillons d’écorce collectés au cours des campagnes successives. C. Carvallo et coll., 2024, Fourni par l'auteur

Grâce à cet échantillonnage massif, rendu possible par la participation citoyenne, plusieurs observations ont pu être faites :

  • d’abord, il existe des « points noirs » persistants. Certaines zones parisiennes présentent des niveaux élevés et récurrents de pollution en particules métalliques depuis le début du suivi : il s’agit des quais à forte circulation (la voie Georges-Pompidou sur sa portion carrossable, par exemple), des abords du périphérique et des axes congestionnés. À l’inverse, les parcs et les espaces éloignés du trafic affichent des niveaux relativement faibles. Ces cartes permettent d’identifier des priorités d’intervention, là où les stations de surveillance classiques ne suffisent pas.

  • Ensuite, la pollution décroît rapidement avec la distance. Nos données montrent une diminution nette de la contamination en particules dès que l’on s’éloigne de la chaussée, surtout dans les premiers mètres. Cela confirme l’importance du choix de l’implantation des trottoirs et des pistes cyclables vis-à-vis des barrières naturelles (haies ou arbustes) et des zones de repos (espaces où l’on trouve par exemple des bancs).


À lire aussi : Pourquoi prendre le métro nous expose à davantage de particules fines


Quand les voitures font écran

L’un des résultats les plus frappants concerne l’organisation très concrète de l’espace public. Sur plusieurs grands axes parisiens, notamment le boulevard Saint-Germain, nous avons comparé les niveaux de pollution enregistrés par les arbres selon la configuration de la voie la plus proche : circulation automobile générale (configuration notée A sur le schéma ci-dessous), voie bus-taxi (C), voie partagée bus-vélo-taxi (D) ou présence d’une file de stationnement entre la chaussée et le trottoir (B).

Quatre configurations de la chaussée sont présentes sur le boulevard Saint-Germain. C. Carvallo et coll., 2024, Fourni par l'auteur

Les différences observées sont nettes. Les arbres situés au plus près des voies de circulation automobile présentent systématiquement les valeurs de susceptibilité magnétique les plus élevées. À l’inverse, lorsqu’un élément (haie naturelle, véhicule stationné) sépare la chaussée du trottoir, les niveaux mesurés dans l’écorce sont significativement plus faibles. Cette diminution est suffisamment marquée pour être statistiquement robuste sur l’ensemble des données collectées en 2020 et 2021.

Cette observation suggère que les véhicules en stationnement jouent un double rôle. D’un côté, ils augmentent la distance entre la source d’émission et les piétons et piétonnes et, de l’autre, ils constituent un obstacle physique à la projection directe des particules métalliques issues du trafic vers les trottoirs. Cet effet de « paravent » réduit l’exposition des piétons et piétonnes de manière comparable à celle obtenue en s’éloignant de plusieurs mètres de la chaussée.

Les voies partagées avec les bus et les taxis, souvent présentées comme favorables aux mobilités actives, sont associées à des niveaux élevés de pollution. Ben Welle, CC BY-SA

Notre point n’est pas ici de promouvoir la généralisation de places de stationnement le long des rues, qui favoriserait les déplacements en voiture, mais de pointer l’intérêt de penser une réelle séparation entre la chaussée et les piétons et piétonnes. À l’inverse, les voies partagées avec les bus et les taxis, souvent présentées comme favorables aux mobilités actives, restent associées à des niveaux élevés de pollution particulaire.

Ces résultats, intuitifs en apparence, sont pourtant rarement objectivés par des données à haute résolution spatiale. Ils montrent que des choix d’aménagement très concrets – plans de stationnement, élargissement des trottoirs, séparation réelle des pistes cyclables, séparation spatiale des zones piétonnes et du trafic routier, projets de végétalisation… – ont des effets mesurables sur l’exposition quotidienne des populations.


À lire aussi : Quel bilan pour les nouvelles « forêts urbaines » d’Anne Hidalgo ?


Les sciences participatives changent la donne

Un tel niveau de détail n’aurait pas été possible sans la participation massive de volontaires. Les réseaux de surveillance réglementaires, indispensables pour suivre les tendances de fond, reposent sur un nombre limité de stations fixes. À Paris, comme dans la plupart des grandes villes, celles-ci sont trop espacées pour rendre compte des contrastes fins liés à la morphologie des rues, à l’intensité locale du trafic ou aux choix d’aménagement.

Le projet Ecorc’Air repose sur une logique différente : multiplier les points de mesure simples, robustes et comparables dans le temps. En mobilisant des bénévoles pour collecter des échantillons d’écorce de platanes à hauteur de respiration, il a été possible de constituer, année après année, une base de données accessible de plusieurs milliers de points, couvrant des quartiers entiers et permettant des comparaisons temporelles.

Résultats collectés par le projet Ecorc’Air entre 2016 et 2025

Cette approche présente un second avantage souvent sous-estimé : elle transforme la production de données en objet de dialogue. Les lieux de prélèvement ne sont pas ciblés uniquement par les équipes de recherche, mais également par les volontaires et les collectivités, en fonction de leur expertise sur leurs lieux de vie, de leur perception des nuisances, de leurs usages quotidiens ou de leurs questionnements sur des projets urbains en cours. Ce croisement entre savoirs scientifiques et expériences locales enrichit l’interprétation des données et renforce leur légitimité sociale.

Les entretiens menés par l’équipe scientifique dans le cadre du projet montrent d’ailleurs que les motivations à participer sont diverses. Certaines personnes s’engagent par curiosité scientifique, d’autres par inquiétude pour leur cadre de vie ou simple souhait d’amélioration de leur environnement. Du côté des collectivités, l’intérêt tient autant à la production de données environnementales qu’à la capacité à instaurer un lien avec les habitants et habitantes autour d’enjeux environnementaux et sanitaires majeurs. Les sciences participatives ne sont donc pas seulement un outil de mesure : elles deviennent un dispositif d’intermédiation entre science, population et action publique.

Pour les pouvoirs publics, la leçon est claire : il existe aujourd’hui des moyens complémentaires peu coûteux et éprouvés permettant de documenter l’exposition réelle des populations à la pollution liée au trafic. Sans se substituer aux réseaux officiels, ces démarches permettent d’identifier des zones à enjeu, d’évaluer l’impact d’aménagements urbains et de suivre des évolutions dans le temps à une échelle pertinente pour l’action locale.

Les résultats obtenus à Paris montrent que certaines zones restent durablement exposées, malgré une baisse globale des concentrations mesurées à l’échelle de la ville. Ils suggèrent également que des choix d’aménagement apparemment secondaires – emplacement des pistes cyclables, organisation du stationnement, largeur des trottoirs… – peuvent avoir des effets significatifs pour ce qui est de l’exposition aux particules inorganiques des passants et passantes.

Dans un contexte où les recommandations sanitaires internationales sont de plus en plus strictes et où la demande sociale de transparence environnementale s’accroît, ces données fines constituent un appui précieux à la décision. Elles permettent de dépasser les débats trop généraux sur la pollution pour entrer dans une logique d’action ciblée concrète, territorialisée et discutée, en concertation avec les usagers et usagères.

À terme, l’enjeu n’est pas seulement de mieux mesurer, mais de mieux décider. Les sciences participatives, intégrées aux politiques publiques, peuvent contribuer à combler un angle mort majeur de la gouvernance environnementale : celui de l’exposition quotidienne, réelle, vécue, à l’échelle de la rue. À Paris, mais aussi dans d’autres villes européennes, l’intérêt pour ce type de démarches grandit. L’enjeu n’est plus seulement de mesurer, mais de transformer ces données en leviers d’action, à l’échelle des quartiers.

The Conversation

Sivry Yann a reçu des financements de l'Agence Nationale pour la Recherche, du CNRS et de la Fondation Université Paris Cité.

Aude Isambert a reçu des financements du CPT (Centre des Politiques de la Terre) de l'Université Paris Cité (StratEx-IdEx).

Claire Carvallo a reçu des financements du CNRS.

Laure Turcati a reçu des financements à travers le réseau Science Ensemble du label SAPS de Sorbonne Université et de l’Etat au titre de France 2030 dans le cadre du projet SOUND porté par l’Alliance Sorbonne Université.

Christine Franke ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

29.04.2026 à 18:59

Donald Trump peut-il poursuivre la guerre en Iran sans l’accord officiel du Congrès ?

John Hart, Emeritus Faculty, US government and politics specialist, Australian National University

La loi des États-Unis dit clairement que le président ne dispose que de 60 jours pour mener un conflit sans l'accord du Congrès… Au-delà, la guerre devient illégale.
Texte intégral (1642 mots)

Depuis le 2 mars, le Congrès avait soixante jours pour avaliser l’intervention contre l’Iran. Le délai expire ce 1er mai, et la guerre n’a toujours pas été autorisée. Donald Trump ne va sans doute pas rappeler ses militaires pour autant. Mais les élus démocrates, hostiles à ce conflit, pourraient bientôt voir une partie de leurs collègues républicains leur prêter main-forte pour tenter d’imposer la cessation d’une opération très impopulaire.


Si Donald Trump ne met pas fin à la confrontation militaire de son pays avec l’Iran dans les tout prochains jours, il enfreindra la loi des États-Unis.

La loi sur les pouvoirs de guerre (War Powers Resolution) adoptée en 1973 stipule qu’un président américain ne peut pas conduire une guerre sans l’aval du Congrès pendant plus de soixante jours. Passé ce délai, soit le Congrès doit déclarer la guerre et donc l’autoriser officiellement, soit le commandant en chef est constitutionnellement tenu de cesser les hostilités.

Même si un cessez-le-feu précaire prévaut actuellement entre Washington et Téhéran, le texte s’appliquerait en tout état de cause aux navires chargés de maintenir le blocus américain des ports iraniens.

Ce vendredi 1er mai, soixante jours se seront écoulés depuis le lancement de l’opération Epic Fury le 28 février dernier. Que signifie le dépassement de ce délai légal ?

Qu’est-ce que la loi sur les pouvoirs de guerre ?

Adoptée en novembre 1973 par le Congrès — une majorité des deux tiers a pu surmonter le veto opposé par le président Richard Nixon —, la loi sur les pouvoirs de guerre visait à mettre fin à l’usurpation récurrente, par les présidents des États-Unis, de la prérogative de déclarer la guerre, qui revient constitutionnellement au Congrès. Le texte a été adopté dans un contexte marqué par le départ du contingent américain du Vietnam à l’issue de plusieurs années d’une guerre que le Congrès n’avait jamais officiellement autorisée.

Plus de cinquante ans plus tard, force est de constater que cette loi n’a pratiquement jamais été réellement appliquée. Comprenant plusieurs formulations juridiques imprécises, le texte admet de nombreuses exceptions et ouvre la voie à de multiples interprétations différentes. Au cours des décennies, les présidents successifs et leurs conseillers se sont engouffrés dans ces brèches.

Ainsi, depuis Nixon, aucun président n’a véritablement été contraint par l’existence de la loi. Ceux qui ont déclenché des opérations sans feu vert du Congrès (Reagan en Grenade en 1983 ; George Bush père au Panama et en Yougoslavie en 1999 ; Biden au Yémen en 2023 ; puis Trump au Venezuela et en Iran en 2026, NDLR) se sont contentés de l’évoquer du bout des lèvres sans jamais réellement se mettre en conformité avec son esprit.

Le Congrès lui-même porte une porte de responsabilité de cet échec, lui qui a souvent renoncé à exercer ses prérogatives constitutionnelles en matière de déclaration de guerre. Pour autant, dans le conflit actuel, la loi pourrait bien être réactivée, avant tout parce qu’elle offre aux élus républicains hostiles à ce conflit un moyen de tenter de mettre fin à une guerre devenue impopulaire.

Que dit la loi ?

L’article 4 impose au président de présenter un rapport au Congrès dans les quarante-huit heures suivant l’engagement des troupes américaines dans des « hostilités ». Ce document doit détailler le fondement constitutionnel et législatif sur lequel repose l’action, sa justification, ainsi que l’ampleur et la durée prévues de l’intervention américaine.

La présentation de ce rapport déclenche alors un délai de soixante jours prévu par l’article 5. Si, à l’expiration de ce délai, le Congrès n’a pas déclaré ou autorisé la guerre — ou prolongé le délai —, le président doit impérativement mettre fin à l’action militaire.

Du fait du caractère automatique de cette disposition, les législateurs n’ont rien à faire pour la déclencher. Ils n’ont donc pas à se prononcer publiquement contre la politique militaire et de sécurité nationale conduite par le président.

Donald Trump a soumis son rapport sur la guerre avec l’Iran le 2 mars ; le compte à rebours de 60 jours expire donc le 1er mai.

Jusqu’à présent, le Congrès n’a toujours pas déclaré la guerre, bien que les républicains aient bloqué de nombreuses initiatives législatives des démocrates visant à mettre fin à la guerre ou à limiter la capacité de Trump à agir sans l’accord du Congrès. Ce dernier a également la possibilité de prolonger le délai de 60 jours pour une durée maximale de 30 jours, ce qui nécessiterait un vote à la Chambre des représentants et au Sénat.

Des républicains de plus en plus mal à l’aise

Ce qui distingue fondamentalement cette guerre contre l’Iran des autres conflits menés par les récents présidents américains, c’est son impopularité. 34 % seulement des Américains la soutiennent, selon un sondage Reuters-Ipsos publié cette semaine.

On n’a observé aucun « effet de ralliement autour du drapeau » depuis le déclenchement d’Epic Fury. Les élus du Congrès, très sensibles à l’opinion de leurs électeurs, n’hésitent pas à s’opposer à Trump sur cette question. Beaucoup s’exposeraient à un retour de bâton électoral s’ils affichaient publiquement leur soutien à la guerre.

Exemple parmi d’autres : le sénateur républicain de l’Utah John Curtis a publié un article dans lequel il déclare qu’il ne soutiendra pas la guerre si le délai de 60 jours expire sans l’accord du Congrès. D’autres républicains ont fait écho à cette position.

Que se passera-t-il si Trump ignore la date butoir ?

Compte tenu de son mépris général pour la Constitution et le droit écrit, Donald Trump ignorera très probablement l’obligation légale de mettre fin à la guerre. Il pourrait, comme Nixon en 1973, arguer que la loi sur les pouvoirs de guerre est inconstitutionnelle, et cherchera sûrement à la contester devant les tribunaux.

Tout dépendra alors de la réaction du Congrès. Les démocrates envisageraient d’intenter une action en justice contre l’administration, bien que de tels recours se soient jusqu’ici révélés d’une efficacité limitée.

Le président pourrait également faire valoir que la « loi ne s’applique pas », car les forces américaines ne sont actuellement pas engagées dans des hostilités directes en Iran — un argumentaire déjà employé par Barack Obama lorsque le délai de 60 jours avait expiré lors des opérations militaires américaines en Libye en 2011.

Le 2 mars, quand Trump a adressé une notification officielle au Congrès, il a tenu à préciser qu’il agissait en vertu de son « autorité constitutionnelle en tant que commandant en chef et chef de l’exécutif » — mais aucune de ces deux fonctions ne lui confère le pouvoir d’engager les États-Unis dans une guerre sans l’approbation du Congrès. Il n’a d’ailleurs pas évoqué la loi sur les pouvoirs de guerre, se contentant de déclarer que son rapport était « conforme » à celle-ci — une formulation standard utilisée par ses prédécesseurs, qui ont tous fait preuve d’une certaine réticence à respecter ses dispositions.

Par le passé, lorsque les présidents et le Congrès se sont affrontés au sujet de la loi sur les pouvoirs de guerre, ils sont généralement parvenus à un compromis au cas par cas, souvent favorables au président. Mais cette fois-ci, la donne pourrait changer. Trump gère mal une guerre impopulaire, avec des majorités très fragiles au Sénat (53 républicains et 45 démocrates) et à la Chambre des représentants (218-212), à six mois des élections de mi-mandat.

Si rien ne change d’ici le 1er mai, la loi de 1973 pourrait connaître son heure de gloire en devenant, pour la première fois depuis son apparition, un véritable instrument de confrontation entre les pouvoirs exécutif et législatif.

The Conversation

John Hart ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

29.04.2026 à 16:33

Le monopole syndical existe-t-il vraiment ?

Rémi Bourguignon, Professeur des Universités, IAE Paris-Est, Université Paris-Est Créteil Val de Marne (UPEC)

De quoi parle-t-on quand on évoque le « monopole syndical » ? L’expression souvent utilisée peut prêter à confusion. Retour sur la réalité d’un soi-disant monopole et de ses effets.
Texte intégral (1994 mots)
Mais pourquoi persiste-t-on à parler de monopole syndical ? Martin Winkler/Unsplash, CC BY

L’idée selon laquelle il faudrait mettre fin au monopole syndical pour redynamiser la démocratie sociale française fait son chemin depuis une dizaine d’années. Il faudrait faciliter la participation aux élections professionnelles des salariés non organisés sous la forme d’un syndicat voire leur permettre, sous certaines conditions, de prendre en charge la négociation collective. Alors que cette idée est revenue dans le débat social à la suite des prises de position de plusieurs économistes, il apparaît qu’elle repose sur une ambiguïté qui rend les enjeux peu perceptibles. Décryptage.


Pour réformer le fonctionnement de la démocratie sociale française, une proposition de réforme fait l’objet de vifs et récurrents débats depuis une dizaine d’années : la fin du monopole syndical. Cette proposition figurait en bonne place dans le programme politique de François Fillon lorsqu’il était candidat à l’élection présidentielle et a fait l’objet, dans la même période, d’un projet de loi déposé par le sénateur Jean-Louis Masson.

Les controverses suscitées par cette mesure ont été réamorcées ces derniers mois par les prises de position d’économistes occupant une place centrale dans le débat social. Pierre Cahuc et André Zylberberg sont ainsi les auteurs d’une tribune parue dans le journal les Échos dans laquelle ils appellent à remettre en cause le « monopole syndical » aux élections professionnelles selon lequel seuls les syndicats peuvent se présenter au premier tour de ces élections. Une « rente » qui nuirait non seulement à l’emploi, mais aussi à la démocratie sociale elle-même, nous disent les deux économistes qui proposent d’ouvrir ces élections en permettant aux salariés non investis par une organisation syndicale de pouvoir constituer une liste candidate.

Pouvoir de négocier

Gilbert Cette, économiste à Neoma Business School et président du Conseil d’orientation des retraites, propose, de son côté, de remettre en cause le monopole syndical sur la négociation collective selon lequel seuls les syndicats sont habilités à négocier avec les employeurs. Avec Jacques Barthélémy puis dans un ouvrage coécrit avec Guy Groux et Richard Robert ainsi que dans de nombreuses interventions médiatiques, il propose que, sous certaines conditions, le pouvoir de négocier soit retiré aux syndicats pour être confié à l’instance élue du personnel, le comité social et économique (CSE). La mise en cause du monopole syndical sur la négociation collective avait déjà fait l’objet d’intenses discussions en 2016 à un moment où les organisations patronales demandaient à ce que le référendum d’entreprise puisse se substituer à la négociation avec les syndicats. Certains juristes se questionnaient alors sur la constitutionnalité du monopole syndical.

Qu’il s’agisse de la présentation de candidats au premier tour des élections professionnelles ou du droit de négocier avec l’employeur, les auteurs de ces propositions suggèrent de remettre en cause le monopole syndical pour laisser plus de place aux travailleurs non syndiqués. Mais que faut-il entendre par « monopole syndical », et y a-t-il réellement monopole syndical ?


À lire aussi : Syndicats : moins d'encartés, mais une image toujours positive auprès des salariés


Une expression ambiguë

En réalité, cette expression, sans être totalement fausse, est suffisamment ambiguë pour biaiser le débat public. Le non-spécialiste a, en effet, de quoi ne rien y comprendre. Pierre Cahuc et André Zylberberg parlent d’un monopole syndical tout en indiquant qu’il est réservé à un grand nombre d’organisations. D’ailleurs, comme une manifestation de leur embarras, les deux économistes parlent, dans la même tribune, d’un « quasi-monopole ». De même, pour Gilbert Cette et ses coauteurs, la principale entrave à la démocratie sociale est le trop grand nombre d’organisations syndicales. Leur principale proposition, qu’ils nomment la « mère des batailles », est de parvenir à réduire le nombre de syndicats. Là aussi, étrange conception du monopole que ce monopole partagé par un trop grand nombre d’acteurs.

L’ambiguïté, et donc la complexité, du débat tient à ce qu’il existe deux acceptions du monopole syndical. Une première acception est celle renvoyant à un droit de représentation exclusif. Christian Morel rappelle, à cet égard, qu’à l’époque du New Deal et de la rédaction des lois américaines sur la négociation collective dans les années 1930, deux idées de la démocratie étaient en discussion :

« D’un côté, celle de la représentation proportionnelle : selon cette philosophie, plusieurs syndicats pouvaient représenter une même collectivité de salariés. D’un autre côté, celle de la représentation majoritaire, selon laquelle le syndicat détenant la majorité devait disposer du monopole de la représentation. »

Et de rappeler que c’est la seconde qui l’a emporté de sorte que le monopole syndical prévaut dans les entreprises nord-américaines et, plus généralement, dans les systèmes anglo-saxons de relations professionnelles. Lorsqu’un syndicat parvient à s’implanter dans un établissement, il dispose d’un droit de représentation exclusif. Le système français, pour sa part, rejette le principe du monopole syndical et en prend même le contre-pied par un pluralisme particulièrement marqué.

Au cœur de la démocratie sociale

Alors, de quoi parle-t-on lorsqu’on évoque le monopole syndical dans le système français ? En fait, pas d’un monopole syndical au sens où ces droits seraient réservés à un acteur exclusif mais d’un principe au cœur de la démocratie sociale française, à savoir un encadrement collectif de la représentation des salariés. On pourrait également dire un contrôle syndical sur cette représentation. En termes plus clairs, pour s’investir dans la représentation de leurs collègues et dans la négociation avec l’employeur, les salariés doivent s’inscrire dans le cadre d’une organisation collective, extérieure à l’entreprise et disposant d’une personnalité morale.

Ces organisations s’appellent syndicats et ont pour mission de constituer les listes au premier tour des élections professionnelles et de mandater des négociateurs auprès de l’employeur. Ce sont ces organisations qui portent la responsabilité de l’action de leurs militants sur le terrain. C’est en ce sens qu’il s’agit d’un contrôle syndical. Mais si l’on doit parler de monopole, c’est un monopole accordé à un statut, celui de syndicat. Pas un monopole accordé à un acteur.

En effet, l’ensemble des salariés ont la possibilité de se constituer en syndicat et, s’ils remplissent quelques critères, peuvent se présenter aux élections professionnelles. Si, à l’issue de ces élections, ils ont démontré leur représentativité, ils pourront prendre part aux négociations collectives. Le droit de se présenter aux élections professionnelles est donc parfaitement ouvert pourvu que les salariés qui le souhaitent inscrivent leur action dans le cadre d’une organisation collective responsable.

Une ouverture déjà présente

La loi indique notamment qu’elle est ouverte aux organisations syndicales « qui satisfont aux critères de respect des valeurs républicaines et d’indépendance, légalement constituées depuis au moins deux ans et dont le champ professionnel et géographique couvre l’entreprise ou l’établissement concernés ». Bref, si des salariés ont déposé des statuts, font preuve de transparence financière, respectent les valeurs républicaines et sont indépendants de l’employeur, ils peuvent se présenter aux élections professionnelles.

Opposer le monopole syndical à des élections ouvertes obscurcit la question. Car, à ce compte, il fait peu de doute que l’élection ouverte est préférable. Mais ce n’est précisément pas la question puisque l’élection est déjà ouverte. Ce qui est contesté par celles et ceux qui appellent à mettre fin au monopole syndical est, en réalité, moins une rente qui biaiserait la représentativité des négociateurs qu’une prérogative.

Le monopole syndical, pris en ce sens, serait plutôt à rapprocher du monopole médical selon lequel seuls les médecins sont habilités à prescrire des médicaments bien que les médecins soient en concurrence. De la même manière, si l’accès au premier tour des élections professionnelles et à la négociation collective est réservé aux organisations syndicales, celles-ci sont mises en concurrence et l’accès aux statuts de syndicats est possible pour tous les salariés.

Arte, 2024.

Reposer le débat dans le bon cadre

Le débat sur la fin du monopole syndical invite ainsi à se demander si la représentation du personnel et la négociation collective doivent s’inscrire dans le cadre d’une action collective portée par une organisation identifiée et responsable ou si elle peut être le fait d’une collection de salariés plus ou moins coordonnés et organisés.

La forme syndicale joue actuellement un rôle important. Tout d’abord, elle offre une personnalité morale aux salariés qui s’y engagent, ce qui contribue à leur indépendance vis-à-vis de l’employeur et leur ouvre des modalités d’action dont ne disposent pas des salariés qui constitueraient une liste candidate dite non syndiquée.

Elle est surtout une organisation fondée sur des principes démocratiques et doit constituer, à ce titre, un espace permettant de mettre en discussion la diversité des intérêts et des visions qui traversent le monde du travail pour faire advenir, par la délibération, des revendications les plus partagées possibles. C’est au regard de cette fonction que le syndicalisme est habituellement considéré comme l’institution centrale de la démocratie sociale.

La contestation du monopole syndical est nourrie par l’idée selon laquelle les syndicats ne rempliraient, en réalité, plus cette fonction. Si le débat sur la vitalité de la démocratie syndicale est tout à fait légitime et bienvenu, l’argument selon lequel l’affaiblissement voire la suppression des prérogatives syndicales est de nature à renforcer la démocratie sociale reste à étayer.

The Conversation

Rémi Bourguignon a reçu des financements de recherche de France Stratégie, l'agence d'objectifs de l'IRES, la fédération CFE-CGC Métallurgie

PDF

29.04.2026 à 16:32

Drones, robots, IA : la technologie suffit-elle à préparer la guerre du futur ?

Nicolas Minvielle, Docteur en économie, spécialiste des questions d’innovation et de défense, Audencia

Marie Roussie, Docteur en science de gestion, spécialisée en prospective, Université Paris Dauphine – PSL

Drones, IA, armes hypersoniques : la guerre du futur est souvent pensée par la technologie. Une vision partielle qui masque les dynamiques prépondérantes des conflits de demain.
Texte intégral (2018 mots)

La prospective militaire ne se contente pas de décrire l’avenir, elle contribue à le façonner. Dès lors, une question s’impose : quelles hypothèses guident aujourd’hui nos représentations de la guerre, et que laissent-elles dans l’ombre ?


Les imaginaires contemporains de la guerre sont saturés d’images technologiques : drones autonomes, essaims robotisés, intelligence artificielle, armes hypersoniques, cyberconflits permanents. La conflictualité du futur s’y donne à voir comme un théâtre d’objets, toujours plus rapides, plus intelligents, plus autonomes.

Ces représentations ne sont pas fausses. Mais elles sont incomplètes – et, à bien des égards, trompeuses. En concentrant l’attention sur les innovations visibles, elles produisent un effet de substitution cognitive : la technologie devient le lieu apparent de la transformation, reléguant au second plan les dynamiques structurelles qui conditionnent pourtant son efficacité.

Ce déplacement du regard n’est pas neutre. Il reconduit une forme de fétichisme technologique où les artefacts sont perçus comme des causes, plutôt que comme des expressions de systèmes plus profonds. Or, les guerres ne se gagnent pas uniquement par les objets que l’on voit, mais par les structures que l’on ne voit pas (logistiques, industrielles, organisationnelles, sociales).

Nous continuons à observer la guerre par sa surface, mais beaucoup de choses se jouent ailleurs.

Quelles variables importent le plus ?

L’histoire militaire l’a souvent montré : les conflits sont moins déterminés par une innovation isolée que par la combinaison de facteurs structurels. La logistique, la capacité industrielle, la cohésion sociale, l’organisation des forces ou la résilience économique jouent souvent un rôle déterminant.

L’historien et analyste Stephen Biddle, dans un ouvrage déterminant écrit au début des années 2000, Military Power, démontre ainsi que la performance militaire dépend moins de la sophistication technologique que de l’intégration de cette technologie dans un « système de combat moderne » cohérent, reposant sur la coordination interarmes, la dispersion des unités, la discipline tactique et la capacité d’adaptation. Pour l’auteur, la supériorité américaine lors de la guerre du Golfe en 1991 ne s’explique pas uniquement par la possession de munitions guidées de précision, ou d’autres technologies d’ailleurs, mais par leur insertion dans un ensemble doctrinal et organisationnel plus large, combinant renseignement, commandement, logistique, dimensionnement adéquat des unités et supériorité aérienne. Autrement dit, la technologie n’est performative que lorsqu’elle est absorbée par un système capable de la rendre opérante.

La guerre moderne dépend par exemple de systèmes logistiques complexes, de réseaux énergétiques, de chaînes d’approvisionnement mondialisées et de capacités industrielles capables de soutenir un effort militaire prolongé. Souvent présenté comme l’avion de combat le plus avancé au monde, le F35 américain dépend d’un système informatique qui centralise notamment toutes les données de maintenance et d’opération (initialement le système ALIS remplacé progressivement par ODIN). Comme le montrent plusieurs rapports, cette dépendance crée des vulnérabilités importantes : remontée des données d’usage et de maintenance aux États-Unis avec une potentielle perte de souveraineté induite pour les usagers non américains, dépendance aux infrastructures états-uniennes, difficultés de maintenance, etc. Ainsi, une plateforme technologiquement supérieure peut devenir un point de fragilité systémique si elle s’inscrit dans un écosystème logistique instable ou centralisé.

De même, des variables moins visibles peuvent s’avérer décisives, comme le moral des troupes, la cohésion des sociétés, la culture organisationnelle des armées, la capacité d’adaptation doctrinale ou le lien entre les armées et le politique.

Le cas ukrainien semble en être un excellent exemple : cohésion nationale, commandement décentralisé, capacité d’innovation tactique, intégration rapide de technologies civiles (drones commerciaux, plates-formes de communication comme Telegram ou Starlink). Cette « adaptabilité distribuée » a permis à l’Ukraine de compenser des asymétries initiales majeures en matière de puissance de feu et de ressources.

Dans cette perspective, la question n’est pas que les technologies sont secondaires, mais c’est simplement qu’il faut les appréhender moins comme des ruptures autonomes que comme des multiplicateurs d’effets au sein de systèmes plus larges. Elles n’abolissent ni la friction ni l’incertitude ; elles vont simplement redéfinir les termes dans lesquels ces dernières s’expriment. Les asymétries technologiques n’ont pas permis aux États-Unis de remporter la guerre en Afghanistan, certains critiques expliquant simplement que les Américains n’avaient pas compris la nature sociale, culturelle et politique du conflit. Et aucune technologie n’a semblé capable de pallier cela.

Comprendre les conflits contemporains et à venir implique donc de déplacer le regard : des objets visibles vers les dynamiques invisibles, des capacités affichées vers les structures profondes, des innovations spectaculaires vers les processus d’apprentissage et d’adaptation qui en conditionnent l’efficacité réelle.

Si l’on prend cette idée de multiplicateur, l’intelligence artificielle, par exemple, améliore les capacités de ciblage ou de reconnaissance, mais elle transforme également des dimensions moins visibles : optimisation logistique, gestion sanitaire des forces avec un accompagnement aux décisions de triage médical, anticipation des risques environnementaux ou épidémiologiques, logistique des médicaments. Des travaux récents en défense montrent ainsi que l’IA peut avoir des effets systémiques en modifiant les processus de décision, les structures de commandement et les modes de formation.

Un jeu d’anticipations imbriquées

Même si nous regardions les bonnes variables, un problème fondamental demeurerait : l’adversaire pense aussi. La stratégie n’est pas une science exacte, c’est un jeu d’anticipations imbriquées, chaque acteur tentant d’anticiper les décisions des autres. Mais il doit aussi anticiper ce que les autres pensent qu’il fera lui-même. Cette dynamique produit des chaînes d’anticipation complexes, où les perceptions et les représentations jouent un rôle central.

La guerre devient alors, en partie, une collision d’erreurs anticipées. Les conflits pouvant émerger plus facilement lorsque plusieurs acteurs interprètent mal les intentions de leurs adversaires, surestiment leurs propres capacités ou sous-estiment les risques d’escalade. Les surprises stratégiques pouvant naître ou être aggravées par ces décalages de perception.

Les scénarios, les discours prospectifs et les imaginaires de guerre ne se contentent pas, quant à eux, de décrire des évolutions possibles : ils contribuent à orienter les comportements présents. Les acteurs prennent leurs décisions en fonction de futurs anticipés, même incertains. Ces « attentes fictionnelles » structurent ainsi les investissements, les doctrines et les arbitrages stratégiques.

Cette performativité des visions du futur est aujourd’hui largement documentée. Les technologues et historiens Sheila Jasanoff et Sang-hyun Kim ont ainsi introduit en 2015 la notion « d’imaginaire sociotechnique » pour désigner la manière dont des représentations collectives du futur orientent les politiques publiques et les trajectoires technologiques. Appliquée au domaine militaire, cette approche permet de comprendre comment certaines visions de la guerre – notamment celles centrées sur l’autonomie, la vitesse et la précision algorithmique – structurent déjà les programmes d’armement et les doctrines d’emploi.

Sorti en 2021, le long métrage Zone hostile met en scène un pilote de drone obligé de faire équipe avec un officier androïde dans une zone militarisée.

Les visions du futur circulent aujourd’hui dans les doctrines militaires, les think tanks, les simulations de crise, mais aussi dans la culture populaire, les jeux vidéo ou les représentations médiatiques de la guerre. Et ces récits contribuent à structurer les attentes collectives et les décisions stratégiques. Les États-Unis ont clairement compris à quel point ces récits jouent un rôle stratégique.

Des recherches soulignent l’imbrication étroite de Hollywood, du Pentagone et de l’industrie de défense dans la production d’images de guerre. Ces représentations ne se limitent pas à la sphère culturelle : elles participent à la légitimation des choix stratégiques et à la diffusion internationale d’un imaginaire technologique de la conflictualité. Leur diffusion est telle qu’elles ont d’ailleurs un impact sur les visions européennes, affectant notre capacité à envisager de manière originale et alternative les conflits à venir.

Ne pas rétrécir le futur

La prospective militaire ne vise pas à prédire avec exactitude ce que sera la guerre en 2040 ou en 2050. Elle consiste plutôt à éviter certaines formes de surprise stratégique et à se préparer aux conflits de demain, en élargissant le champ des futurs envisagés et en identifiant les dynamiques susceptibles de transformer des tensions en ruptures.

Penser le futur est un acte pleinement stratégique. Les scénarios produits aujourd’hui orientent déjà les investissements, les doctrines et les alliances de demain. À ce titre, ils contribuent à structurer les conflits futurs autant qu’ils prétendent les anticiper. Dès lors, la question centrale pourrait d’ailleurs ne pas être de savoir quel sera le futur de la guerre, mais de comprendre dans quelle mesure nos représentations actuelles contribuent, sans que nous en ayons toujours conscience, à en réduire la diversité et à en orienter les formes.

The Conversation

Nicolas Minvielle est membre du comité d’orientation de la Fabrique de la Cité, il a été animateur de la Red Team Défense et est LCL (R) auprès du Commandement du Combat Futur de l’Armée de terre. Il est aussi cofondateur de Making Tomorrow et investisseur dans Command AI

Marie Roussie est membre du Collectif Making Tomorrow et de la société Alt-a. Elle a travaillé au sein de la Red Team Défense du ministère des Armées, terrain de recherche de sa thèse. Depuis elle poursuit l’exploration stratégique et prospective des théâtres d’opérations militaires avec différents acteurs.

PDF

29.04.2026 à 16:31

« Twin Peaks » : les ingrédients d’une série culte

Maxime Parola, Doctorant en Art, Université Côte d’Azur

Si la série culte de David Lynch continue à nous hanter, c’est grâce à une combinaison de caractéristiques unique en son genre.
Texte intégral (1594 mots)
Dana Ashbrook dans le rôle de Bobby Briggs et Peggy Lipton dans celui de Norma Jennings. ABC/Allociné

La chaîne franco-allemande Arte propose sur son site de revoir l’intégrale de la série Twin Peaks (1990-1991 et 2017). Mais avant de nous replonger dans la « Black Lodge », essayons de comprendre comment une série si insolite est devenue culte.


Twin Peaks est le fruit de deux esprits singuliers, le scénariste Mark Frost, venant de la télévision, et le réalisateur David Lynch, issu du cinéma. Si Lynch a déjà montré sa singularité avec des films comme Eraserhead (1977) ou Blue Velvet (1986), Frost est en 1990 un scénariste de télévision plutôt consensuel.

La série s’ouvre sur la découverte du corps de Laura Palmer, dont la traque de l’assassin par l’étrange agent Cooper sera le moteur de l’intrigue. La série démarre donc comme une intrigue policière classique mais va rapidement emprunter des thématiques à d’autres genres, notamment le soap et le fantastique.

Un univers, mais plusieurs médias

Pour bien comprendre le phénomène Twin Peaks, il faut se rappeler que son univers s’est développé dans plusieurs médias. D’abord il y eut la série et ses deux premières saisons en 1990 et en 1991, ensuite un film (Fire Walk With Me) en 1992 et, enfin, une troisième saison en 2017.

L’intrigue concernant le meurtre de Laura Palmer est posée et entièrement résolue entre la saison 1 et le milieu de la saison 2. Cette résolution avant même la fin de la saison et le glissement vers des intrigues secondaires auront raison des audiences et entraîneront la fin (provisoire) de la série en 1991.

David Lynch décide alors de poursuivre son histoire avec un film qui sera en réalité une préquelle à la série, mais permettra aussi d’approfondir certains éléments mythologiques liés à la « Black Lodge ». Le film est un échec critique et commercial cuisant, et l’univers de Twin Peaks semble se refermer pour toujours.

C’est ici que naît le statut de série culte, entre une série très populaire, un film qui le sera nettement moins et surtout un très grand nombre de questions que chacun pense restées sans réponses.

Pacôme Thiellement dira que la fin de Twin Peaks est comme la mort de Laura Palmer : bien après sa disparition, la série continue longtemps à nous hanter…

Et puis, en 2017, soit vingt-cinq ans plus tard, et comme cela avait été annoncé dans la série, Dale Cooper revient pour, croit-on, lever les derniers mystères de la loge. En réalité il n’en sera rien, et la dernière saison posera beaucoup plus de questions qu’elle n’offrira de réponses, dans la droite ligne des derniers films de David Lynch.

Une victime mystérieuse

Si le statut de série culte s’est initialement construit autour des deux premières saisons de Twin Peaks c’est aussi largement à cause du personnage de Laura Palmer. C’est son corps mutilé qui ouvre la série, mais c’est son visage angélique qui refermera chacun des épisodes. Dans l’espace entre ces deux images se développeront toutes les ambiguïtés de ce personnage.

La série nous la présentera d’abord comme une figure angélique dont nous découvrirons petit à petit les failles morales. Alors que le film, à l’inverse, nous la montrera tristement réelle mais dotée d’une grande noblesse que personne ne verra, en dehors du téléspectateur.

Cet attachement au personnage sera, paradoxalement, la principale cause de la chute de Twin Peaks. Parce que c’est bien l’intrigue autour de son assassinat qui tiendra en haleine le spectateur chaque semaine, plus que l’esthétique singulière ou la mythologie de la série. La résolution du meurtre, même en ouvrant la porte à de nouvelles intrigues, ne suffira pas à intéresser les spectateurs de l’époque.

Quant au film, il arrive sûrement trop tard. Les spectateurs savent ce qu’ils voulaient savoir et sont passés à autre chose. Sans compter l’ambiance résolument plus glauque et dénuée d’humour du film en comparaison de la série.

Une série, mais plusieurs genres

Si Twin Peaks est considéré comme un moment de bascule dans le monde des séries, il faut noter que ça n’est pas tant pour l’une de ses caractéristiques que pour un ensemble de facteurs associés. Si cette série est une grande réussite populaire, elle n’est pas la première, loin de là. Des séries comme Star Trek ont conservé leur public bien au-delà de la fin de leur production.

Sur le plan qualitatif, là encore, l’ambition et la complexité qu’impulsent Frost et Lynch pour une série de télévision n’est pas inédite. On peut notamment citer la série le Prisonnier (1967-1968) qui reste un modèle du genre.

Ce qui rend la série singulière, c’est l’assemblage en un seul programme de genres très différents (le policier, le soap…), d’une intrigue captivante (qui a tué Laura Palmer ?) et d’une mystique cohérente et mystérieuse qui traversera l’ensemble de la série.

Pacôme Thiellement, auteur d’un essai de référence sur la série, souligne que celle-ci a inventé un nouveau type de spectateur : le spectateur « qualifié ». Il s’agit du spectateur qui revoit plusieurs fois les mêmes épisodes pour en déceler tous les indices. Cette attitude nouvelle n’est possible qu’avec l’avènement et la popularisation d’un nouvel outil technologique : le magnétoscope. Le créateur de la série Lost (2004-2010), Damon Lindelof, raconte d’ailleurs comment son père enregistrait systématiquement chaque épisode pour ensuite les revoir à l’infini.

Peu de réponses, mais de la poésie

Les références ayant permis l’élaboration de la mythologie de Twin Peaks ont été largement étudiées et révélées par Frost, dont l’attitude en interview est nettement moins sibylline que celle de Lynch. On sait que Frost a pioché dans une culture New Age et occultiste et plus particulièrement dans les théories de Dion Fortune et Helena Blavastky, cofondatrice de la Société théosophique.

Pour autant, Twin Peaks reste une œuvre dont le sens est largement multiple et ouvert, que la tardive saison 3 n’a pas souhaité rendre univoque. Citons cependant une interprétation parmi d’autres – de Pacôme Thiellement – selon qui la série parle « d’une nostalgie de l’Unité ». Si effectivement, on retrouve cette thématique du dédoublement et de sa résolution tout au long de la série (citons en vrac et sans spoiler : l’Homme venu d’un autre endroit et Mike, Bob et Leland, Laura et sa cousine, les 3 Cooper, etc.), on peut noter le rapprochement avec l’autre David (Cronenberg) chez qui nous soulevions déjà ici, la thématique centrale de la fusion. On peut d’ailleurs noter qu’un arrière-fond sexuel est là aussi commun aux deux réalisateurs même si cela passe plus par les couleurs et les ambiances chez Lynch.

Il semble vain de chercher une résolution définitive à Twin Peaks, mais rien ne nous empêche de continuer à chercher des signes pour le plaisir de l’analyse et pour en déceler toute la finesse et la poésie. Terminons encore une fois sur les mots de Thiellement :

« Il s’agit de la constitution d’une poétique, et la poétique est toujours une communication par signes. »

The Conversation

Maxime Parola ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

29.04.2026 à 16:31

À Paris, les oiseaux continuent de chanter plus aigu à cause du bruit, malgré la lutte contre la pollution sonore

Dan Mennill, Professor and Associate Dean of Science, University of Windsor

Paris a perdu trois décibels en dix ans, grâce à des mesures efficaces contre la pollution sonore. Mais le bruit de la circulation oblige toujours les oiseaux à chanter plus haut.
Texte intégral (2422 mots)
Les bruits des voitures, des avions, des bateaux et des activités industrielles dans les zones urbaines produisent un bruit de fond constant qui affecte les oiseaux, comme cette mésange charbonnière. Wikimedia Commons, CC BY-SA

Paris a perdu trois décibels en dix ans grâce à des mesures efficaces contre la pollution sonore. Mais le bruit de la circulation oblige encore et toujours les oiseaux à chanter plus haut.


En 1962, la biologiste Rachel Carson nous mettait en garde dans le Printemps silencieux. Cet ouvrage, devenu depuis une référence majeure, alertait sur le monde muet et sans oiseau qui nous guettait du fait de l’impact incontrôlé des activités humaines.

Quarante ans plus tard, des biologistes ont mis en évidence un effet frappant de la pollution sonore sur le chant des oiseaux. Ils ont découvert que les bruits à basse fréquence de la circulation obligeaient les oiseaux à chanter à des fréquences plus élevées dans les villes européennes. Ainsi, les oiseaux d’un parc bruyant situé au pied de la tour Eiffel chantent à une fréquence supérieure de 400 hertz (Hz) à celle de leurs congénères vivant dans les forêts calmes de la banlieue parisienne.

L’étude que j’ai publiée dans la revue scientifique Ornithological Applications avec mon collègue Hans Slabbekoorn de l’Université de Leyde, montre cependant que Paris est un exemple de réussite dans la lutte contre la pollution sonore.

Pourtant, même si Paris est devenu plus calme, les oiseaux n’ont pas retrouvé leurs tonalités de chant naturelles. Nos recherches montrent que les mésanges charbonnières de Paris continuent de chanter à des fréquences plus aiguës que les oiseaux des zones sauvages situées en dehors de la ville.

Chant de mésange charbonnière. Chantal Dengis, CC BY72,5 ko (download)

Il parait donc essentiel de redoubler d’efforts en matière de réduction du bruit dans les zones urbaines du monde entier afin de permettre aux oiseaux sauvages de communiquer à leurs fréquences sonores naturelles.

Les effets dévastateurs du bruit

De fait, les activités humaines inondent le monde des divers bruits. Les bruits des voitures, des avions, des bateaux et des activités industrielles produisent ainsi un grondement constant qui affecte les animaux sauvages, les oiseaux et les insectes. Nous négligeons souvent la pollution sonore en tant que problème de conservation, alors qu’elle peut avoir des effets dévastateurs sur la faune sauvage à une époque d’urbanisation croissante.

Le bruit de la circulation perturbe par exemple la capacité des oiseaux et des grenouilles à attirer des partenaires. Le bruit des bateaux entraîne lui une diminution de la communication vocale chez les baleines. Enfin, le bruit de la circulation influence par exemple les interactions prédateur-proie entre les papillons de nuit et les chauves-souris.

Depuis que l’on a découvert que, dans les villes européennes, les bruits de circulation à basse fréquence poussaient les oiseaux à chanter à des fréquences plus élevées, ce phénomène a également été observé chez diverses populations d’oiseaux à travers le monde.

Dans les prairies canadiennes, les bruants des prés émettent ainsi des chants plus aigus à proximité des pompes à pétrole bruyantes. Les rouges-gorges familiers chantent eux des mélodies plus aiguës en présence du bruit des éoliennes. On sait également que les zostérops à dos gris d’Australie produisent des chants et des cris plus aigus dans les zones urbaines bruyantes par rapport aux zones rurales.

Or, tous ces changements réduisent la capacité des oiseaux à défendre leurs territoires de reproduction et à attirer des partenaires.


À lire aussi : Préserver les océans du bruit humain pour mieux les protéger


Se battre pour une ville plus calme

Paris est l’une des plus grandes et des plus densément peuplées d’Europe, mais les Parisiens ont mis au point des stratégies innovantes pour lutter contre la pollution sonore.

La ville a transformé de nombreuses voies de circulation en pistes cyclables et a posé des revêtements antibruit sur les axes routiers principaux.

Une boîte noire fixée à un lampadaire, sur laquelle figure l’image d’un oiseau. La circulation est floue en arrière-plan
Un radar sonore. Dan Mennill

Des radars sonores infligent également des amendes aux véhicules trop bruyants. Un observatoire régional appelé Bruitparif surveille enfin le bruit dans toute la ville et supervise les efforts de réduction du bruit.

Toutes ces actions visent à rendre la ville plus calme, tant pour les habitants que pour la faune. Ces efforts contre le bruit soulèvent cependant la question suivante : peut-on réduire le niveau de pollution sonore afin de minimiser son impact sur le chant des oiseaux ?

Un frein au vacarme

En 2023, je me suis rendu à Paris pour enregistrer le chant de la mésange charbonnière, un oiseau commun des jardins européens.

J’ai utilisé des microphones et des enregistreurs numériques pour enregistrer les oiseaux dans les rues, sur les places et dans les parcs de toute la ville. J’ai suivi les traces de mon collaborateur, Hans Slabbekoorn, le biologiste qui avait été le premier à enregistrer les mésanges charbonnières à Paris en 2003.

Le chercheur se tient debout, un gros micro noir à la main, avec la Tour Eiffel en arrière-plan
Dan Mennill utilise un micro pour enregistrer le chant des oiseaux près de la tour Eiffel. Dan Mennill

En comparant le bruit de fond au chant des oiseaux, nous avons constaté que les mésanges charbonnières émettaient des chants plus aigus dans les environnements bruyants. En chantant à un ton plus aigu, elles évitent ainsi que leur chant ne soit masqué par les bruits de circulation à basse fréquence.

Nous avons également analysé les données sur le bruit recueillies dans tout Paris par Bruitparif. Nous avons ainsi constaté que Paris est en passe de gagner la bataille contre la pollution sonore et que la ville est devenue plus calme ces dernières années.

En effet, Paris est aujourd’hui environ trois décibels plus calme qu’il y a dix ans. Comme l’échelle des décibels est logarithmique, une baisse de trois décibels représente une réduction importante de l’intensité sonore. Mais malgré ces progrès, les mésanges charbonnières de Paris continuent de chanter à des fréquences plus aiguës que celles des oiseaux vivant dans les zones sauvages en dehors de la ville.

Les oiseaux peuvent changer de chant

Il y a toutefois des raisons d’être optimiste. Des recherches menées dans d’autres villes ont montré que lorsque l’environnement devient moins bruyant, les oiseaux retrouvent leur tonalité naturelle.

Ainsi, le calme observé dans les rues pendant les confinements liés au Covid-19 a offert une occasion rare d’étudier les oiseaux dans un monde plus silencieux. Des biologistes de San Francisco (Californie) ont comme cela constaté que le paysage sonore urbain était devenu environ sept décibels plus silencieux pendant les confinements – des niveaux rarement observés depuis les années 1950.

Ce calme ambiant a permis aux oiseaux de modifier leur chant. À San Francisco, les bruants à couronne blanche ont réagi en chantant des mélodies plus graves et plus douces.

De nombreuses espèces d’oiseaux ont ainsi tiré profit de cet apaisement qui a régné pendant la période de confinement. Dans le cadre d’une étude portant sur 47 espèces d’oiseaux chanteurs en Amérique du Nord, notre équipe de recherche a constaté que les espèces dont le chant couvre une large gamme de fréquences – c’est-à-dire les sons les moins sensibles aux effets du bruit à basse fréquence – ont étendu leur aire de répartition pendant cette période de calme.

Ces résultats montrent que la pollution sonore affecte diverses espèces d’oiseaux, même celles dont le chant semble pourtant bien adapté aux environnements bruyants.

À l’écoute du futur

Nos études menées à Paris montrent qu’une réduction de trois décibels n’est pas suffisante pour permettre aux oiseaux de retrouver leurs fréquences de chant naturelles. Des efforts supplémentaires de réduction du bruit seront donc nécessaires pour que nous puissions partager l’espace sonore de manière adéquate avec nos amis à plumes.

Paris nous offre également une leçon porteuse d’espoir dans la lutte contre la pollution sonore. Les villes peuvent réduire le bruit en encourageant le vélo et les modes de transport plus silencieux. Les politiques publiques jouent également un rôle important, comme l’illustre l’agence Bruitparif à Paris.

Si nous mesurons la pollution sonore, nous pouvons nous efforcer de la réduire, d’améliorer notre propre bien-être et de créer un espace permettant aux oiseaux sauvages de communiquer à leurs fréquences sonores naturelles.

The Conversation

Dan Mennill a reçu des financements de la Natural Sciences and Engineering Research Council of Canada

PDF

29.04.2026 à 16:30

Diagnostic préimplantatoire et anomalies chromosomiques : les enjeux scientifiques et éthiques du DPI-A

Valérie Depadt, Maître de conférences en droit, Université Sorbonne Paris Nord

Marjolaine Willems, Généticienne clinique, Université de Montpellier

Le dépistage préimplantatoire permet de détecter des anomalies chromosomiques dans le cadre de l’assistance médicale à la procréation. En France, son emploi est très encadré, mais certains appellent à des évolutions.
Texte intégral (3130 mots)

En France, contrairement à d’autres pays, les conditions d’utilisation du diagnostic préimplantatoire sont très encadrées. Il ne peut pas être utilisé en tant que dépistage génétique global, et doit cibler uniquement un risque connu. Une situation que certains aimeraient voir évoluer.


Si l’infertilité constitue aujourd’hui la principale raison du recours à l’assistance médicale à la procréation (AMP), elle n’est pas la seule. Dans certains cas, ces techniques sont mobilisées pour éviter la transmission à l’enfant de maladies génétiques particulièrement graves.

Pour les familles concernées, l’enjeu dépasse alors la simple conception : il s’agit de donner naissance à un enfant indemne de la pathologie identifiée chez au moins l’un des parents. Dans ce contexte, le diagnostic préimplantatoire (DPI), qui permet l’analyse du patrimoine génétique d’embryons issus d’une fécondation in vitro avant leur transfert dans l’utérus – est autorisé en France depuis 1999.

Le DPI ne concerne donc qu’un nombre limité de personnes. Selon l’Agence de la biomédecine, environ 1 000 demandes de DPI sont examinées chaque année, dont environ les deux tiers sont acceptées. Pour autant, il cristallise des questions scientifiques, éthiques et politiques majeures, d’autant plus vives que les cadres juridiques et les pratiques diffèrent sensiblement d’un pays à l’autre.

Le DPI en France : un usage strictement encadré

Le DPI consiste à analyser de une à quelques cellules prélevées sur l’embryon afin de rechercher une anomalie génétique. Réalisé simultanément sur plusieurs embryons obtenus au cours d’un même cycle de fécondation, il permet d’exclure du transfert dans l’utérus les embryons porteurs de ladite anomalie.

En France, le DPI est autorisé lorsqu’une anomalie responsable d’une maladie gravement invalidante, susceptible d’être à révélation tardive ou pouvant mettre prématurément en jeu le pronostic vital a été préalablement et précisément identifiée, chez l’un des parents ou l’un de ses ascendants immédiats.

La loi impose toutefois une restriction majeure quant à la finalité du test : le diagnostic ne peut avoir d’autre objet que la recherche de l’anomalie génétique préalablement identifiée, ainsi que l’identification des moyens de la prévenir ou de la traiter. Le DPI ne constitue donc en aucun cas un dépistage génétique général : il s’agit d’un test ciblé visant un risque connu.

Ce cadre juridique traduit une conception médicale du DPI : il s’agit d’une alternative à une interruption médicale de grossesse lorsque le risque de maladie est élevé. Ainsi, le dispositif est pris en charge par l’Assurance-maladie dans la limite de quatre cycles de FIV. En raison de la haute technicité exigée et d’une volonté de centralisation, seuls cinq centres spécialisés disposent d’un agrément : Paris, Strasbourg, Montpellier, Nantes et Grenoble.

Les termes de la loi française expliquent également les limites technologiques constatées dans notre pays. En France, étant donné que seule la recherche de la pathologie faisant l’objet du diagnostic est autorisée, le recours aux méthodes de séquençage modernes, dites « pangénomiques » (car elles permettent de séquencer l’intégralité du génome) demeure marginal.

Il en va autrement à l’étranger, où de telles techniques sont largement utilisées.

À l’étranger : le développement du dépistage des anomalies chromosomiques

Dans plusieurs pays, notamment aux États-Unis, au Royaume-Uni ou en Espagne, les progrès du séquençage génétique ont conduit à un usage différent du diagnostic préimplantatoire. Celui-ci est utilisé pour le dépistage général des anomalies chromosomiques chez l’embryon.

Ce type de DPI est appelé DPI-A, pour aneuploïdies. Les aneuploïdies sont des anomalies du nombre de chromosomes, telles que les trisomies ou les monosomies (parmi les exemples d’aneuploïdie les plus connus figure la trisomie 21, qui se caractérise par la présence d’un chromosome surnuméraire pour la 21e paire de chromosomes).

Le DPI-A ne consiste donc plus – ou plus uniquement – à rechercher une maladie génétique familiale identifiée. Il implique l’examen de l’ensemble des chromosomes des embryons produits par fécondation in vitro avant de les transférer dans l’utérus, afin de repérer ceux qui présentent un nombre chromosomique normal. Ces embryons sont supposés présenter de meilleures chances d’implantation et de naissance vivante.

À l’étranger, cette technique est largement proposée dans certaines cliniques, notamment dans le secteur privé, parfois au-delà des indications médicales strictes. Dans certains pays d’Europe, aux États-Unis ou encore au Canada, où le DPI-A est présenté comme un facteur d’accroissement des chances de réussite, il est utilisé dans une part importante des cycles de FIV.

Pourquoi, en France, cette pratique est-elle interdite ?

Cette situation s’explique par la volonté de limiter toute extension du diagnostic vers une sélection embryonnaire élargie, laquelle est perçue comme susceptible d’ouvrir la voie à des dérives eugéniques.

Certaines instances éthiques françaises ont cependant récemment contribué à relancer le débat, en recommandant d’évaluer l’intérêt médical de ces techniques dans un cadre strictement encadré.

Le Comité consultatif national d’éthique pour les sciences de la vie et de la santé (CCNE), dans son avis 129 de 2017, était favorable à l’autorisation de la recherche d’aneuploïdies, au cours des fécondations in vitro, pour les couples ayant recours au DPI et certains couples infertiles.

Pour l’Agence de la biomédecine, il convient également de s’interroger sur les conséquences de la possibilité du séquençage de l’ensemble du génome, y compris en matière de diagnostic prénatal.

Malheureusement, à l’heure actuelle, les données nécessaires pour fonder une décision manquent encore.

Le DPI-A : un bénéfice scientifique encore débattu

Le DPI-A repose sur une hypothèse biologiquement cohérente : les anomalies chromosomiques étant fréquentes chez les embryons humains (à hauteur de 30 à 60 % des embryons systématiquement étudiés au cours d’un diagnostic préimplantatoire, leur identification pourrait théoriquement améliorer les résultats de la FIV, diminuer le risque d’échec d’implantation, de fausse couche, d’interruption médicale de grossesse ou de naissance d’enfant atteint d’une maladie génétique grave.

Toutefois, les données scientifiques apparaissent moins convaincantes qu’attendu au regard des bénéfices escomptés.

Rappelons qu’un cycle de FIV correspond à une tentative complète, incluant stimulation ovarienne, ponction ovocytaire et transfert d’embryon(s), plusieurs transferts pouvant être issus d’un même cycle. En France, le taux de naissance vivante est d’environ 25 % par cycle initié. En pratique, les patientes réalisent en moyenne deux à trois cycles pour obtenir une naissance vivante, les chances augmentant de manière cumulative avec le nombre de tentatives. La distinction entre taux par transfert et taux par cycle initié est essentielle, le bénéfice observé du DPI-A portant principalement sur le premier indicateur.

Concrètement, lors d’une fécondation in vitro (FIV), plusieurs ovocytes sont fécondés en laboratoire afin d’obtenir un nombre limité d’embryons (souvent entre cinq et dix). Sans DPI-A, un ou plusieurs embryons sont sélectionnés sur des critères morphologiques et transférés, les autres pouvant être congelés. Avec DPI-A, chaque embryon est biopsié et seuls ceux considérés comme euploïdes (présentant le bon nombre de chromosomes) sont retenus pour le transfert.

Cette sélection entraîne de facto une diminution du nombre d’embryons disponibles. Les données issues de cohortes de FIV montrent qu’en moyenne 30 à 60 % des embryons au stade blastocyste (cinq à six jours de développement) sont aneuploïdes, proportion qui augmente avec l’âge maternel. Par exemple, chez une patiente obtenant huit blastocystes, le DPI-A peut conduire à n’identifier que deux à trois embryons euploïdes, voire aucun selon l’âge, réduisant d’autant les possibilités de transfert.

L’exclusion systématique des embryons mosaïques, c’est-à-dire comportant à la fois des cellules euploïdes et aneuploïdes, peut accentuer cette réduction, alors même que des naissances vivantes d’enfants sains sont rapportées après transfert de tels embryons.

Les conséquences de cette sélection sont multiples : diminution du nombre de transferts possibles par cycle, augmentation du nombre de cycles nécessaires pour obtenir une grossesse, et risque de perte d’embryons potentiellement viables.

Les études réalisées montrent dans de larges proportions une augmentation des taux de grossesse par transfert embryonnaire dans certains contextes, comme les échecs d’implantation ou les fausses couches à répétition.

Cependant, il ne semble pas en être systématiquement de même pour le taux de naissances vivantes par cycle initié, qui constitue pourtant l’indicateur le plus pertinent pour les couples. Le DPI-A pourrait même conduire à un taux de naissance diminué chez les femmes de moins de 40 ans.

Comment s’expliquent ces résultats ?

Plusieurs limites biologiques expliquent ces résultats contrastés. La biopsie embryonnaire repose sur l’analyse d’un nombre restreint de cellules, ce qui peut conduire à des erreurs d’interprétation du fait d’un problème de représentativité.

En présence de mosaïcisme embryonnaire, autrement dit lorsque l’embryon contient à la fois des cellules normales et des cellules aneuploïdes, les cellules prélevées pour être analysées peuvent ne pas refléter la constitution chromosomique de l’ensemble de l’embryon, conduisant à des résultats discordants ou à des erreurs de classification.

En outre, il existe parfois une capacité d’auto-correction. Ce phénomène constitue un facteur majeur de limites du DPI-A. Par ailleurs, la variabilité des conditions de prélèvement et les limites analytiques des techniques de séquençage peuvent contribuer à des faux positifs ou faux négatifs, notamment dans la détection du mosaïcisme.

Enfin, toutes les fausses couches ne sont pas liées à des anomalies chromosomiques, ce qui limite mécaniquement l’impact potentiel du dépistage de l’aneuploïdie sur les taux de naissance vivante.

Au regard de ces incertitudes, les sociétés savantes internationales, en particulier européenne (EHRE) et américaine, restent prudentes et ne recommandent pas l’utilisation systématique du DPI-A en pratique clinique courante pour tous les couples ayant recours à la FIV. Il pourrait exister un bénéfice pour certains sous-groupes de patientes, notamment les plus âgées, ou celles qui ont subi plusieurs fausses couches spontanées.

Les limites actuelles des connaissances soulignent la nécessité d’études rigoureuses, incluant également les aspects médico-économiques, afin d’évaluer l’intérêt réel du DPI-A selon les différentes populations de patientes et les contextes cliniques. En effet, la réalisation d’un DPI-A double le coût d’une FIV classique.

Pour combler ces lacunes, l’Agence nationale de sécurité du médicament et des produits de santé (ANSM) avait autorisé en 2021 l’Assistance publique – Hôpitaux de Paris (AP-HP) à mettre en œuvre un essai clinique (essai DEVIT) afin de collecter des données sur ces questions. L’objectif de cette étude était d’en évaluer les bénéfices et les risques.

Mais le 7 février 2024, le tribunal administratif de Montreuil (tribunal administratif de Montreuil, 8e chambre, 7 février 2024, no 2206833) saisi par la fondation conservatrice Jérôme-Lejeune, a annulé l’autorisation de l’ANSM, en rappelant l’interdiction légale du DPI-A, y compris au stade de la recherche.

Par une décision du 10 juillet 2025, la Cour administrative d’appel de Paris a confirmé la décision du tribunal administratif.

L’étude est donc interrompue, alors que l’évaluation objective des bénéfices et des risques nécessite précisément des travaux méthodologiquement solides.

Le DPI-A : un débat français particulièrement polarisé

En France, la question du DPI-A suscite un débat particulièrement clivé.

Certaines associations de patients, comme le collectif BAMP !, dénoncent une incohérence : le dépistage de la trisomie 21 est largement proposé pendant la grossesse, avec la possibilité d’une interruption médicale en cas d’anomalie, alors que le dépistage avant implantation reste interdit.

Le risque d’eugénisme n’est-il pas moindre lorsqu’il s’agit de sélectionner des embryons viables que dans la systématisation d’une proposition de détection d’une trisomie 21 chez le fœtus, quelques mois après le début de la grossesse ?

Cette situation crée de fait des inégalités d’accès, puisque seuls les couples disposant des ressources financières nécessaires ont le choix de se rendre à l’étranger.

À l’inverse, des opposants, comme la Fondation Jérôme-Lejeune, considèrent que l’extension du DPI vers le dépistage chromosomique pourrait renforcer une logique de sélection embryonnaire et poserait des questions éthiques majeures, notamment vis-à-vis du handicap.

Replacer la science au cœur de la discussion

Dans ce contexte, le débat ne se laisse pas aisément réduire à une opposition entre une évaluation scientifique supposée neutre et des prises de position liées à des considérations éthiques et sociétales.

Les données scientifiques disponibles concernant le DPI-A restent en effet discutées : si certaines études suggèrent un bénéfice dans des indications ciblées (échecs répétés d’implantation, fausses couches à répétition), d’autres soulignent l’absence d’amélioration significative des taux de naissances vivantes pour l’ensemble des patients ayant recours à l’AMP, ainsi que les limites liées au mosaïcisme embryonnaire, à la représentativité de la biopsie et à la variabilité des pratiques.

L’évaluation scientifique elle-même est donc marquée par des incertitudes, des choix méthodologiques et des interprétations divergentes.

Parallèlement, le recours au DPI-A soulève des enjeux qui dépassent le seul champ biomédical, notamment en matière de représentation du handicap, de sélection embryonnaire, d’équité d’accès aux soins et de finalités assignées à la médecine reproductive. Ces dimensions relèvent de choix collectifs et de cadres éthiques, qui ne peuvent être tranchés par les seules données scientifiques.

L’absence de cadre légal pour la recherche sur le DPI-A en France a paradoxalement freiné la production de données scientifiques nationales, comme le montre la décision du tribunal administratif de Montreuil.

La France ne conçoit l’évolution des techniques biomédicales autorisées que dans le respect des grands principes relatifs au corps humain, tels qu’inscrits dans le Code civil aux articles 16 et suivants, à l’exclusion de toute considération commerciale.

L’histoire du DPI illustre la tension permanente entre progrès biomédical, attentes des patients et préoccupations éthiques. Le DPI-A cristallise aujourd’hui des espoirs importants d’amélioration des résultats de la FIV, mais aussi des inquiétudes quant à ses implications sociétales.

Dans ce contexte, l’enjeu est peut-être moins de trancher immédiatement « pour » ou « contre » que de consolider les connaissances disponibles. Dépassionner le débat, mieux informer le public, soutenir la recherche et expliciter les incertitudes apparaissent comme des conditions essentielles pour orienter les décisions futures en matière de santé publique.

Dans un domaine marqué par la rapidité des innovations et l’ampleur des enjeux éthiques, la qualité des données scientifiques doit jouer un rôle déterminant dans la manière dont notre société définit et définira les choix collectifs à venir.

The Conversation

Marjolaine Willems est membre de la Société Française de Diagnostic Préimplantatoire (SFDPI). Elle a reçu des financements de l'Agence de Biomédecine.

Valérie Depadt ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

29.04.2026 à 16:29

Philanthropy is reshaping global health. Here’s how

Annabelle Littoz-Monnet, Professor in International Relations, Graduate Institute – Institut de hautes études internationales et du développement (IHEID)

Could philanthropists be dominating global health metrics, governance, and outcomes?
Texte intégral (1478 mots)

Over the past two decades, global health has undergone a profound transformation. As public funding for international health and development has become increasingly unpredictable, private philanthropy has largely stepped in to fund global programmes.

It is well known that large foundations, such as the Gates Foundation, Bloomberg Philanthropies, or the Chan Zuckerberg Initiative, to list a few, now largely contribute to the budgets of the World Health Organization (WHO), a number of public-private partnerships, or initiate private initiatives.

What is less visible though is the way philanthropic organisations are increasingly producing the data, research, and knowledge infrastructures through which global health problems are known, prioritised and eventually governed. This shift is often presented as pragmatic, in the face of constrained budgets and an urgent global health crisis. Yet the expanding epistemic presence of philanthropic actors in global health is interrogating, when it shapes the very frameworks though which health issues are understood.

When philanthropic foundations produce global health data

Philanthropic foundations have, in recent years, widely invested in the production of metrics on the “burden” of specific health conditions and the “costs” and “returns” of given health interventions.

These metrics, while necessary, do not only describe reality, but define what counts as a health problem and what kinds of interventions are deemed valuable.

In 2007, the Gates Foundation (formerly known as the Bill & Melinda Gates Foundation) created the Institute of Health Metrics and Evaluation (IHME) to provide “timely, relevant, and scientifically valid evidence to improve health policy and practice” (IHME website).

Since its establishment, the IHME’s has been calculating the so-called Global Burden of Disease (GBD) metrics.

The GBD is the largest-scale project ever set up aimed at measuring morbidity and mortality rates throughout the globe using the metric of DALYs (Disability Adjusted Life Years).

The IHME, which has benefited from generous funding from the Gates Foundation, produces profuse metrics and estimates, calculations, and projections, which nowadays deeply shape the way health problems are being known, compared, and governed.

Although the WHO initially attempted to equal the IHME as a provider of health metrics, the IHME has now reached a position of dominance in global health. The WHO itself now increasingly relies on those numbers for its own sense-making and agenda-setting exercises.

Other “data” initiatives have since then further stabilised the strong presence of philanthropists in global health. In 2015, Bloomberg Philanthropies, for instance, launched its own Data for Health initiative, also co-funded with the Australian government and the Gates Foundation, to “strengthen and standardise birth and death records and to better inform policymaking and improve public health outcomes”.

Vital Strategies, which describes itself as a global health non-profit organisation and is partially funded by Bloomberg Philanthropies, acts as the implementing partner of Data for Health. In that capacity, Vital Strategies supports the WHO in its risk monitoring work. As their resources often surpass those of the WHO, philanthropists’ data centers have come to sit at the core of global infrastructures of quantification, providing data and metrics to the WHO and supporting it in its own monitoring work.

It is on the basis of those estimates that philanthropic organisations themselves and global health actors at large produce calculations to identify which health interventions could “save the most lives” and be most cost-effective. Interventions considered to be “best buys” and funding priorities have, thus, been identified on the basis of such metrics.

Effects on global health governance

GBD results have highlighted that diseases like malaria, HIV, and later non-communicable diseases (NCDs) account for a massive “burden” of DALYS.

Such numbers have helped, for instance, scale-up interventions for malaria and HIV treatment. The distribution of hundreds of millions of insecticide-treated nets has become a flagship intervention to solve malaria, with quantifiable impact, supported by the Gates Foundation but also global health actors at large. As philanthropic foundations increasingly partner with the WHO and other global health actors, they can, indeed, effectively translate this evidence in identifiable targets which all global health actors try to reach.

While supporting such interventions is in itself laudable, what is questioning is that this calculative logic introduced a particular way of valuing health interventions, toward an approach in which ‘results’ must be continuously and quantitatively evidenced. This logic has favoured, first, a move toward population-based interventions, which alone can be shown to be producing significant and measurable results. This approach implies that problems are seen mainly in terms of their magnitude and that interventions need to have “scalability” and “reach population impact”. Such interventions enable funders to calculate impact and returns on investment in a standardised way.

Second, this approach also favours highly technical interventions, rather than complex, structural interventions, as it is easier to produce evidence on their impact and the economic returns they generate.

With regard to the treatment of high blood pressure, for instance, anti-hypertensive therapy has been privileged. While philanthropists and the WHO also promote interventions that target salt intake and trans-fat in food, these tend to be less central and fashioned by philanthropists as more complex, because population-based impact measurements are unavailable. The identification of hypertensive therapy as a most effective intervention was largely identified through the funding of modelling scenarios and projections by Bloomberg Philanthropies, which has largely invested in the field to find out which hypothetical interventions would bring the best returns.

The involvement of philanthropists has therefore contributed to reinforcing a solutionist approach to health, where “quick fixes” are favoured, while factors relating to socioeconomic and environmental conditions problems are too often ignored.

Understanding this shift is crucial. It reveals that as private resources are called in to fill existing funding gaps, such a move is not neutral but deeply political.

Although the prevention of diseases is in itself a laudable objective for improving public health, what is interrogating is how the knowledge produced by these philanthropic actors, largely rooted in for-profit strategies and logics, is instrumental in making health conditions known, treated, and governed.

Editor’s note: This article was corrected to clarify that only part of Vital Strategies’ funding comes from Bloomberg Philanthropies.


A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!


The Conversation

Annabelle Littoz-Monnet a reçu des financements du Fonds National Suisse de la recherche Scientifique (FNS).

PDF

29.04.2026 à 09:31

Double fonction des séquences d’ADN : une nouvelle étude démontre que certaines sont à la fois codantes et régulatrices

Benoit Ballester, Chercheur en Bioinformatique à l’Inserm, Unité Inserm 1090 TAGC, Théories et Approches de la Complexité Génomique, Aix-Marseille Université, Marseille., Aix-Marseille Université (AMU)

Pendant longtemps on a pensé qu’une séquence d’ADN ne pouvait être que régulatrice ou codante. Pourtant, une nouvelle étude montre que certaines d’entre elles ont ces deux rôles.
Texte intégral (1303 mots)

Pendant longtemps, nous avons appris à lire le génome en séparant deux mondes. D’un côté, les gènes, ces portions d’ADN qui contiennent les instructions pour fabriquer les protéines. À l’intérieur de ces gènes se trouvent les exons, les segments qui servent directement à produire l’ARN puis les protéines. De l’autre côté, l’ADN régulateur, souvent situé dans les régions dites non codantes, qui commande où, quand et à quel niveau les gènes s’expriment. Cette frontière a été très utile. Mais elle est plus poreuse qu’on ne le pensait.

Épissage d’un pré-ARN messager : excision des introns et suture des exons. Fdardel/Wikimédia, CC BY

Dans l’étude que nous venons de publier dans Nature Communications, nous montrons que des milliers d’exons, parmi les quelque 200 000 que compte le génome humain, ne servent pas seulement à coder des protéines. Une partie d’entre eux agissent aussi comme des régulateurs, c’est-à-dire des séquences capables de stimuler l’expression des gènes. Autrement dit, une même portion d’ADN peut porter deux messages à la fois : l’un pour la protéine, l’autre pour la régulation.

Cette idée existait déjà à travers quelques exemples isolés, mais notre travail en propose pour la première fois une vue systématique, à grande échelle, et dans plusieurs espèces, de l’humain à la souris, en passant par la drosophile et même une plante, Arabidopsis thaliana.

Comment avons-nous répondu à cette question ?

Ce phénomène n’était pas totalement inconnu. Depuis les années 1990, il était décrit dans la littérature scientifique, au fil de cas particuliers ou d’analyses plus larges, sans vraiment qu’on en saisisse l’ampleur.

Pour y répondre, nous avons combiné plusieurs approches à grande échelle, exploitant de très grands volumes de données biologiques issues de travaux antérieurs. Nous avons d’abord analysé plus de 20 000 cartes montrant les endroits du génome où se fixent des facteurs de transcription, ces protéines qui contrôlent l’activité des gènes, afin de repérer les exons qui ressemblent à de véritables régions régulatrices.

Nous avons ensuite cherché d’autres indices montrant que ces exons pouvaient vraiment jouer un rôle régulateur. Nous avons notamment vérifié s’ils se trouvent dans les régions de l’ADN les plus accessibles, condition nécessaire pour que les gènes puissent être activés, et s’ils sont capables d’augmenter l’expression d’un gène dans des tests fonctionnels. Nous avons aussi bloqué certaines de ces séquences dans des cellules afin de voir comment leur absence modifiait l’activité des gènes.

Au final, nous avons identifié plus de 10 000 exons candidats chez l’humain, avec des signatures comparables chez les autres espèces étudiées. Cela montre que cette double fonction n’est pas une exception, mais un phénomène largement répandu dans le vivant.

Pourquoi est-ce important ?

Cette découverte change d’abord notre vision de la régulation des gènes. Les séquences activatrices étaient surtout recherchées dans l’ADN non codant qui correspond à 98 % de notre ADN. Nous montrons qu’une partie de cette régulation est aussi inscrite au cœur même des régions codantes. Les exons ne sont donc pas seulement des segments qui produisent des protéines : certains participent aussi au pilotage de l’expression des gènes, parfois pour leur propre gène, parfois pour d’autres gènes à distance.

L’enjeu est aussi médical. En génétique, on accorde beaucoup d’attention aux mutations qui modifient la protéine. Mais les mutations dites synonymes, souvent qualifiées de silencieuses, sont généralement moins regardées. En effet, le code génétique est lu par groupes de trois lettres, appelés codons, et plusieurs codons différents peuvent correspondre au même acide aminé. Autrement dit, une mutation peut modifier la séquence d’ADN sans changer la protéine produite. Or, si un exon est aussi un régulateur, une mutation synonyme peut malgré tout perturber un signal régulateur sans altérer directement la protéine.

Dans notre étude, nous montrons par des tests fonctionnels que certaines de ces variations modifient bien l’activité régulatrice de l’exon. Dans des données issues de tumeurs, nous observons aussi que des mutations situées dans ces exons sont associées à des changements d’expression de gènes cibles, y compris pour des mutations synonymes.

Quelles suites donner à ce projet ?

Nous n’en sommes probablement qu’au début. Les 10 000 exons identifiés chez l’humain constituent un atlas, mais pas encore une carte complète de tous les contextes biologiques où ces séquences agissent. La suite consiste donc à en tester beaucoup plus, dans davantage de types cellulaires, de tissus et d’espèces, afin de comprendre quand ces régulateurs exoniques sont actifs, quels gènes ils contrôlent et comment ils ont émergé au cours de l’évolution.

Il faudra aussi revoir à grande échelle notre manière d’interpréter les variants situés dans les exons. Jusqu’ici, beaucoup d’analyses demandaient surtout : cette mutation change-t-elle la protéine ? Il faut désormais poser une seconde question : change-t-elle aussi la régulation du gène ? Cette lecture à double entrée pourrait affiner l’interprétation de variants encore mal compris, notamment en cancérologie et en génétique humaine.

The Conversation

Ce travail a été soutenu par le MESR, INSERM, IFB, ANR.

PDF

29.04.2026 à 09:31

Une anomalie au LHC laisse entrevoir une percée majeure en physique des particules

William Barter, UKRI Future Leaders Fellow, School of Physics and Astronomy, University of Edinburgh

Mark Smith, Research Fellow in Collider Physics, Faculty of Natural Sciences, Imperial College London

Une anomalie observée dans la désintégration de mésons B pourrait être le premier signe d’une physique encore inconnue.
Texte intégral (1696 mots)
Après cinquante ans sans faille apparente, le modèle standard pourrait vaciller face à de nouvelles mesures issues du LHC. CERN

Des résultats obtenus au Large Hadron Collider, ou LHC, le Grand Collisionneur de hadrons du Cern, pourraient remettre en cause le modèle standard, pilier de la physique des particules depuis un demi-siècle.


Sommes-nous sur le point de détecter des signes d’une physique encore inconnue ? C’est ce que semblent suggérer les résultats récents des recherches que nous menons au Grand Collisionneur de hadrons du Cern (Large Hadron Collider ou LHC).

Si ces indices se confirmaient, ils remettraient en cause la théorie – appelée modèle standard (MS) – qui domine la physique des particules depuis cinquante ans. Les résultats indiquent, en effet, que le comportement de certaines particules subatomiques dans le LHC n’est pas conforme aux prédictions de ce modèle.

Les particules fondamentales sont les briques élémentaires de la matière : des particules subatomiques indivisibles (qui ne peuvent pas être décomposées en unités plus petites). Quatre forces fondamentales – la gravitation, l’électromagnétisme, l’interaction faible et l’interaction forte – régissent leurs interactions.

Le LHC est un immense accélérateur de particules installé dans un tunnel circulaire de 27 kilomètres sous la frontière franco-suisse. Son objectif principal est justement de mettre à l’épreuve le modèle standard.

Cette théorie constitue notre meilleure compréhension des particules et des forces fondamentales, mais elle n’est pas complète. Elle ne rend pas compte de la gravité ni de la matière noire – cette forme de matière invisible, encore jamais mesurée directement, qui représenterait environ 25 % de l’univers.

Au grand collisionneur de hadrons, des faisceaux de protons circulant en sens opposé sont mis en collision afin de déceler des indices d’une physique encore inconnue. Les nouveaux résultats proviennent de LHCb, une expérience du LHC consacrée à l’analyse de ces collisions.

Ce résultat repose sur l’étude de la désintégration – une forme de transformation – de particules subatomiques appelées mésons B. Nous avons analysé la manière dont ces mésons B se désintègrent en d’autres particules, et constaté que ce processus spécifique n’est pas conforme aux prédictions du modèle standard.

Une théorie élégante

Le modèle standard repose sur deux des avancées les plus révolutionnaires de la physique du XXᵉ siècle : la mécanique quantique et la relativité restreinte d’Einstein.

Les physiciens peuvent comparer les mesures réalisées dans des installations comme le LHC aux prédictions issues du modèle standard afin de tester rigoureusement cette théorie. Malgré son caractère incomplet, plus de cinquante ans de tests toujours plus exigeants n’ont encore révélé aucune faille dans ce cadre théorique. Du moins, jusqu’à aujourd’hui.

Notre mesure, acceptée pour publication dans la revue Physical Review Letters, met en évidence un écart de quatre écarts-types par rapport aux prédictions du modèle standard.

Concrètement, cela signifie que, après prise en compte des incertitudes liées aux résultats expérimentaux et aux prédictions théoriques, la probabilité qu’une fluctuation aléatoire des données produise un écart aussi important – si le modèle standard est correct – est d’environ 1 sur 16 000.

Même si ce résultat reste en deçà du standard ultime de la physique – ce que l’on appelle les cinq sigma, soit cinq écarts-types (environ une chance sur 1,7 million) – les indices commencent à s’accumuler. Cette hypothèse est renforcée par des résultats issus d’une autre expérience, CMS, publiés plus tôt en 2025.

Bien que les résultats de CMS soient moins précis que ceux de LHCb, ils sont en bon accord avec ces derniers, ce qui consolide l’ensemble. Nos nouveaux résultats proviennent de l’étude d’un type particulier de processus, appelé désintégration électrofaible « pingouin ».

Des événements rares

Le terme « pingouin » désigne un type particulier de désintégration (transformation) de particules de très courte durée de vie. Dans ce cas, nous étudions la manière dont le méson B se désintègre en quatre autres particules subatomiques – un kaon, un pion et deux muons.

Avec un peu d’imagination, la configuration des particules impliquées peut évoquer la silhouette d’un pingouin. Surtout, l’étude de cette désintégration permet d’observer comment un type de particule fondamentale, le quark bottom, peut se transformer en un autre, le quark étrange.

Cette désintégration « pingouin » est extrêmement rare dans le cadre du modèle standard : sur un million de mésons B, un seul se désintègre de cette manière. Nous avons analysé avec précision les angles et les énergies auxquels ces particules sont produites lors de la désintégration, et déterminé avec exactitude la fréquence du processus. Nos mesures de ces paramètres ne correspondent pas aux prédictions du modèle standard.

L’étude fine de ce type de désintégration constitue l’un des objectifs majeurs de l’expérience LHCb depuis sa création en 1994. Les processus « pingouin » sont particulièrement sensibles aux effets de nouvelles particules potentiellement très massives, qui ne peuvent pas être produites directement au LHC. De telles particules peuvent néanmoins exercer une influence mesurable sur ces désintégrations, en plus de la contribution attendue du modèle standard. Ce type d’observation indirecte n’est pas inédit. Par exemple, une forme de radioactivité a été découverte près de quatre-vingts ans avant que les particules fondamentales qui en sont responsables – les bosons W – ne soient observées directement.

Perspectives

L’étude de ces processus rares nous permet d’explorer des aspects de la nature qui ne deviendront peut-être accessibles autrement qu’avec des collisionneurs de particules dont on ne disposera au mieux que dans les années 2070. Un large éventail de nouvelles théories pourrait expliquer nos résultats. Beaucoup d’entre elles font intervenir de nouvelles particules appelées « leptoquarks », qui unifient deux types de constituants de la matière : les leptons et les quarks.

D’autres théories envisagent des particules plus massives, analogues à celles déjà décrites par le modèle standard. Ces nouveaux résultats permettent de contraindre ces modèles et d’orienter les recherches à venir.

Malgré notre enthousiasme, des questions théoriques ouvertes subsistent et nous empêchent d’affirmer avec certitude que nous avons observé une physique au-delà du modèle standard. La principale difficulté tient aux « pingouins charmants » (charming penguins), un ensemble de processus prévus par le modèle standard dont les contributions sont extrêmement difficiles à estimer. Les évaluations récentes suggèrent que leurs effets ne sont pas suffisamment importants pour rendre compte de nos données.

De plus, la combinaison d’un modèle théorique et des données expérimentales issues de LHCb indique que ces « pingouins charmants » – et donc le modèle standard – peinent à expliquer les résultats anormaux observés.

De nouvelles données, déjà collectées, devraient nous permettre de trancher dans les prochaines années : dans nos travaux actuels, nous avons analysé environ 650 milliards de désintégrations de mésons B enregistrées entre 2011 et 2018 pour identifier ces processus « pingouin ». Depuis, l’expérience LHCb a enregistré trois fois plus de mésons B.

D’autres avancées sont prévues dans les années 2030 afin de tirer parti des futures améliorations du LHC et de constituer un jeu de données 15 fois plus important. Cette étape décisive pourrait permettre d’apporter des preuves définitives – et, peut-être, d’ouvrir la voie à une nouvelle compréhension des lois fondamentales de l’Univers.

The Conversation

William Barter travaille pour l’Université d’Édimbourg. Il reçoit des financements de UKRI. Il est membre de la collaboration LHCb au CERN.

Mark Smith ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

29.04.2026 à 09:30

Masques à lumière rouge : que dit la science de leur efficacité ?

Coralie Thieulin, Enseignant chercheur en physique à l'ECE, docteure en biophysique, ECE Paris

La thérapie à la lumière rouge s’impose aujourd’hui comme une tendance majeure de la « beauty tech ». Que savons-nous des effets avérés ou supposés de cette technologie ? Est-elle sans risques ?
Texte intégral (1823 mots)

La thérapie à la lumière rouge s’impose aujourd’hui comme une tendance majeure de la « beauty tech », portée par les influenceurs et rendue accessible au travers de dispositifs à domicile. Elle est associée à des effets séduisants tels que réduction des signes de l’âge, amélioration de l’acné ou encore accélération de la cicatrisation. Que savons-nous des effets avérés ou supposés de cette technologie ? Est-elle sans risques ?


Les dispositifs de thérapie à la lumière rouge destinés au grand public se présentent le plus souvent sous la forme de masques faciaux rigides ou souples, conçus pour épouser les contours du visage. Leur prix varie d’une centaine à environ mille euros. Ils intègrent un ensemble de diodes électroluminescentes (LED) disposées sur leur face interne, émettant une lumière visible rouge, parfois associée à du proche infrarouge. L’utilisateur porte ce masque pendant une durée déterminée (généralement quelques minutes), afin d’exposer uniformément la peau à cette lumière. D’autres formats existent également, tels que des panneaux lumineux ou des dispositifs portatifs ciblant des zones spécifiques du corps, mais le masque facial constitue aujourd’hui la forme la plus emblématique.

Cet intérêt croissant pour la thérapie à la lumière rouge repose sur plusieurs facteurs complémentaires. D’une part, les avancées technologiques ont permis la miniaturisation de systèmes LED, rendant possible leur utilisation hors des cabinets médicaux. Dans ces derniers, la lumière rouge est utilisée notamment en dermatologie, où elle est employée pour le traitement de l’acné, des plaies, des ulcères et des cicatrices. D’autre part, ces dispositifs sont souvent présentés comme des solutions non invasives, ce qui contribue à leur accessibilité et à leur adoption par le grand public. Enfin, les réseaux sociaux participent à leur visibilité, en diffusant des retours d’expérience et des contenus d’usage, qui s’ajoutent aux publications scientifiques et aux communications commerciales existantes.

Commençons par préciser ce que l’on appelle thérapie à la lumière rouge. Aussi appelée photobiomodulation, elle repose sur l’utilisation de longueurs d’onde spécifiques, généralement comprises entre 630 et 660 nm, parfois étendues au proche infrarouge (environ 800–900 nm). Ces longueurs d’onde peuvent pénétrer dans la peau jusqu’au derme sans provoquer d’échauffement significatif ou de dommages comparables aux UV.

Quels sont les effets biologiques de la photobiomodulation ?

Au niveau biologique, la photobiomodulation serait liée à plusieurs mécanismes cellulaires encore en cours d’étude. Le mécanisme principal évoqué dans les travaux repose sur une interaction avec les mitochondries (petites structures cellulaires qui produisent l’énergie – sous forme d’une molécule appelée adénosine triphosphate : ATP – à partir des nutriments et de l’oxygène), en particulier avec l’enzyme cytochrome c oxydase, un acteur clé de la chaîne respiratoire. Plusieurs travaux suggèrent que cette enzyme agit comme un chromophore capable d’absorber la lumière rouge, entraînant des modifications de son état redox (gain ou perte d’électrons) et une stimulation du métabolisme, notamment via une augmentation de la production d’ATP et l’activation de voies de signalisation intracellulaires.

Ces processus s’accompagnent de plusieurs effets biologiques principalement observés in vitro et dans des modèles animaux. Une augmentation de la production d’ATP a notamment été mesurée après exposition à ces longueurs d’onde. Par ailleurs, la lumière semble moduler le stress oxydatif, c’est-à-dire le déséquilibre entre la production de molécules réactives de l’oxygène et les systèmes de défense antioxydants de la cellule. Ce déséquilibre est susceptible d’endommager les lipides, protéines et l’ADN lorsqu’il est excessif, mais peut aussi jouer un rôle de signal biologique à faible niveau. Ce processus implique notamment une production contrôlée d’espèces réactives de l’oxygène (ROS) et de monoxyde d’azote, deux molécules impliquées dans les voies de signalisation cellulaire. Enfin, ces signaux biochimiques activent des cascades intracellulaires (kinases, facteurs de transcription) favorisant des processus de réparation et de régénération tissulaire.

Des effets modestes

Ces mécanismes restent encore débattus, notamment concernant le rôle exact du cytochrome c oxydase, dont l’implication directe n’est pas unanimement démontrée. Malgré ces incertitudes mécanistiques, la photobiomodulation a été largement étudiée sur le plan clinique, avec des résultats globalement positifs mais variables selon les indications.

Dans le cas du vieillissement cutané, plusieurs essais rapportent une légère amélioration des rides fines, de la texture et de l’élasticité de la peau après plusieurs semaines de traitement. Ces effets seraient liés à la stimulation des fibroblastes (cellules de base des tissus conjonctifs) et à l’augmentation de la production de collagène. Une revue souligne que les effets observés sont réels mais hétérogènes et encore mal standardisés.

Concernant la cicatrisation, les données suggèrent un potentiel effet, mais les preuves restent encore incomplètes et parfois contradictoires. La lumière rouge pourrait intervenir dans les différentes phases de la réparation tissulaire (inflammation, prolifération et remodelage) en stimulant l’activité de cellules clés comme les fibroblastes et les macrophages (cellules du système immunitaire). Elle favoriserait ainsi la production de collagène, la migration cellulaire et possiblement l’angiogenèse (formation de nouveaux vaisseaux sanguins à partir de vaisseaux existants), contribuant à la reconstruction du tissu lésé. Cependant, les données cliniques sont hétérogènes : certaines études montrent une accélération de la cicatrisation, tandis que d’autres ne retrouvent pas d’effet significatif.

Enfin, dans le traitement de l’acné, la lumière rouge agit principalement par des effets anti-inflammatoires et une modulation de l’activité des glandes sébacées (situées dans la peau et impliquées dans la synthèse et sécrétion du sébum). Les études rapportent une diminution des lésions inflammatoires et des rougeurs, avec des résultats globalement modérés et variables selon les protocoles. Elle est souvent plus efficace lorsqu’elle est combinée à d’autres thérapies lumineuses.

Un niveau de preuve limité

Malgré des résultats encourageants dans plusieurs domaines, la photobiomodulation reste une discipline en développement, dont le niveau de preuve est limité par plusieurs facteurs méthodologiques. De nombreuses études reposent sur des effectifs réduits, ce qui limite la robustesse statistique et la généralisation des résultats. Par ailleurs, l’hétérogénéité des protocoles expérimentaux (durée d’exposition, intensité lumineuse, fréquence des traitements) complique la comparaison entre études et peut expliquer certaines divergences observées.

Ces limites méthodologiques contrastent avec la diffusion rapide de dispositifs grand public (masques LED, panneaux, appareils portatifs), aux performances variables et peu standardisées. L’écart entre les conditions expérimentales (paramètres contrôlés, doses précises, suivi médical) et l’usage domestique peut conduire à une surestimation des effets, parfois amplifiée par des discours commerciaux optimistes.

En résumé, la photobiomodulation repose sur des mécanismes biologiques plausibles et des résultats expérimentaux et cliniques encore partiellement concordants. Le niveau de preuve reste à ce jour modéré, en raison notamment du nombre limité d’essais randomisés contrôlés de grande ampleur et de l’hétérogénéité des protocoles. Les données disponibles suggèrent des effets potentiels dans plusieurs indications dermatologiques, mais leur amplitude et leur reproductibilité varient selon les conditions d’utilisation. Cette technologie s’inscrit ainsi dans un champ de recherche en structuration, nécessitant des études complémentaires standardisées afin de préciser ses indications et ses paramètres optimaux.

Dans ce contexte, des effets indésirables restent rares mais possibles, principalement sous forme d’irritations cutanées transitoires ou d’inconfort oculaire en cas de mauvaise utilisation. Les données actuelles ne mettent pas en évidence de toxicité majeure aux paramètres utilisés en photobiomodulation, mais les effets d’un usage prolongé ou non encadré restent encore insuffisamment documentés. Certaines situations peuvent également nécessiter des précautions particulières, notamment chez les personnes présentant une sensibilité accrue à la lumière ou des pathologies dermatologiques spécifiques.

L’utilisation de dispositifs commerciaux de lumière rouge doit donc être envisagée avec prudence, en particulier en dehors d’un cadre médical. Il est recommandé de solliciter un avis médical ou dermatologique en cas d’usage à visée thérapeutique. Par ailleurs, les dispositifs disponibles sur le marché présentent une qualité variable : il convient de vérifier des paramètres tels que la longueur d’onde (généralement 630–660 nm pour le rouge), la puissance d’émission, ainsi que la présence de certifications de sécurité.

The Conversation

Coralie Thieulin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

29.04.2026 à 09:30

Lessive : Peut-on passer de 50 à 5 ingrédients et toujours avoir un linge propre ?

Véronique Sadtler, Professeure, Université de Lorraine

Les formulations actuelles de lessive mobilisent souvent plus de 30 ingrédients, pourtant certaines marques proposent une liste plus réduite. Peut-on simplifier sans perdre en efficacité ?
Texte intégral (1884 mots)
Ce qu’il se passe à l’intérieur d’une machine à laver est bien plus complexe que ce que vous imaginez. Manon Lincésur/Unsplash, CC BY

Vous lancez une machine, versez une dose de lessive et attendez un linge propre : taches éliminées, fibres et couleurs préservées, même à basse température. Derrière ce geste quotidien se cache une chimie sophistiquée. Les formulations actuelles mobilisent souvent plus de 30 ingrédients, chacun jouant un rôle précis. Pourtant, on voit apparaître des lessives mettant en avant des listes plus courtes, parfois réduites à moins de 10 composants, portées par une demande de transparence et de moindre impact environnemental. Mais peut-on vraiment simplifier sans perdre en efficacité ?


Une lessive ne se contente pas de nettoyer. Elle doit simultanément décoller les salissures, préserver les tissus et fonctionner dans des eaux de qualité variable. Pour y parvenir, chaque ingrédient remplit un rôle précis. Les tensioactifs forment la colonne vertébrale de la formulation. Leur structure amphiphile – une tête hydrophile avec affinité pour l’eau et une chaîne hydrophobe attirant les graisses – leur permet de s’intercaler entre les salissures et les fibres, de les décoller et de les maintenir en suspension dans le bain de lavage.

Les enzymes complètent cette action en ciblant des taches spécifiques : les protéases décomposent les taches protéiniques (sang, œuf), les amylases s’attaquent aux amidons (sauces, pâtes, riz), tandis que les lipases hydrolysent graisses et huiles. Leur efficacité à basse température explique en grande partie pourquoi les lessives modernes peuvent nettoyer sans chauffer fortement l’eau. D’autres ingrédients assurent des fonctions complémentaires, comme l’efficacité du lavage en eau dure (une eau riche en ions calcium et magnésium, une eau calcaire), la stabilité de la formulation ou la limitation de la redéposition des salissures sur les fibres.

Cette complexité s’est construite au fil des décennies pour répondre à des exigences toujours plus élevées. Certaines fonctions restent difficiles à concilier : améliorer la blancheur peut altérer les couleurs vives, tandis que renforcer l’efficacité à basse température exige souvent des systèmes enzymatiques plus élaborés. Notons que la réglementation européenne n’impose pas l’affichage de la liste complète des ingrédients sur l’emballage, mais seulement des classes de composants avec des fourchettes de pourcentages. Obtenir la liste exhaustive reste souvent complexe pour le consommateur. Si la liste détaillée est théoriquement accessible en ligne, elle est en pratique plus ou moins facile à consulter, parfois dispersée dans des documents techniques.

Les deux moteurs de la simplification

Les formulations tendent aujourd’hui à se raccourcir sous l’effet de deux dynamiques. La première est réglementaire. Ainsi, les phosphates, autrefois largement utilisés comme agents séquestrants, ont été fortement limités puis pratiquement éliminés des lessives ménagères en Europe depuis 2013. Rejetés dans les eaux usées après le lavage, les phosphates contribuent à l’eutrophisation des milieux aquatiques, c’est-à-dire à un enrichissement excessif en nutriments. Ils favorisent ainsi la prolifération d’algues, qui appauvrit l’eau en oxygène et peut entraîner une perte de biodiversité.

La seconde dynamique est sociétale. Une demande croissante de transparence et de réduction de l’empreinte environnementale pousse les fabricants à proposer des formules plus courtes. Azurants optiques, qui donnent une impression de blancheur plus éclatante sans agir directement sur le nettoyage, parfums, conservateurs, remplissent des fonctions réelles, mais sont de plus en plus contestés pour leurs effets allergènes potentiels ou leur persistance dans l’environnement. Certains labels, comme l’Écolabel européen, vont au-delà de la réglementation en les excluant ou en les limitant strictement, privilégiant certains critères écologiques au détriment d’autres performances.

Simplifier, c’est arbitrer

Réduire le nombre d’ingrédients ne consiste pas à supprimer des composants sans conséquence. Il s’agit de recomposer un nouvel équilibre entre contraintes souvent contradictoires.

Le cercle de Sinner, cadre classique en chimie du lavage, illustre ces arbitrages. Il repose sur quatre paramètres interdépendants : action chimique, température de l’eau, temps de contact et action mécanique. Pour obtenir un niveau de propreté donné, ces facteurs se compensent : réduire l’un impose d’en renforcer un autre.

C’est exactement la logique des programmes « éco » des machines à laver : en abaissant la température à 30 ou 40 °C au lieu de 60 °C, ils allongent la durée du cycle. Si cette baisse de température permet de réduire la consommation d’énergie, elle peut rendre aussi le lavage moins efficace, ce qui nécessite des formulations souvent plus sophistiquées, capables d’agir à froid. Le lavage à basse température ne simplifie donc pas nécessairement les formules, et peut au contraire conduire à les complexifier.

Du bidon à la dosette : la complexité change de forme

L’évolution des formats de lessive illustre la manière dont la complexité est parfois redistribuée plutôt qu’éliminée. Les lessives liquides, aujourd’hui dominantes, sont pratiques et efficaces à basse température, mais transportent une part importante d’eau, souvent plus de la moitié de la formulation et nécessitent des conservateurs. Les formats concentrés ou solides visent à réduire l’emballage et l’impact du transport, mais nécessitent un dosage plus précis de la part du consommateur.

Dans ce contexte, le volume du flacon n’est pas toujours un bon indicateur : les fabricants indiquent généralement sur l’emballage le nombre de lavages, qui reflète mieux la concentration et facilite la comparaison entre produits.

Le surdosage reste fréquent : par habitude ou par crainte d’un résultat insuffisant, beaucoup de consommateurs versent plus que la dose recommandée. Au-delà d’un certain seuil, les tensioactifs supplémentaires n’améliorent plus le nettoyage ; ils sont simplement rejetés dans les eaux usées, augmentant inutilement la charge environnementale.

Les dosettes multi-compartiments offrent une autre réponse élégante : en séparant physiquement des ingrédients incompatibles (certaines enzymes et agents oxydants qui se neutraliseraient dans un mélange unique), elles préservent l’efficacité de chacun jusqu’au moment du lavage, tout en imposant une dose prédéfinie qui limite mécaniquement le surdosage. La complexité chimique n’a pas disparu ; elle a simplement été intégrée dans l’architecture du produit.

Performance maximale ou performance suffisante ?

Le véritable enjeu réside ici. Les lessives classiques sont conçues selon une logique de performance maximale : elles doivent venir à bout des situations les plus exigeantes – taches tenaces, eau très calcaire, textiles délicats – même si ces cas restent minoritaires dans la vie quotidienne.

Pourtant, l’Agence de l’environnement et de la maîtrise de l’énergie (Ademe) le rappelle : la très grande majorité du linge porté n’est que peu ou modérément sale, et il est recommandé d’espacer les lavages. Viser systématiquement la performance maximale revient à surdimensionner la formulation pour des usages qui ne le justifient pas. Dans la pratique, pour le linge du quotidien, des doses modérées et des cycles à basse température sont généralement suffisants. À l’inverse, pour des taches plus tenaces – vêtements de sport ou de travail –, il peut être plus pertinent d’avoir recours à des détachants ciblés plutôt que d’augmenter systématiquement les doses de lessive.

Adapter les formulations aux usages majoritaires implique donc de passer d’une approche universelle à une logique de performance suffisante, c’est-à-dire une efficacité adaptée à la grande majorité des lavages quotidiens. Ce n’est pas une régression technique, mais un choix de conception assumé qui rend enfin visibles les arbitrages. Les lessives pour linge blanc (avec agents de blanchiment et azurants optiques) et celles pour linge foncé (sans ces composants pour préserver les couleurs) en sont l’illustration parfaite : on ne peut pas optimiser simultanément ces deux objectifs.

Enfin, le prix joue un rôle important. Les lessives revendiquant une formulation plus simple ou un impact réduit sont souvent plus chères à l’achat que les produits classiques, en raison du coût plus élevé des ingrédients alternatifs d’origine végétale ou biodégradable, des volumes de production généralement plus faibles et des certifications spécifiques. Toutefois, ce surcoût à l’achat ne se traduit pas nécessairement par un coût plus élevé à l’usage. Grâce à une concentration souvent supérieure et à un dosage plus précis, le prix par lavage peut s’approcher, voire s’aligner sur celui des lessives classiques, notamment avec les marques de distributeurs écologiques qui offrent aujourd’hui un excellent rapport qualité-prix.

Au fond, la simplification ne change pas seulement les formules, elle interroge aussi nos habitudes d’usage. Et c’est peut-être là son véritable apport : non pas viser une performance maximale en toutes circonstances, mais ajuster le niveau de performance réellement nécessaire selon les situations.

The Conversation

Véronique Sadtler ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

28.04.2026 à 16:21

Pourquoi l’attaque contre Donald Trump est le reflet d’une violence endémique aux États-Unis

James Piazza, Liberal Arts Professor of Political Science, Penn State

La dimension morale de la polarisation politique aux États-Unis, où chaque camp considère l’autre comme immoral, contribue à attiser des attaques telles que celle dont Trump a été victime au Washington Hilton.
Texte intégral (2057 mots)

Le 25 avril 2026 au Washington Hilton, lors du dîner de l’Association des correspondants de la Maison-Blanche, Donald Trump a essuyé une menace d’agression. Les faits précis entourant l’incursion d’un homme armé restent flous. Alors que l’enquête progresse, Alfonso Serrano, rédacteur en chef de la rubrique politique et société de The Conversation aux États-Unis, a interrogé James Piazza, spécialiste de la violence politique à Penn State, pour comprendre les racines de ce phénomène états-unien et les solutions possibles.


Ce n’est pas la première fois que Trump essuie des violences politiques. Que révèle cette dernière attaque ?

Elle souligne surtout l’extrême dangerosité du climat politique américain. Depuis plusieurs années – et assurément depuis le 6 janvier 2021 (l’assaut du Capitole par des partisans de Donald Trump, NDLR) –, le pays connaît une période de recrudescence de la violence politique, définie comme une violence motivée par un dessein politique ou visant à faire passer un message partisan. Les travaux du Polarization & Extremism Research & Innovation Lab ont confirmé cette tendance à la hausse. Plusieurs exemples récents viennent à l’esprit : l’invasion du Capitole ; les multiples tentatives d’assassinat contre le président Trump (en 2016 ; en juillet et septembre 2024 ; puis en février 2026, NDLR) ; les meurtres des législateurs du Minnesota Melissa Hortman et John Hoffman ; l’agression de Paul Pelosi ; l’assassinat de Charlie Kirk. Dans mon État natal, la Pennsylvanie, le gouverneur démocrate Josh Shapiro a été visé par un incendie criminel à sa résidence.

Des dizaines de voitures de police sont alignées dans la rue
Les forces de l’ordre interviennent suite à un incident survenu au Washington Hilton lors du dîner des correspondants de la Maison-Blanche, le 25 avril 2026, à Washington. AP Photo/Allison Robbert

Qu’est-ce qui explique cette flambée de violence politique qui frappe les États-Unis ?

Plusieurs facteurs concourent à la violence politique qui sévit actuellement aux États-Unis, selon mes recherches et celles d’autres chercheurs. Les États-Unis sont aujourd’hui politiquement très polarisés : le fossé se creuse entre les Américains selon leur allégeance partisane. Ils se méfient les uns des autres, se montrent hostiles, et cela créé un climat tendu et instable où chaque élection prend des allures de confrontation existentielle, dans un jeu à « somme nulle ».

Ce qui me frappe particulièrement, c’est la dimension morale de cette polarisation. Champ camp ne considère plus l’autre comme porteur d’une opinion différente, mais plutôt comme malfaisant ou immoral. Cet environnement a conduit à une normalisation de la violence politique et a affaibli la réaction négative du public lorsqu’elle se produit, rendant celle-ci plus probable.

En outre, la rhétorique politique est devenue beaucoup plus clivante et violente par nature. Ce phénomène va de pair avec la polarisation et contribue à normaliser davantage la violence politique. En particulier lorsque les politiciens ont recours à une rhétorique diabolisante ou déshumanisante pour attaquer leurs adversaires – par exemple, en utilisant des mots qui dépeignent leurs adversaires comme « sous-humains ». Ce sont des pratiques qui encouragent l’extrémisme et contribuent à inciter le passage à l’acte physique.

La désinformation est aussi un facteur majeur de la violence politique. Un certain nombre de personnes ayant participé à des actes de violence politique récents semblent avoir été motivées par des théories du complot et d’autres formes de désinformation, souvent glanées sur les réseaux sociaux. La désinformation joue un rôle particulièrement important dans le contexte des communautés des réseaux sociaux, où les personnes sont exposées à de grandes quantités de désinformation et sont hermétiquement coupées d’autres sources susceptibles de remettre en cause leur vision du monde – ce qui facilite la radicalisation et, dans certains cas, alimente la violence politique.

Enfin, je pense qu’un autre facteur important réside dans l’attaque actuelle contre les normes démocratiques et les institutions aux États-Unis. La démocratie américaine subit des pressions inédites à l’ère moderne, ce qui affecte directement la confiance des Américains dans le gouvernement, dans les institutions démocratiques et dans la valeur même du régime démocratique. Mes travaux montrent que les personnes sceptiques à l’égard de la démocratie sont bien plus disposées à tolérer, voire à soutenir, la violence politique.

Donald Trump se tient devant un podium, face à des dizaines de personnes assises
Le président Donald Trump répond aux questions à la Maison-Blanche le 25 avril 2026, après une fusillade survenue lors du dîner des correspondants de la Maison-Blanche. Mandel Ngan/AFP

En quoi cette vague de violence politique diffère-t-elle des autres périodes de violence dans l’histoire des États-Unis ?

Si les États-Unis connaissent actuellement une recrudescence de la violence politique, celle-ci n’est malheureusement pas sans précédent. On peut penser à la période de forte polarisation des années 1850, à l’aube de la guerre de Sécession. À cette époque, il existait une division marquée entre les abolitionnistes et les partisans de l’esclavage, aboutissant à des assassinats politiques, à l’agression d’un membre abolitionniste du Congrès par un membre pro-esclavagiste du Congrès, et à un conflit civil sanglant au Kansas entre des groupes armés pro-esclavagistes et anti-esclavagistes. Au début du XXe siècle, après la Première Guerre mondiale, on a observé une nouvelle recrudescence de la violence politique liée aux conflits sociaux et celle perpétrée par la deuxième génération du Ku Klux Klan. Enfin, les années 1960 ont connu une période de violence politique intense autour de l’opposition à la guerre du Vietnam et au rejet du mouvement des droits civiques. Même si la violence politique d’aujourd’hui présente certaines caractéristiques propres – notamment l’influence des réseaux sociaux –, je pense que l’on peut trouver des parallèles avec ces premières périodes de violence politique.

Enfin, que peut-on retenir de cet épisode ?

Je pense qu’il est essentiel que les responsables politiques, tant démocrates que républicains – ou quel que soit leur bord –, s’unissent pour condamner cette attaque et toute forme de violence politique, et que les commentateurs et influenceurs en fassent de même.

Les chercheurs montrent amplement que ce que disent les élites politiques (politiciens, dirigeants politiques, commentateurs médiatiques, influenceurs en ligne) à la suite de ce genre d’événements a un effet considérable sur les attitudes des citoyens. Si ce message est unifié et vient de l’ensemble du spectre politique, il contribuera d’autant plus à réduire l’état d’esprit qui alimente la violence.

The Conversation

James Piazza ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

28.04.2026 à 15:57

Sommeil, activité physique, alimentation : des améliorations même modestes sont liées à un vieillissement en meilleure santé

Eef Hogervorst, Professor of Biological Psychology, Loughborough University

Une étude sur une importante cohorte suggère que de légers changements dans les habitudes de sommeil, d’activité physique et d’alimentation sont associés à un vieillissement en meilleure santé.
Texte intégral (2166 mots)
Les personnes qui participent à UK Biobank, un vaste projet de recherche à long terme sur la santé mené auprès de centaines de milliers d’adultes britanniques, sont généralement en meilleure santé que la population moyenne. CandyRetriever/Shutterstock

Une étude qui a porté sur une importante cohorte britannique suggère que de légers changements dans les habitudes de sommeil, d’activité physique et d’alimentation sont associés à un vieillissement en meilleure santé. On fait le point sur ses principaux enseignements, mais aussi sur les limites des résultats qu’elle met en avant.


Selon une vaste étude menée au Royaume-Uni, il ne serait pas nécessaire de bouleverser complètement notre mode de vie pour vivre plus longtemps en meilleure santé. C’est une bonne nouvelle, d’autant plus que beaucoup de gens abandonnent vite les bonnes résolutions qu’ils prennent concernant leurs habitudes de vie.

Dans cette étude récente, ont été suivies environ 59 000 personnes au Royaume-Uni, dont l’âge moyen était de 64 ans, sur une période de huit ans. Les chercheurs ont confirmé ce qu’avaient montré des travaux antérieurs selon lesquels des modes de vie plus sains sont associés à un risque moindre de maladies, notamment de démence, ainsi qu’à une vie plus longue en bonne santé et plus autonome.

Les auteurs de l’étude rapportent que des changements même très modestes étaient associés à de tels bienfaits. Cela incluait notamment le fait de dormir environ cinq minutes de plus par nuit, de pratiquer deux minutes supplémentaires par jour d’activité physique d’intensité modérée à vigoureuse, et d’améliorer modestement son alimentation. L’ensemble de ces changements étaient associés à environ une année supplémentaire de vie en bonne santé. Le terme « vie en bonne santé » désigne ici les années vécues sans maladie grave ni handicap qui limitent les activités quotidiennes.

Des changements plus importants sont associés à des gains plus significatifs. Près d’une demi-heure de sommeil supplémentaire par nuit, combinée à quatre minutes d’exercice supplémentaires par jour (ce qui représente près d’une demi-heure d’activité physique en plus par semaine), et à d’autres améliorations en matière d’alimentation, permettent de gagner jusqu’à quatre années de vie en bonne santé.


À lire aussi : Pour booster son cerveau, quelles activités physiques privilégier après 60 ans ?


Cela est important à noter car, bien que les femmes vivent en moyenne plus longtemps que les hommes, ces années supplémentaires sont souvent marquées chez elles par une moins bonne santé, ce qui entraîne des coûts personnels et économiques significatifs. Les femmes sont exposées à un risque plus élevé de démence, d’accident vasculaire cérébral et de maladies cardiaques à un âge avancé, ainsi qu’à des affections entraînant une perte de la vue et à des fractures osseuses. Ces maladies peuvent réduire la qualité de vie et menacer l’autonomie.

Changer son mode de vie peut également réduire le risque de décès prématuré. L’année dernière, les mêmes facteurs liés au mode de vie examinés dans cette cohorte ont fait l’objet d’une analyse dans une autre étude qui portait sur la mortalité (le risque de décès).

D’après cette analyse, les personnes ayant adopté un mode de vie plus sain sur une période de huit ans présentaient un risque de décès inférieur de 10 % au cours de cette période. La combinaison de 15 minutes de sommeil supplémentaires par nuit, de deux minutes supplémentaires d’activité physique modérée à intense par jour et d’une alimentation saine était associée à une légère réduction du risque de décès. Une réduction bien plus importante, de 64 %, a été observée chez les personnes qui dormaient entre sept et huit heures par nuit, suivaient une alimentation saine et pratiquaient entre 42 et 103 minutes supplémentaires d’activité physique modérée à intense par semaine.

Soulignons que cet effet bénéfique n’a été observé que lorsque ces comportements étaient combinés. L’alimentation seule n’avait par exemple aucun effet mesurable.

Atouts et limites de ces études

L’un des principaux atouts de ces études vient du fait qu’elles mettent en évidence des bienfaits pour la santé dès les premiers signes d’un changement de comportement. Cela réduit le risque que les résultats soient uniquement influencés par le fait qu’elles inclueraient des personnes déjà en meilleure santé ou plus motivées. Ces conclusions apparaissent ainsi plus pertinentes pour les personnes âgées et pour celles qui ont des capacités limitées pour modifier leurs habitudes.

Un autre de leurs points forts réside dans le recours à des mesures objectives plutôt qu’à des données déclarées par les personnes participantes elles-mêmes. L’activité physique et le sommeil ont été mesurés à l’aide d’appareils portables, plutôt qu’en se fiant aux estimations des participants concernant leur propre comportement. Les déclarations des participants peuvent en effet se révéler peu fiables, en particulier chez les personnes qui souffrent de troubles de la mémoire, comme chez celles qui se trouvent aux premiers stades de la démence.

Il existe toutefois des limites importantes à ces études. Les mesures objectives n’ont été recueillies que pendant trois à sept jours, ce qui ne reflète peut-être pas les habitudes à long terme des personnes concernées. Selon mon expérience, le fait de porter un bracelet connecté peut inciter les gens à faire davantage d’exercice pendant la période de suivi, mais ces changements sont souvent de courte durée.

De plus, les accéléromètres portés au poignet évaluent le sommeil et l’activité physique en se basant sur les mouvements. Pendant le sommeil profond, les personnes bougent très peu, mais l’absence de mouvement ne signifie pas toujours qu’une personne dort. Ces appareils peuvent donc ne pas refléter pleinement les véritables habitudes de sommeil ou les niveaux activité physique. D’autres méthodes, telles que les capteurs fixés sur la cuisse ou les capteurs intégrés au matelas qui détectent les mouvements pendant le sommeil, peuvent fournir des évaluations plus précises.

Malgré ces problèmes, les mesures objectives sont généralement plus fiables que les déclarations des personnes concernées. Toutefois, comme le comportement n’a été mesuré qu’une seule fois, il est difficile de déterminer si les changements de comportement observés au fil du temps ont influencé les résultats en matière de santé. Il est également difficile de savoir si l’activité enregistrée correspondait à de l’exercice pratiquée pendant les loisirs ou à une activité physique au travail, sachant que ces deux types d’activité peuvent avoir des effets différents sur la santé.

Les informations sur l’alimentation posent un autre défi. Les habitudes alimentaires ont été rapportées par les participants eux-mêmes et recueillies trois à neuf ans avant la collecte des données sur le sommeil et l’activité physique. Les habitudes alimentaires changent souvent avec le temps, en particulier après un diagnostic tel qu’une maladie cardiovasculaire, où il peut être conseillé aux personnes concernées de baisser leur cholestérol, ou dans des cas de démence, quand les personnes peuvent oublier de manger. Il est donc difficile de savoir si l’alimentation a influencé le risque de maladie, ou si c’est l’apparition de la maladie qui a modifié l’alimentation et contribué finalement à une mauvaise santé puis à un décès prématuré.

Il faut également tenir compte de facteurs sociaux plus généraux. Les comportements sains ont tendance à se regrouper ensemble et sont étroitement liés au niveau d’éducation et à la sécurité financière. Par exemple, le tabagisme et le fait d’être en surpoids ou obèse sont étroitement associés à la précarité et à la pauvreté.


À lire aussi : Obésité et « manque de volonté » : les préjugés négatifs ont la vie dure


Les participants à l’UK Biobank, un vaste projet de recherche à long terme sur la santé qui recueille des données génétiques, sur le mode de vie et sur la santé auprès de centaines de milliers d’adultes britanniques, sont généralement en meilleure santé que la population britannique moyenne.

La recherche en santé attire souvent des personnes en meilleure santé, plus instruites et jouissant d’une plus grande sécurité financière. Cela peut refléter à la fois un intérêt pour la recherche et le fait de disposer du temps et des ressources nécessaires pour participer à de telles études.

La richesse a également un impact sur l’exposition au risque. Les personnes qui disposent de revenus plus élevés sont moins susceptibles de vivre dans des zones où les niveaux de pollution sont élevés et ont davantage de chances de contrôler leurs conditions de travail et leurs finances. Le stress financier peut affecter la qualité du sommeil, entraîner de la fatigue et réduire la probabilité de faire de l’activité physique, d’acheter des aliments frais ou de préparer des repas sains. Au cours d’une vie, ces facteurs contribuent à une santé plus fragile et à un décès prématuré.

Bien que les chercheurs aient tenté de prendre en compte ces influences à l’aide de méthodes statistiques, celles-ci sont étroitement liées et difficiles à distinguer. Pour de nombreuses personnes qui vivent désormais dans une extrême pauvreté, l’aggravation du fossé entre problèmes de santé et richesse met en évidence les limites de la responsabilité individuelle. Ces problèmes structurels exigent une action de la part des décideurs politiques, plutôt que de faire porter le fardeau uniquement aux personnes qui n’ont peut-être que très peu de contrôle sur les conditions qui déterminent leur santé.

The Conversation

Eef Hogervorst a reçu des financements de plusieurs fondations gouvernementales et caritatives pour ses recherches sur le mode de vie et la santé, notamment, actuellement, de l’ISPF et d’Alzheimer’s Research UK. Elle est rattachée à l’université de Loughborough et a récemment intervenu en tant qu’experte en démence pour le NICE et la BBC. Par le passé, elle a été consultante en matière d'alimentation et de risques de démence pour Proctor.

PDF

28.04.2026 à 15:55

Photos, jeux vidéo, musique : ces compétences numériques que les enfants développent avant même d’apprendre à lire

Nathalie Chapon, Professeur des universités en sciences de l'éducation et de la formation, Université Marie et Louis Pasteur (UMLP)

Annie Lasne, Maîtresse de conférences en sociologie de l'éducation, Université Marie et Louis Pasteur (UMLP)

On discute beaucoup des effets des écrans sur la santé des enfants. Mais que sait-on des compétences numériques réelles des tout-petits ?
Texte intégral (1426 mots)

On discute beaucoup des effets des écrans sur la santé des enfants. On s’interroge moins souvent sur leurs usages précoces du numérique dans un monde ultraconnecté. Quels sont leurs savoir-faire réels ? Une enquête fondée sur des observations et des entretiens lève le voile sur ces pratiques du quotidien et sur les mécanismes de socialisation au numérique d’élèves de maternelle.


En l’espace de cinquante ans, les technologies numériques se sont progressivement imposées dans tous les espaces du quotidien et à tous les âges de la vie. De la télévision aux téléphones portables, en passant par les ordinateurs et les consoles, les écrans occupent aujourd’hui une place centrale dans les foyers.

Les recherches scientifiques, particulièrement développées depuis une dizaine d’années, ont principalement étudié les effets des écrans sur la santé, le sommeil et l’activité physique des enfants et des adolescents. Les résultats soulignent des répercussions notables, quel que soit l’âge des enfants.

Cependant, peu d’études se sont intéressées aux savoirs numériques des tout-petits. Dans le cadre d’un programme de recherche sur la parentalité numérique et d’un partenariat avec le TNE 25-Territoire numérique éducatif du Doubs, nous avons souhaité explorer cette question. Est-ce que les tout-petits ont des connaissances numériques ? Quelles compétences détiennent-ils exactement ?

Cette recherche explore les savoirs numériques des tout-petits d’enfants âgés d’à peine 4 ans et permet de questionner l’idée selon laquelle ils seraient dépourvus de connaissances numériques et ne seraient capables d’utiliser un téléphone seulement dans un cadre précis.

Une initiation précoce aux jeux vidéo

L’étude a été menée auprès de 59 élèves répartis en petite, moyenne et grande sections d’une école maternelle située dans une ville de l’est de la France.

Plusieurs méthodes ont été mobilisées : des observations participantes filmées, des entretiens individuels, des focus groups et des mises en situation des enfants sous la forme d’ateliers. Le recueil de données a été organisé sur une période de deux mois afin de favoriser un climat de confiance.

Les premiers résultats concernent les enfants de moyenne section de maternelle, âgés d’environ quatre ans. Ils mettent en évidence le rôle déterminant du cadre familial. Les pratiques parentales apparaissent comme le principal facteur de socialisation numérique. Les influences du père et de la mère, puis celles des frères et sœurs structurent les usages des enfants et participent à une transmission intergénérationnelle et fraternelle des pratiques.


À lire aussi : Petite histoire des jeux vidéo en famille, entre inquiétudes et transmission culturelle


Chez les garçons, l’initiation aux jeux vidéo est majoritairement associée à une influence paternelle et fraternelle. Les pères, notamment les plus jeunes, jouent fréquemment avec leurs fils, partageant leurs propres pratiques vidéoludiques. Cette socialisation est souvent genrée : les garçons sont encouragés à jouer à des jeux de combat, de survie ou ils mettent en scène des super-héros. Lorsque le père n’est pas un joueur, les grands frères prennent le plus souvent le relais.

Cette transmission familiale favorise le développement de compétences numériques précoces chez les tout-petits. Certains enfants de quatre ans ont une connaissance fine de jeux vidéo pour adultes et maîtrisent aussi la recherche et l’ouverture d’applications sur smartphone, notamment la navigation sur YouTube.

Une socialisation numérique différenciée selon le genre

Sous-jacente à cette connaissance pratique du smartphone, on constate que les contenus auxquels ces enfants ont accès ne sont pas toujours adaptés à leur âge. Une majorité de garçons joue à des jeux destinés aux adolescents, voire aux adultes. Ces jeux comportent des scènes de violence ou sont associés à des conflits, des guerres avec des scènes de tueries où la mort peut être rachetée selon le jeu.

Ces expositions conduisent les enfants à développer des stratégies d’imitation et d’identification aux figures héroïques, accélérant ainsi leur processus de socialisation vers des codes préadolescents alors qu’ils sont encore dans l’enfance. L’apprentissage du numérique est essentiellement implicite donc, les enfants acquièrent des savoirs expérientiels, c’est-à-dire des compétences construites par la pratique directe, avant même la maîtrise de la lecture.

Les petites filles sont moins concernées par les jeux vidéo. Elles sont davantage tournées vers le visionnage de dessins animés ou l’utilisation d’applications liées à la photographie et à la musique. Les mères encadrent plus fréquemment l’usage du téléphone dans ce cas. Elles définissent les temps d’écran, autorisent certaines applications et accompagnent leurs filles dans leur découverte des outils numériques. Les contenus utilisés sont généralement plus adaptés à l’âge des enfants.

La transmission entre sœurs se manifeste notamment dans l’apprentissage de la prise de photos, de la mise en scène face à la caméra ou de l’écoute de musique. Les filles développent ainsi des compétences liées à l’expression de soi et à la représentation.

Contrairement aux garçons, aucune transmission marquée autour des jeux vidéo n’a été observée entre mères et filles ou entre sœurs. Il en résulte une socialisation numérique fortement différenciée selon le genre, tant dans les contenus que dans les modalités d’accès.

Une grande dextérité technique

Afin d’identifier plus précisément les savoirs des enfants, les chercheuses ont organisé des ateliers de lecture autour d’un album traitant de l’usage du téléphone. Ces échanges ont permis de mettre en lumière les connaissances des enfants concernant les applications et leurs usages.

La prise de photos et le visionnage de dessins animés constituent les usages les plus fréquemment évoqués. Lorsqu’ils manipulent un téléphone, les enfants reconnaissent aisément certaines applications grâce à leurs symboles et à leurs couleurs. L’icône de l’appareil photo est généralement identifiée par la plupart des enfants rencontrés, celle de YouTube est aussi la plus largement connue. La reconnaissance repose principalement sur l’association visuelle entre un pictogramme, une couleur et une fonction.

Les observations révèlent par ailleurs une grande dextérité technique. Les enfants savent balayer les écrans horizontalement et verticalement pour accéder aux différentes pages et applications. Cette gestuelle maîtrisée témoigne d’une autonomie réelle dans l’usage de l’appareil. À quatre ans, certains enfants possèdent déjà des compétences numériques avancées, acquises dans un cadre familial de façon expérientielle.

Ces premiers résultats soulignent l’importance d’un accompagnement parental et éducatif précoce. Car, si le numérique favorise l’autonomie, la créativité et l’accès à de nouvelles formes d’apprentissage, il expose également les enfants à des contenus inadaptés à leur âge et à une éducation familiale genrée.

The Conversation

Nathalie Chapon a reçu des financements de Région Bourgogne Franche-Comté.

Annie Lasne ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

28.04.2026 à 15:51

Les touristes courent vers la campagne et boudent les villes depuis la pandémie de Covid-19. En faites-vous partie ?

Tegui Yvan Arnold, Doctorant en tourisme durable et finance publique, Université de Perpignan Via Domitia

La pandémie de Covid-19 a profondément reconfiguré le tourisme français depuis 2020. Quelques années plus tard, cette transformation perdure-t-elle ou assiste-t-on à un retour à la normale ?
Texte intégral (1631 mots)
Comme beaucoup de territoires ruraux, l’Indre (ici, la commune d’Argenton-sur-Creuse) a attiré de nombreux touristes en quête de luxe, calme et volupté. Ebascol/Shutterstock

La pandémie de Covid-19 a profondément reconfiguré le tourisme français au profit des territoires ruraux qui comptent une progression de nuitées tant dans les campings que dans les hôtels. Aujourd’hui, cette transformation perdure-t-elle ou assiste-t-on à un retour à la normale ? Explication en cartes et en données.


Avant 2020, le tourisme français était massivement concentré sur les métropoles, comme Paris, Lyon, Marseille ou Bordeaux. Entre 2015 et 2019, elles dominaient l’hôtellerie avec 76 % des nuitées et 69 % des locations de courte durée entre particuliers (PAP), les territoires ruraux ne pesant que 15 % et 23 % sur ces segments.

La pandémie de Covid-19 a amorcé un rééquilibrage progressif du tourisme français. Les zones rurales gagnent des parts de marché modestes en apparence (+ 1 et + 3 points en hôtellerie et en location PAP), mais représentant environ 8 millions de nuitées supplémentaires en hôtellerie et 19 millions en location PAP. Cette double dynamique explique pourquoi la reprise touristique rurale dépasse les niveaux d’avant-crise.

Quels départements tirent leur épingle du jeu ? Quels types d’hébergement portent cette transformation ? Et surtout, cette redistribution territoriale est-elle durable ?

Mes recherches démontrent que la résilience supérieure des zones rurales face aux métropoles sur 2020-2022 n’était pas un épiphénomène. En 2024, cette tendance se confirme. Les territoires ruraux résistent mieux à la baisse des fréquentations que les grandes métropoles, notamment franciliennes.

Près de 131 % de touristes en plus dans les territoires ruraux

Pour analyser cette redistribution, j’ai classé les départements selon trois catégories, suivant une méthodologie en fonction de la population hexagonale, de la faible densité et de l’éloignement, expliquée en détail dans mon article scientifique.

L’analyse distingue 41 départements de villes métropoles, où la majorité de la population vit dans une agglomération de plus de 250 000 habitants – Paris ou le Rhône – ; 13 urbains intermédiaires, structurés autour de villes moyennes – l’Ain ou la Moselle – et 42 ruraux, à faible densité et éloignés des grands pôles urbains – l’Allier ou la Lozère. Pour chaque département, j’ai modélisé la trajectoire de fréquentation qui aurait été observée en 2020 sans pandémie de Covid-19, en prolongeant les tendances 2015-2019. Les nuitées réellement enregistrées sont ensuite rapportées à cette projection.

Un indice de 70 % signifie que le territoire n’a réalisé que 70 % de sa fréquentation projetée, tandis qu’un indice de 131 % signifie qu’il la dépasse de 31 points. En 2020, la fréquentation touristique s’est effondrée partout : les territoires ruraux sont tombés à 68 % de leur niveau projeté, les urbains à 61 % et les métropoles à 57 %. En 2024, tous ont dépassé leurs niveaux de référence avec les zones urbaines à 139 %, rurales à 131 % et les métropoles à 128 %. Les trois typologies surperforment même par rapport à 2019.

Cette homogénéité cache des réalités contrastées. En hôtellerie, la reprise reste timide en 2024, à 95 % dans les zones rurales, à 96 % dans les zones urbaines et à 94 % dans les métropoles. En revanche, l’occupation des campings progresse fortement, de 110 % en territoire rural et 112 % dans les métropoles. Les locations de courte durée entre particuliers (PAP) connaissent quant à elles une croissance spectaculaire. Les zones rurales doublent quasiment leur niveau d’avant-pandémie de Covid-19 à 187 %, derrière les zones urbaines à 214 % mais devant les métropoles (179 %), témoignant d’une diversification réussie de l’offre rurale.

Domination rurale pour les hôtels et les campings

Au-delà de ces tendances moyennes par typologie, l’analyse détaillée des 96 départements révèle que les zones rurales dominent le podium des territoires les plus résilients. En 2024, les trois départements enregistrant le rebond le plus fort sont tous ruraux : la Creuse à 154 % de son niveau projeté, le Lot-et-Garonne à 133 % et la Lozère à 131 %. Ces territoires confirment la capacité des zones rurales à transformer la crise en opportunité.

L’évolution du Top 10 en hôtellerie penche également du côté rural. En 2020, neuf départements sur les dix plus performants étaient ruraux. En 2024, la reprise d’activité semble s’équilibrer – cinq départements ruraux, trois urbains et deux métropolitains –, mais avec toujours une présence marquée des zones rurales. À l’inverse, l’Île-de-France ferme la marche ; de la Seine-Saint-Denis au Val-d’Oise, les nuitées n’atteignent que 76 % à 86 % de leur niveau projeté. Même Paris, malgré l’effet des Jeux olympiques de 2024, plafonne à 95 % de son niveau d’avant-pandémie de Covid-19. Selon nos données, la plupart des grandes métropoles régionales n’ont pas retrouvé leur niveau de 2019 en hôtellerie. Cette évolution se retrouve dans les autres segments.

Pour les campings, la domination rurale – neuf départements sur dix en 2020 – s’est également diluée. En 2024, les départements des villes métropoles occupent six places du Top 10, témoignant de l’explosion du camping péri-urbain. Les locations de courte durée entre particuliers (PAP) continuent également leur croissance dans le rural et l’urbain. En 2024, le Top 10 se partage entre cinq départements ruraux et cinq urbains, sans aucune métropole. Ce segment valorise particulièrement les territoires de « seconde couronne », ni grandes villes ni rural isolé, comme l’Oise aux portes de Paris ou la Saône-et-Loire à proximité de Lyon.

Nature, espace et faible densité

Trois facteurs expliquent ce basculement durable.

D’abord, la fragilité structurelle des métropoles, dépendantes du tourisme d’affaires et international. La généralisation du télétravail et des visioconférences a durablement réduit les déplacements professionnels. Les zones rurales, moins exposées, ont mieux résisté.

Le second facteur tient d’un changement durable des préférences. Les voyageurs recherchent nature, espace et faible densité. Les restrictions de mobilité ont conduit les Français à redécouvrir les territoires ruraux proches, créant des habitudes durables. Le télétravail – 26 % des cadres selon la direction de l’animation de la recherche, des études et des statistiques (Dares) et la « workation » (contraction de work et de vacation) renforce cette tendance, avec le changement climatique. Les canicules urbaines rendent les métropoles moins attractives, tandis que les zones montagnardes offrent une fraîcheur recherchée.

Enfin, la hausse de 18 % du prix des transports en France entre 2019 et 2024 a favorisé le tourisme de proximité. Les zones rurales en ont particulièrement bénéficié, combinant accessibilité depuis les métropoles et attributs recherchés post-pandémie de Covid-19.

Les métropoles sont les perdantes

Cette dynamique n’est pas acquise. Les territoires ruraux restent pénalisés par un déficit d’accessibilité, une offre numérique en retard et un parc d’hébergement vieillissant. Transformer l’afflux post-pandémie de Covid-19 en fréquentation durable suppose de combler ces écarts structurels, un défi que les données actuelles ne permettent pas encore de considérer comme relevé.

Cette redistribution territoriale ne semble pas désigner un vainqueur unique. Si les zones rurales ont globalement mieux résisté à la baisse du tourisme avec la pandémie de Covid-19, les zones urbaines intermédiaires, villes moyennes combinant accessibilité et cadre de vie, émergent comme un profil territorial gagnant. Les véritables perdants de cette recomposition sont clairement les grandes métropoles, particulièrement l’Île-de-France.

Les facteurs structurels qui portent cette redistribution ne s’inverseront pas. Les acteurs territoriaux doivent donc intégrer cette nouvelle donne dans leur politique de développement touristique. L’enjeu n’est plus de savoir si cette recomposition persiste, mais comment les territoires s’y adaptent.

The Conversation

Tegui Yvan Arnold ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

28.04.2026 à 15:51

Comment se forment les gouttes de pluie ?

Auguste Gires, Ingénieur en chef des Eaux, Ponts et Forêts, chercheur au laboratoire Hydrology, Meteorology and Complexity (HM&Co), École Nationale des Ponts et Chaussées (ENPC)

Eleonora Dallan, Ingénieure en environnement et enseignante-chercheuse au département TESAF (Terre, Environnement, Agriculture et Forêts), University of Padua

La pluie est un phénomène très courant, mais finalement peu connu. Extrait d’un ouvrage récent pour commencer à mieux la connaître.
Texte intégral (1383 mots)
Au point de rosée, l’air devient saturé en humidité et les gouttes condensent. Daoud Abismail/Unsplash, CC BY

Dans leur ouvrage Balade sous la pluie, paru en 2025 aux Presses des Ponts, Auguste Gires, ingénieur en chef du corps des Ponts, eaux et forêts, et chercheur au laboratoire Hydrologie, météorologie et complexité de l’École nationale des ponts et chaussées, et Eleonora Dallan, ingénieure en environnement et chercheuse au département Terre, environnement, agriculture et forêts, de l’Université de Padoue en Italie, nous emmènent en promenade pour découvrir un phénomène très courant, mais finalement peu connu : la pluie.

Pour la quatrième « escale » de ce livre-promenade, ils nous expliquent comment se forment physiquement les gouttes de pluie dans les nuages. Extrait.


N’est-il pas surprenant que tous ces cumulus (nuages cotonneux de basse altitude) semblent se former à la même altitude ? En réalité, cela est lié à la façon dont les nuages, et plus largement les précipitations, sont générés. Sur Terre, les conditions de température et de pression permettent à l’eau d’exister naturellement dans trois états : liquide (comme dans les océans, les rivières, ou l’eau du robinet), solide (tel que la glace, la neige, la grêle, la pluie verglaçante), et gazeuse, dans l’air sous forme de vapeur invisible. Les interactions entre ces trois états sont, entre autres, à l’origine de la pluie.

Les noms des nuages

    La plupart des noms de nuages comportent des racines et qualificatifs latins, dont l’association donne une indication sur le type de nuage désigné, notamment :
  • STRATUS/STRATO : étendu, couche, continu ;
  • CUMULUS/CUMULO : amas, moutonneux ;
  • CIRRUS/CIRRO : filament, fin ;
  • NIMBUS/NIMBO : porteur de pluie.
  • ALTO : moyen (même si altus en latin signifie « haut ») Par exemple, un altocumulus, est un nuage moutonneux de moyenne altitude.

Tout commence par l’évaporation, c’est-à-dire qu’une partie de l’eau liquide présente à la surface de la Terre s’évapore sous l’action du soleil. La vapeur d’eau se mélange à l’air ambiant près de la surface. Cet air, réchauffé par le soleil, devient plus chaud que celui du dessus. Sa masse volumique devient plus faible que celle de l’air qui l’entoure (on dit qu’il est plus léger dans le langage courant), ce qui facilite sa montée. En effet, les molécules qu’il contient bougent plus vite sous l’effet de la chaleur et occupent alors plus de place, tout en gardant la même masse.

En raison de la baisse de la température avec l’altitude, généralement d’environ 6,5 °C tous les 1 000 mètres, l’air initialement chaud se refroidit progressivement en montant. Il s’avère que la quantité de vapeur d’eau que l’air peut contenir diminue avec sa température (environ 7 % par degré). Dans un air plus froid, les molécules sont plus proches les unes des autres, ce qui réduit l’espace disponible pour d’autres molécules de gaz comme la vapeur d’eau. C’est la relation de Clausius-Clapeyron.

Ainsi, à une altitude donnée, qui dépend de la température et de la quantité initiale de vapeur d’eau, l’air devient saturé et ne peut plus contenir autant de vapeur d’eau qu’au moment de l’évaporation, quand l’air était encore proche de la surface. Les spécialistes appellent cela le point de rosée. Une partie de l’eau se condense et retrouve sa forme liquide d’origine. La formation de ces gouttelettes de nuages se fait généralement autour de noyaux de condensation, comme une poussière, de la glace ou du sel. Elles sont beaucoup plus petites que les gouttes de pluie dont nous avons parlé précédemment, avec une taille proche de 0,02 millimètre. Ces gouttelettes sont si petites que les turbulences de l’air ambiant sont suffisamment fortes pour les maintenir en suspension dans l’air, les empêchant de tomber au sol. Cette concentration de gouttelettes dans l’air forme un nuage. Le processus peut également se produire à température négative, et dans ce cas, le nuage est constitué de petits cristaux de glace.

D’une certaine manière, vous êtes tous témoins de la formation de nuages au quotidien. Profitons justement des températures hivernales. Inspirez, expirez… Vous remarquerez qu’une sorte de petit nuage se forme en expirant. Oui, il s’agit bien d’un petit nuage ! L’air qui sort de vos poumons, chaud et humide, rencontre de l’air plus frais dans l’atmosphère extérieure. Une partie de la vapeur d’eau qu’il contient se condense et forme des gouttelettes.

Le même phénomène est à l’œuvre lorsque vous faites bouillir de l’eau. Juste au-dessus de l’eau chaude dans la casserole, l’air est très chaud et contient beaucoup de vapeur d’eau. En remontant, il rencontre de l’air plus frais et une partie de l’eau se condense en gouttelettes. Ce que vous voyez n’est donc certainement pas de la vapeur d’eau, qui est invisible, mais bien un petit nuage.

La quantité d’eau liquide contenue dans les nuages, soit la teneur en eau liquide, varie fortement en fonction du type de nuages. Elle est exprimée en masse d’eau liquide par unité de volume d’air, en gramme par mètre cube (g/m3). Elle présente une très grande variabilité d’un nuage à l’autre, voire au sein d’un même nuage. Les ordres de grandeur peuvent aller de 0,06 g/m3 pour des nuages non précipitants comme les cirrus, des nuages de haute altitude, à 0,4 g/m3 pour des nuages engendrant des pluies, tels que les stratocumulus,** **qui sont à plus basse altitude. Les valeurs sont plus élevées pour les cumulonimbus, dont il sera question lors de la prochaine escale.

Qu’en est-il de la pluie ? Pour qu’elle se forme, il faut que les gouttelettes contenues dans les nuages grossissent de façon à être suffisamment lourdes pour tomber. Cela se produit principalement grâce à deux processus.

Le premier, le processus Wegener-Bergeron-Findeisen, implique la croissance de cristaux de glace dans des nuages en phase mixte. Ces nuages, caractérisés par des températures négatives, contiennent simultanément de l’eau dans ses trois états : de la glace, de l’eau surfondue (de l’eau en dessous de 0 °C, mais pas encore solidifiée) et de la vapeur d’eau. Dans cet environnement sous-saturé en eau liquide, celle-ci s’évapore rapidement, tandis que la vapeur d’eau se dépose tout aussi vite dans les cristaux de glace, entraînant une croissance soudaine de ces derniers. Le deuxième est la coalescence. Dans les nuages contenant assez de gouttelettes, certaines d’entre elles entrent en collision au cours de leur mouvement, fusionnent et grossissent progressivement.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

28.04.2026 à 15:50

Comment « Twin Peaks » a transformé les séries télévisées

Mehdi Achouche, Maître de conférences en cinéma anglophone et études américaines, Université Sorbonne Paris Nord

La série mythique de David Lynch a transformé en profondeur le soap opera et influencé durablement les séries télévisées, de « X Files » à « Severance ».
Texte intégral (2275 mots)
L'épisode pilote de la série s'ouvre sur la découverte du cadavre de Laura Palmer. Allociné, ABC

Lorsque Twin Peaks débarque sur les petits écrans états-uniens, le 8 avril 1990, le public est dérouté. Mélange étrange d’intrigue policière, de thriller fantastique et de soap opera, le feuilleton créé par Mark Frost et David Lynch, actuellement rediffusé en France sur Arte, ne ressemble à aucun autre. Pourtant, la série mythique a influencé bon nombre des productions ultérieures de la télévision américaine.


La chaîne ABC prend un gros risque, en 1990, avec Twin Peaks, afin de contrer la montée en puissance des chaînes du câble et de la Fox. De fait, beaucoup de critiques ne croient pas au succès de la série, trop « auteuriste » pour un grand public habitué à Arabesque, Matlock et autres Cosby Show. « Twin Peaks sera-t-elle un succès ? », se demande Entertainment Weekly deux jours avant la diffusion du premier épisode, avant de répondre : « Aucune chance. » – la série est de trop grande qualité… Pourtant, Twin Peaks cartonne dès son pilote, aux États-Unis comme à l’étranger, transformant à jamais la télévision.

La légitimation de la série télévisée

Lynch est reconnu jusqu’alors comme un auteur de cinéma qui reçoit, six semaines à peine après le lancement de la série, la Palme d’or du meilleur film pour Sailor et Lula. Il est très rare à l’époque qu’un cinéaste se compromette à produire une série télévisée, forme souvent perçue comme sans intérêt artistique. La série Alfred Hitchcock Presents date des années 1950, tandis que le mieux que trouve à dire un critique du Décalogue, de Krzysztof Kieślowski, série de dix téléfilms produits pour la télévision polonaise (1988-1989) et remontée ensuite en film, est qu’il s’agit « d’un chef-d’œuvre du cinéma moderne ». Il oublie ainsi un peu vite qu’il s’agit à l’origine d’une œuvre de télévision.

Lynch est un cinéaste respecté depuis Elephant Man (1980) et Blue Velvet (1986). Ce dernier film préfigure déjà Twin Peaks en s’intéressant aux secrets inavouables d’une communauté en apparence parfaite, typique de l’Amérique profonde. La séquence d’introduction du film et le générique de la série offrent des images d’Épinal qui se succèdent en paisibles fondus enchaînés, accompagnées par une musique doucereuse, dénotant une vie idyllique bientôt démentie par leurs intrigues respectives.

Le film jette Kyle MacLachlan, futur agent Cooper, dans une intrigue policière aux relents de films noirs qui gravite – déjà – autour d’un personnage féminin supplicié par le sadisme et l’appétit sexuel d’hommes sans scrupules. Lynch y développe son goût pour l’ironie et le kitsch, clôturant son film de la même façon qu’il ouvre Twin Peaks : un oiseau gazouille à la branche d’un arbre, symbole d’une innocence de carton-pâte.

En se tournant vers la télévision, Lynch en subvertit certes une partie des codes, mais il prouve aussi que le petit écran peut se prêter à des ambitions similaires. Dès 1992, il adapte Twin Peaks au cinéma dans Fire Walk With Me, qu’il présente à Cannes (et qui s’ouvre, bien sûr, sur la destruction d’un poste de télévision). La boucle sera complète lorsque, dix ans plus tard, Lynch échoue à produire un spin-off de Twin Peaks qui aurait suivi les aventures d’Audrey Horne à Hollywood. Il transformera cette idée initiale en film : Mulholland Drive. Avec Lynch, la frontière entre cinéma et télévision a définitivement disparu.

Le récit feuilletonnant et la « mystery box »

Si Lynch vient du cinéma, Mark Frost, co-créateur de Twin Peaks parfois injustement oublié, est un homme de télévision, qui a travaillé trois ans comme scénariste sur Capitaine Furillo (Hill Street Blues, NBC, 1981-1987). Cette série innovait déjà en proposant des intrigues qui s’étendaient sur plusieurs épisodes. Les deux hommes s’en souviendront avec Twin Peaks et son intrigue au long cours, dont chaque épisode est la suite directe du précédent.

Typique du soap, le format est encore rare dans les dramas : Horace Newcombe est parmi les premiers à remarquer l’évolution et à théoriser le « récit cumulatif », au milieu des années 1980. Mais c’est surtout Un flic dans la mafia (CBS, 1987-1990) qui développe la logique feuilletonnante pour un polar. En 1992, Lynch confie à Libération à quel point « l’idée de continuité à la télévision est formidable. Ne jamais dire au revoir… ».

Twin Peaks ouvre ainsi la voie aux thrillers feuilletonnants en forme de puzzle qui se concentrent souvent sur une communauté isolée et les nombreux secrets qu’elle renferme. C’est ce que J. J. Abrams, co-créateur de Lost, qualifie en 2007 de « Mystery Box », ce feuilleton aux récits opaques qui invitent les téléspectateurs à tenter d’en forcer l’ouverture. Et quoi de plus opaque qu’un récit de David Lynch ? Le concept a fait florès depuis, dans X-Files d’abord puis Lost, Yellow Jackets ou Dark parmi tant d’autres.

L’avènement d’Internet renforce l’émergence de ce que le chercheur et essayiste américain Henry Jenkins, spécialisé dans le domaine des nouveaux médias, appelle très tôt une culture participative qui redonne la parole aux fans ne souhaitant plus être des téléspectateurs passifs.

Selon Jason Mittell, spécialiste de la télévision et des médias, ceux-ci deviennent même parfois des « narratologues amateurs » : les premiers posts discutant de Twin Peaks sur le réseau Usenet, précurseur de l’Internet moderne, datent du 16 avril 1990. Un membre, se rappelant Agatha Christie, s’y demande déjà si la ville entière n’a pas commis le meurtre…

Mais Twin Peaks démontre aussi les dangers d’un tel format, les téléspectateurs se lassant peu à peu des méandres d’une narration labyrinthique qui, comme Lynch lui-même, s’intéresse plus aux questions qu’aux réponses. Les choses empirent quand la chaîne force Frost et Lynch à révéler l’identité du tueur et que la série perd son fil rouge. Là encore, Twin Peaks ouvre la voie à de nombreuses déconvenues similaires.

L’ironie et la satire dans Twin Peaks reposent aussi sur la mise en abyme, les personnages regardant un soap opera fictif Invitation to Love.

Le mélange des genres et des tons

Enfin, Twin Peaks mélange allègrement les genres, s’inspirant largement de celui qui est traditionnellement le plus méprisé à la télévision, le soap opera. Les soaps utilisent depuis longtemps la narration feuilletonnante pour tenir leurs spectateurs en haleine, en particulier ceux diffusés en prime time et nommés d’après la ville où se situe l’histoire, comme Peyton Place ou Dallas. Le cliffhanger final de la saison une de Twin Peaks, quand Cooper se fait tirer dessus par un assaillant inconnu, rappelle d’ailleurs Dallas, lorsque la même chose arrive à J.R.

Le mélange détonnant du soap et du récit d’adolescence, du policier et du film noir (Laura Palmer a tout de la femme fatale, Cooper du détective qui révèle la corruption littérale et morale), du fantastique et du conte de fées, est pour beaucoup dans le caractère étrange et baroque de la série. Les embardées surréalistes – et parfois incompréhensibles – de la série sont restées célèbres, Lynch s’inspirant à nouveau largement de la logique des rêves – ou des cauchemars : le même épisode peut ainsi offrir des scènes d’humour absurde ou de pure terreur. Le grand public n’a jamais connu ça.

Une influence durable

Le succès de Twin Peaks incitera beaucoup d’autres séries à combiner des genres et des tons disparates, à commencer par X-Files, qui lui doit beaucoup. Desperate Housewives s’en inspirera également, et choisit même – avant de la remplacer – Sheryl Lee (Laura Palmer) pour jouer la narratrice dont le fantôme commente les vicissitudes d’une communauté soi-disant parfaite. Danny Glover confie avoir voulu faire « Twin Peaks avec des rappeurs » en créant Atlanta.

Bryan Fuller (Dead Like Me, Hannibal) qualifie la découverte de la série « d’expérience religieuse » et avoue :

« Lynch et Twin Peaks influencent tout ce que je fais. »

Matthew Weiner (Mad Men) dit avoir réalisé tout le potentiel de la télévision lorsque, jeune homme, il découvrit Twin Peaks. Noah Hawley, créateur des très lynchiens Legion et Fargo, qualifie sa découverte de la série de « révélation ».

Plus près de nous, la narration, le ton et le style de Severance, dont l’équipe apprend la mort de Lynch en direct lors d’une interview, rappellent énormément la série mythique. Car comme Lynch le remarquait lui-même, depuis quelques années, ce n’est plus le cinéma mais la télévision – ou le streaming – qui propose des histoires « d’art et d’essai ». Là encore, Twin Peaks a montré la voie.

The Conversation

Mehdi Achouche ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

28.04.2026 à 15:50

Protection de l’enfance : les jeunes peuvent-ils vraiment participer aux décisions qui les concernent ?

Élodie Faisca, Maîtresse de conférences en sciences de l'éducation et de la formation, Université de Rouen Normandie

Si la parole des enfants pris en charge par l’aide sociale à l’enfance est effectivement recueillie, elle n’est pas pour autant prise en compte.
Texte intégral (1760 mots)

D’après les textes sur la protection de l’enfance, les enfants et les adolescents ont le droit de contribuer aux décisions qui les concernent. Dans les faits, leur participation est très inégale. Et si leur parole est effectivement recueillie, elle n’est pas pour autant prise en compte.


La Convention relative aux droits de l’enfant reconnaît aux enfants le droit d’exprimer leur opinion sur toute question les intéressant et d’être entendus dans les procédures administratives ou judiciaires qui les concernent. Pourtant, les rapports publics, les témoignages et les travaux de recherche confirment que les décisions en protection de l’enfance se prennent encore trop souvent pour et sans les enfants.

Comment expliquer ce décalage entre les textes, les pratiques et les expériences des premiers concernés ? Les résultats de cette recherche doctorale montrent que la participation des enfants est un processus complexe, construit dans le temps, à travers des interactions spécifiques, des espaces et des temporalités parfois inadaptés.

Un même enfant peut ainsi connaître des expériences de participation très différentes au cours d’une même intervention, de la non-participation à la participation significative, en passant par la participation symbolique.

Se sentir écouté ou voir sa parole disqualifiée

Entre 2020 et 2023, nous nous sommes intéressées aux expériences vécues par des enfants de 8 à 14 ans, placés et accompagnés au sein des services de l’aide sociale à l’enfance (ASE). Cette recherche a combiné des entretiens avec l’observation d’une succession d’actes professionnels pour plusieurs enfants et permet de comprendre combien la participation des enfants en protection de l’enfance évolue au fil des interactions et des décisions.

Un même enfant peut ainsi vivre, au cours d’une même intervention, des expériences radicalement différentes, oscillant entre la non-participation, la participation symbolique et la participation significative.

Nina et Nathalia ont vécu plusieurs expériences de non-participation avant de pouvoir vivre ce que nous considérons comme une première expérience de participation significative. Dans ces situations, ce n’est pas le fait de voir une décision conforme à leurs opinions qui est important, mais bien de se sentir écoutées, entendues et associées à toutes les étapes du processus décisionnel.

A contrario, tous les enfants rencontrés ont vécu des expériences de non-participation. Ces expériences sont souvent marquées par une absence ou un déficit d’informations (sur leurs droits, les décisions à venir, les enjeux de leur participation…), de rares opportunités de rencontres avec des professionnels, des changements fréquents ou encore des systèmes et pratiques oppressifs envers les enfants.

Entre ces deux extrêmes, d’autres enfants ont connu des situations où leur parole était entendue mais disqualifiée ou, au contraire, invisibilisée par des processus décisionnels morcelés et complexes. Par exemple, les observations d’un processus décisionnel pour Laura pourraient traduire un niveau élevé de participation : le point de vue de Laura est entendu, relayé et sa demande portée et soutenue par le magistrat. Pourtant, elle considère ne pas avoir participé à cette décision.

Ce que nous comprenons à partir de cette expérience, qualifiée de minimale peut s’expliquer par un processus de captation institutionnelle de la parole de l’enfant. Laura ne sait pas si, comment ni auprès de qui sa parole a été relayée et pense que ce n’est pas son avis qui a compté dans la décision prise.

Différents espaces de participation

Certains moments (entretiens, audiences, synthèse) favorisent l’expression, tandis que d’autres la rendent plus difficile. Nous identifions quatre actes professionnels qui influencent l’expérience des enfants.

Les entretiens individuels avec les enfants sont souvent perçus comme un espace privilégié pour recueillir leur avis. Pourtant, le contexte, le contenu et la forme de ces échanges impactent leurs expériences. Les enfants sont souvent contraints par le cadre (lieu, durée, présence d’autres personnes) et peu préparés aux questions posées.

Le contenu des échanges, souvent centré sur les difficultés familiales et suivant la temporalité administrative et judiciaire, laisse peu de place à l’expression de leurs émotions ou de leurs souhaits. Enfin, les formes et les supports pour soutenir l’expression (langage, outils utilisés) ne sont pas toujours apparus adaptés pour faciliter une connexion et une communication avec l’enfant.

Les rencontres pluriprofessionnelles (réunions d’équipe, synthèses, bilans) sont des moments clés des processus décisionnels. Ces espaces permettent de réunir l’ensemble des acteurs professionnels impliqués dans l’intervention, lesquels partagent leurs observations, actions et analyses. Les enfants sont absents de ces instances et, actuellement, il n’existe pas, au sein des services concernés par la recherche, de support ou processus permettant de systématiser le recueil de leurs points de vue en amont et pendant ces échanges.

Pourtant, de récents travaux montrent des effets positifs de la prise de décision partagée et de la participation sur les résultats des décisions. Ces éléments font écho à d’anciennes recherches qui mériteraient d’être poursuivies à propos des effets et du vécu de la présence des enfants aux réunions qui les concernent. La prise en compte de la perspective de l’enfant reste aléatoire et parfois superficielle : même quand il s’exprime, son avis n’est pas encore systématiquement intégré dans les synthèses ou les décisions.

Les écrits professionnels (comptes-rendus, synthèses, projets pour l’enfant) sont des outils importants dans le processus décisionnel. Les enfants sont rarement cités directement dans les textes et, quand c’est le cas, leurs propos peuvent être repris de manière décontextualisée ou découpés. Là encore, ces résultats s’appuient sur et complètent d’autres travaux scientifiques.

Les écrits devraient pouvoir permettre de savoir si et comment l’enfant a été associé au processus, de restituer son opinion sur les propositions ou les décisions et, conformément aux principes de la convention et du cadre juridique, d’accorder à son point de vue le poids qui lui revient eu égard à son âge et à son degré de maturité. Ces documents pourraient devenir des outils de participation s’ils intégraient de manière plus systématique les observations et expressions des enfants, et s’ils étaient partagés avec eux pour validation.

Enfin, le temps de l’audience constitue le dernier moment analysé pour comprendre l’expérience des enfants. Les enfants sont souvent peu préparés au déroulement et au contenu des échanges. Ils ne savent pas toujours qui seront les personnes présentes, comment prendre la parole et ne savent pas, en l’absence de restitution complète des rapports, comment leurs propos pourraient être repris devant l’ensemble des personnes, y compris leurs parents.

Cela n’est pas sans conséquences sur la construction des expériences de participation. Par exemple, Angel, âgée de 9 ans, découvre que ce qu’elle a exprimé au cours d’un entretien a été transmis au juge. La juge s’appuie donc sur le propos d’Angel disant que l’un de ses parents est plus gentil que l’autre. Angel tentera de prendre la parole, constatant la peine provoquée chez son autre parent et se mettra à pleurer en expliquant qu’elle n’a jamais dit ça. En sortant de l’audience, Angel s’adressera avec colère à sa référente en disant « Ça m’a pas du tout aidé ce que vous avez fait ».

Créer des conditions favorables à l’écoute

Les enfants en protection de l’enfance ne vivent pas une, mais des expériences de participation, expériences qui sont interconnectées. Au regard de la gravité des décisions à prendre, de la nécessité de trouver un équilibre entre des intérêts multiples et parfois divergents (de l’organisation, des parents, de l’enfant, du décideur), du coût émotionnel, les prises de décision en protection de l’enfance sont un exercice pénible et complexe.

La participation des enfants est un processus tout aussi exigeant, qui ne peut se réduire au seul recueil du point de vue de l’enfant. Elle exige des espaces sécurisés, des temporalités adaptées, des professionnels formés et des organisations sur lesquelles s’appuyer.

Cette recherche démontre empiriquement que la participation ne se décrète pas mais se construit, jour après jour, dans les interactions et les décisions qui façonnent la vie des enfants. Dès lors la question n’est plus « Pourquoi les enfants ne participent pas ? » mais « Comment les organisations peuvent-elles créer et soutenir les espaces et les processus producteurs des expériences ? ».

The Conversation

Élodie Faisca a reçu des financements de l'ANRT dans le cadre d'une Cifre.

PDF

28.04.2026 à 15:49

Un argument économique en faveur des règles budgétaires

François Langot, Professeur d'économie, Directeur adjoint de l'i-MIP (PSE-CEPREMAP), Le Mans Université

Jean-Olivier Hairault, Professeur d'économie et Directeur Scientifique de l'Observatoire Macro du Cepremap, Paris School of Economics – École d'économie de Paris

Un des avantages des règles budgétaires est qu’elles informent les agents économiques du secteur privé. Ménages et entreprises peuvent alors adapter leurs comportements plutôt que de sombrer dans un attentisme stérile.
Texte intégral (2237 mots)

Pour réduire le poids de la dette, la France devra-t-elle adopter des règles budgétaires strictes ? Le débat entre les tenants de cette solution et ses opposants doit intégrer la situation réelle des finances publiques. En outre, une règle budgétaire permet au secteur privé d’anticiper à moyen et long terme, quand l’absence de règles produit angoisse et attentisme. Loin d’être une camisole, les règles budgétaires, si elles sont bien pensées, peuvent être d’autant plus efficaces qu’elles renforcent la coordination.


Le débat entre Thierry Breton et Xavier Timbeau pose une question majeure. Le premier promeut une règle budgétaire alors que le second affirme qu’une règle ne remplacera jamais la politique. Les deux ont raison, et pourtant, le débat reste incomplet. Pour dégager les vertus ou les dangers d’une règle budgétaire, encore faut-il regarder les faits.

La France n’a jamais connu plus de deux années successives de désendettement depuis cinquante ans. La France est un cas presque unique parmi les grands pays avancés. La Banque de France rappelle que la dette publique française augmente de façon continue depuis 1974. D’autres pays ont connu des poussées d’endettement, parfois massives. Mais ils ont aussi connu des phases de reflux.

Entre 2013 et 2019, l’Allemagne a vu son ratio de dette continûment se réduire pour finalement diminuer de 21 points de PIB. La Belgique l’a réduit pendant quatorze années de suite (entre 1994 et 2007), le diminuant alors de 51 points de PIB. Durant dix années successives (entre 1995 et 2004), l’Italie a connu un épisode de désendettement lui permettant de réduite son ratio dette sur PIB de 26 points. L’Espagne a réduit sa dette entre 1997 et 2007 de 30 points. Les États-Unis ont également connu une baisse de dix points entre 1997 et 2000. La Suède a engagé un redressement durable depuis sa crise des années 1990. La Suisse a abaissé fortement sa dette depuis l’introduction de son frein à l’endettement en 2003. La Pologne a également connu une baisse après son pic du milieu des années 2010. La France, elle, n’a jamais réussi à enclencher une dynamique durable de désendettement.

Une singularité française institutionnelle

Cette singularité économique s’accompagne d’une singularité institutionnelle. L’Allemagne a un frein à l’endettement de rang constitutionnel. La Suisse aussi. L’Espagne a inscrit la stabilité budgétaire dans sa Constitution et l’a complétée par une règle de dépense. L’Italie dispose depuis 2013 d’un triptyque règle de dépense, règle d’équilibre et règle de dette, lui aussi adossé à une réforme constitutionnelle. La Pologne a un plafond de dette inscrit dans sa Constitution. La Suède s’est dotée d’un cadre cohérent fondé sur un plafond de dépenses, un objectif de solde et une ancre de dette. La Belgique a utilisé successivement plusieurs règles nationales de dépenses, de recettes et de solde.


À lire aussi : De Chirac à Macron, comment ont évolué les dépenses de l’État


Même les États-Unis, sans frein constitutionnel comparable au modèle allemand, disposent de procédures telles que des plafonds de dépenses, des règles imposant le financement de toutes nouvelles dépenses et de règles d’équilibre dans presque tous les États fédérés (FMI pour un descriptif à l’échelle mondiale des règles budgétaires de chaque pays).

L’année prochaine, si tout va bien…

La France, elle, n’a ni frein constitutionnel ni véritable règle nationale de désendettement. Elle a des engagements européens, des lois de programmation, et surtout une habitude : celle de renvoyer chaque année à l’année suivante l’effort qui n’a pas été consenti en pariant sur une croissance qui réduira son endettement.

Dette publique et règles budgétaires

Bien sûr, corrélation n’est pas causalité. Mais quand un pays est, sur un demi-siècle, presque le seul à cumuler hausse continue de sa dette publique et absence de règle budgétaire interne, tandis que ceux qui ont réussi à la réduire se sont souvent dotés d’une règle budgétaire, il devient difficile de soutenir que l’architecture institutionnelle est secondaire.

Une fois ces faits rappelés, le travail de l’économiste est alors d’évaluer si, à effort budgétaire donné, la règle est plus efficace pour contenir la dette publique qu’un ajustement discrétionnaire revoté chaque année, au gré des alternances, des crises et des rapports de force.

L’impact sur les anticipations des agents

Des travaux de l’i-MIP visent à évaluer l’efficacité de l’adoption de règles budgétaires. Une des originalités des méthodes développées à l’i-MIP est de prendre ne considération la formation des anticipations en réponse aux annonces de politique économique. Cela donne à ses méthodes un avantage pour l’évaluation des règles budgétaires, fortement dépendante des changements de comportements qu’elles peuvent induire.

Deux scénarios doivent alors être comparés pour mesurer l’impact d’une règle budgétaire. Pour une même restriction budgétaire pluriannuelle en valeur, le premier scénario introduit des réductions de dépenses perçues par les agents économiques comme une suite de mesures votées annuellement, se succédant les unes aux autres sans engagements à long terme. Le second scénario implémente ces mêmes économies via une règle engageant l’État, dès le premier vote, sur ces mêmes réductions de dépenses. Dans le premier cas, les agents économiques revoient leurs anticipations année après année, alors que, dans le second, ils adaptent de façon durable leurs comportements.

Si tout l’ajustement porte sur la consommation publique, la baisse du ratio dette sur PIB serait plus forte (de 2,1 points après cinq ans) si ces baisses de dépenses étaient implémentées via une règle plutôt qu’avec la possibilité qu’elles soient remises en cause chaque année. Si les économies reposent uniquement sur les transferts aux ménages, le ratio dette sur PIB baisserait de 3,1 points de plus (après cinq ans) avec une règle qu’avec des baisses de dépenses discrétionnairement votées chaque année.

Une meilleure coordination

Comme les décisions économiques reposent en grande partie sur les anticipations, la règle permet de coordonner les agents économiques sur des projets de plus long terme, davantage créateurs d’emploi et de richesse. En revanche, l’incertitude autour des votes « parlementaires » réduit l’amplitude des décisions de tous les acteurs (ménages et entreprises), dans l’attente des futurs votes. Ainsi, lorsque les agents savent qu’une trajectoire de finances publiques sera effectivement tenue, ils ajustent dès aujourd’hui et plus fortement leurs décisions d’épargne, de travail, de prix et de consommation.

Les évaluations de l’i-MIP montrent que la règle réduit non seulement le niveau de la dette mais aussi le risque de dérapage pouvant conduire à de fort niveau de dette. Elle génère aussi davantage de croissance. Le point décisif est là : une règle budgétaire n’est pas une camisole. C’est un dispositif de coordination des anticipations sur le moyen terme, horizon sur lequel se fondent les embauches et les investissements.

Comment concevoir une règle budgétaire ?

Le gouvernement doit conduire sa politique budgétaire en intégrant l’information sur la dette héritée, et pas seulement se donner une cible fixe de déficit public. Une règle budgétaire doit garantir que la dette n’est pas seulement stabilisée en éliminant l’effet boule de neige, mais progressivement ramenée vers une cible. Pour ce faire, le solde primaire doit d’une part couvrir le service de la dette passée, net de la croissance nominale, et d’autre part engager le remboursement de l’excès de dette courante par rapport à sa cible de long terme. Ce besoin de financement est donc proportionnel à l’écart entre la dette courante et sa cible de long terme et a pour fonction de déterminer explicitement le rythme du retour vers le niveau souhaité de dette. L’application concrète de cette règle suppose non seulement de définir ce rythme d’ajustement, mais aussi de préciser une cible de dette, qui sert d’ancrage au retour progressif de la trajectoire budgétaire.

Cette règle indexée sur le niveau hérité de la dette et de son écart à sa cible implique que l’excédent primaire requis décroît avec le ratio de dette : l’objectif n’est donc pas un niveau donné et intangible de solde primaire ou total, mais une règle d’indexation sur le niveau de la dette. Cette règle permet un déficit total équivalent aux gains liés au remboursement d’une dette passée avec des revenus intégrant la croissance nominale d’aujourd’hui, amputés d’un terme de correction, visant à financer le retour de la dette vers sa cible. Si le taux d’intérêt net de la croissance devient négatif, la dynamique de la dette devient suffisamment favorable pour que, même au-dessus de la cible, le retour progressif vers celle-ci puisse demeurer compatible avec un déficit primaire.

France Culture, 2025.

La nécessité d’un plan budgétaire pluriannuel

Aujourd’hui le déficit primaire de l’État français est de 2,9 points de PIB avec un ratio dette sur PIB à 115,6 %. L’application immédiate de la règle décrite ci-dessus nécessiterait de présenter en 2026 un budget excédentaire d’au moins 0,55 point de PIB afin de stabiliser la dette à son niveau d’aujourd’hui. Ensuite, pour que le ratio dette sur PIB passe sous les 100 % dans 20 ans (réduction de l’écart à une cible de long terme fixée à 60 % en accord avec le traité européen), un second excédent de 1,15 point de PIB est nécessaire. L’addition de ces deux composantes de la règle conduit alors à un excédent primaire de 1,7 point de PIB pour 2026. Ainsi, avant même d’engager une réduction de la dette publique, le seul objectif de la stabiliser en une période est certainement irréaliste compte tenu de l’ampleur du déficit actuel. C’est donc un engagement sur un plan budgétaire sur un horizon pluriannuel qui doit garantir la stabilisation, puis le retour vers la cible de long terme. C’est ce type de règle, dans le cadre d’un plan pluriannuel, qui est testée dans les simulations de l’i-MIP et permet d’accroître l’efficacité d’une politique de consolidation.

Thierry Breton a raison sur un point essentiel : un pays ne peut vivre éternellement dans le déni budgétaire. Xavier Timbeau a raison sur un autre : aucun chiffre gravé dans le marbre ne remplacera jamais l’intelligence économique. Mais la conclusion à tirer n’est ni l’austérité constitutionnalisée ni le refus de toute règle. Elle est plus simple, la France a besoin d’une gestion budgétaire crédible et surtout prévisible.

Autrement dit, d’une règle pluriannuelle, transparente, suspendable en cas de choc majeur, mais suffisamment contraignante pour empêcher ce que nous pratiquons depuis cinquante ans : promettre le redressement demain pour éviter de le décider aujourd’hui. Parce qu’elle coordonne les décisions sur un horizon plus long, une telle règle réduit l’incertitude économique, toujours défavorable à l’embauche comme à l’investissement. Et si cette discipline avait été à l’œuvre ces deux dernières années, nous disposerions peut-être aujourd’hui des marges budgétaires nécessaires pour financer un nouveau bouclier tarifaire.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

28.04.2026 à 15:49

L’avenir incertain de la justice négociée appliquée aux entreprises : les CJIP en question

Maxime Lassalle-Han, Maître de conférences en droit, Université Bourgogne Europe

En voulant supprimer les conventions judiciaires d’intérêt public, les députés mettent fin à un système de justice négociée pour les entreprises ? Le bilan était-il si négatif ? Y avait-il d’autres voies comme les réformer ?
Texte intégral (2002 mots)

Le 1er avril dernier, les députés ont voté un amendement visant à supprimer le régime des conventions judiciaires d’intérêt public, une procédure de justice négociée ouverte aux entreprises. Plutôt saluées à l’époque, elles sont davantage critiquées. N’eût-il pas mieux valu les amender plutôt que de les supprimer ? C’est peut-être à cette tâche que va se consacrer la commission mixte paritaire qui se réunit mardi 28 avril.


En 2016, la loi Sapin 2 instaure en France un système de justice négociée applicable aux personnes morales, inspiré du droit américain : la convention judiciaire d’intérêt public (CJIP). Il s’agit notamment de répondre au caractère relativement rare des enquêtes, poursuites et condamnations en matière de corruption et de criminalité financière. Le modèle traditionnel de justice pénale, fondé sur une enquête judiciaire puis un jugement, n’est pas jugé assez effectif.

« Deals de justice »

Un autre modèle de justice est alors envisagé, celui de la justice négociée, inspiré du droit américain et de ses « deals de justice ». Il a l’avantage de permettre d’éviter des enquêtes et procès longs et coûteux. Cette forme de justice a aussi pour intérêt d’inviter les entreprises à se dénoncer à et mettre en place des mécanismes internes visant à prévenir les activités criminelles. C’est ce qui explique que les CJIP, initialement pensées comme un moyen de répondre à la corruption dans les entreprises, aient été étendues à la lutte contre les infractions fiscales et la criminalité environnementale.


À lire aussi : La France dans la lutte contre la corruption : les solutions américaines


Pour autant, les CJIP, inspirées du modèle américain de justice négociée suscitent, depuis leur naissance, de nombreux questionnements. Le Conseil d’État souligne dès 2016 le risque que l’intervention de la justice perde « sa valeur d’exemplarité » et surtout son objectif de « recherche de la vérité ». De même, la faible « lisibilité de la politique pénale du parquet en matière de mise en œuvre de la convention judiciaire d’intérêt public » est critiquée dans par un rapport parlementaire en 2019.

Alors que la loi Sapin 2 est sur le point de fêter son dixième anniversaire, l’Assemblée nationale a adopté, le 1er avril, un amendement visant à supprimer le régime des CJIP. Cela a entraîné de fortes réactions (presse généraliste, publications spécialisées, ou encore positionnements pour ou contre dans la société civile). C’est l’occasion de se pencher à nouveau sur les enjeux de cette forme particulière de justice

Des sanctions trop faibles ?

L’exposé sommaire de l’amendement voté par l’Assemblée nationale pour supprimer le régime des CJIP fait référence explicite aux Cumex Files, une affaire politiquement sensible, parfois présentée comme le « casse du siècle ». Le Parquet national financier, saisi dès 2018 sous l’angle de la fraude fiscale et du blanchiment de capitaux, a déjà signé deux CJIP dans cette affaire : la première avec le Crédit agricole fin 2025, et la deuxième avec HSBC tout début 2026. C’est cette deuxième convention qui est jugée excessivement favorable à la banque par les députés. Le montant de l’amende – environ 270 millions d’euros – est en effet relativement faible, si l’on considère que les amendes imposées peuvent être beaucoup plus lourdes lorsque la justice pénale traditionnelle s’intéresse à des banques dans des affaires de fraude fiscale.

Ce n’est pas la première fois qu’une telle critique est adressée aux CJIP. Cela avait déjà été le cas, suite à la fameuse affaire LVMH, critiquée notamment pour l’absence de prise en compte des intérêts des victimes. Cela avait aussi été le cas dans l’affaire Nestlé. Une commission d’enquête sénatoriale avait alors critiqué l’opportunité de la convention et surtout le faible montant de l’amende. Toutefois, cette commission n’avait préconisé que l’adoption de règles plus claires visant à encadrer les CJIP en matière environnementale, et non leur suppression.

Une faveur ou une incitation à coopérer ?

Le reproche adressé aux CJIP par les députés est implicitement fondé sur l’idée que les sanctions encourues auraient été plus importantes si une procédure normale avait été suivie. Il faut toutefois nuancer et rappeler la finalité de ces conventions. Le recours aux CJIP est bien une faveur vis-à-vis des entreprises, mais il s’agit de les inciter à coopérer avec la justice, notamment en se dénonçant, et en mettant en œuvre des procédures effectives visant à détecter et prévenir les actes criminels en leur sein.

Le recours aux CJIP est ainsi conditionné (via circulaires et lignes directrices). Le parquet doit en principe constater l’absence d’antécédents de la personne morale, un certain degré de coopération de la part de l’entreprise et de ses dirigeants, et enfin la remise de manière proactive d’informations permettant d’identifier les personnes physiques responsables des infractions pénales en cause.

Si les faits sont graves ou si les entreprises ne coopèrent pas, c’est une autre voie qui doit être suivie, et donc éventuellement le renvoi vers un tribunal correctionnel. Dans l’affaire des Cumex Files, le recours à des CJIP et la faiblesse des amendes s’agissant du Crédit Agricole et de HSBC s’expliquent ainsi probablement par la plus grande coopération de ces banques par rapport aux autres banques impliquées dans cette affaire, qui pourraient, quant à elles, faire l’objet de sanctions plus lourdes.

Malgré cela, le parquet dispose de marges de manœuvre significatives pour décider d’avoir recours à une CJIP. Le juge chargé de valider a posteriori l’accord passé entre le parquet et l’entreprise ne met pas en œuvre un contrôle approfondi de l’opportunité de cette procédure, même s’il peut notamment contrôler « la proportionnalité des mesures prévues aux avantages tirés des manquements ». L’étendue de ce contrôle semble moindre que celle qui s’applique pour d’autres formes de justice négociée, et notamment la comparution sur reconnaissance préalable de culpabilité (CRPC), qui peut être rejetée notamment si les intérêts de la société justifient une « audience correctionnelle normale ».

Euronews 2020.

Affaire franco-états-unienne ?

Les CJIP avaient pour principal objectif de répondre aux critiques adressées à la France s’agissant du faible nombre de poursuites et de condamnations d’entreprises françaises pour corruption. Une réponse fondée sur des mécanismes négociés devait permettre aux entreprises françaises de trouver une solution en France plutôt que d’être inquiétées seulement aux États-Unis.

La portée dite extraterritoriale du droit pénal américain, adossée à un activisme important des autorités américaines, avait en effet conduit de nombreuses entreprises françaises ayant commis des faits de corruption d’agent public étrangers à être sanctionnées aux États-Unis et non en France. De ce point de vue, les CJIP sont un succès.

Les CJIP ont permis de sanctionner davantage d’entreprises. La CJIP signée dans l’affaire Airbus a aussi montré que les États-Unis n’étaient plus les seuls gendarmes du monde : l’entreprise a certes payé des amendes aux États-Unis mais, bénéficiant aussi d’une CJIP, l’essentiel de l’amende a été payé en France.

Des modalités à revoir ?

Ces succès ponctuels ne signifient pas que cette forme de justice négociée, et les sanctions qui vont avec, soient incontestablement les instruments les plus effectifs dans la lutte contre toutes les formes de criminalité économique. En droit américain aussi l’opportunité du recours à la justice négociée en matière de droit pénal des affaires est discutée.

À côté du montant des sanctions, d’autres enjeux sont importants. À l’étranger comme en France, l’articulation entre la responsabilité pénale de la personne morale et celle des personnes physiques pose notamment problème. Une autre question est celle de la prise en compte des tiers dans les négociations entre procureurs et entreprises. Ce n’est ainsi peut-être pas tant le principe de la justice négociée que les modalités de sa mise en œuvre qui posent problème.

The Conversation

Maxime Lassalle-Han ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

28.04.2026 à 15:49

Comment généraliser l’agroécologie ?

Julia Le Noë, Chargé de recherches en Sciences de l'Environnement, Institut de recherche pour le développement (IRD)

Gilles Billen, Directeur de recherche CNRS émérite, biogéochimie territoriale, Sorbonne Université

Josette Garnier, Directrice de recherche CNRS, Systèmes agri-hydro-alimentaires, Sorbonne Université

Peut-on généraliser l’agroécologie sans perdre en productivité ? Des travaux menés depuis plus de dix ans permettent de répondre par l’affirmative. Voici comment.
Texte intégral (3477 mots)

Peut-on généraliser l’agroécologie sans perdre en productivité ? Des travaux menés depuis plus de dix ans permettent de répondre par l’affirmative. Ils identifient trois leviers garantissant des rendements suffisants sans engrais chimiques.


L’agriculture biologique est souvent critiquée pour ses rendements plus faibles que ceux de l’agriculture dite conventionnelle. Un irréductible écart de rendement d’environ 30 % en moyenne la condamnerait à n’être qu’une solution de niche pour classes aisées. Nos travaux depuis dix ans montrent que non. Pour comprendre pourquoi, un petit détour par le cycle de l’azote et son histoire s’impose.

Le cycle de l’azote en bref

L’azote est un élément indispensable à toute vie sur terre : il est, après l’eau et le carbone, l’élément le plus abondant dans les organismes vivants, particulièrement dans les protéines et le matériel génétique. Mais dans les sols et les environnements aquatiques (hors organismes vivants), on le trouve en beaucoup plus petites quantités, essentiellement sous forme de nitrate et d’ammonium, les deux formes directement utilisables par les plantes. La rareté de l’azote dans les sols explique que cet élément a longtemps été le principal facteur limitant de la croissance des plantes en agriculture.

Pourtant l’azote constitue 78 % de l’atmosphère, mais il s’y trouve sous forme de diazote, un gaz inerte et pratiquement inutilisable par les plantes à une exception notable : celles des légumineuses (lentilles, haricots, pois, luzerne, trèfle…) qui sont capables d’assimiler ce diazote atmosphérique et de le rendre ainsi disponible dans les sols pour les autres plantes qui leur succèdent.

Un détour historique : de la rareté structurante à l’abondance destructrice de l’azote

La limitation en azote a longtemps été contenue par un couplage étroit entre production et consommation. Ainsi, les urines et les excréments riches en azote du bétail et, dans une moindre mesure, des populations humaines ont permis d’apporter des engrais organiques aux sols sous forme de fumier et de lisier. En Europe, tout au long des 18e, 19e et début du XXe siècle, l’introduction des légumineuses dans les rotations de cultures a également permis une double intensification organique : ces plantes enrichissaient les sols en azote et produisait également du fourrage permettant ainsi une hausse de la densité de cheptel, et partant, des apports de fumier.

Au début du XXe siècle et plus encore après la Seconde Guerre mondiale, une invention vient révolutionner tout cela. C’est l’invention du procédé Haber-Bosch (1909/1913), qui permet de synthétiser des engrais minéraux (nitrate et ammonium) à partir du diazote de l’air. Ce procédé sert d’abord pour la fabrication d’explosifs pendant les deux guerres mondiales, puis pour faire des engrais industriels qui permettent de s’affranchir de la complémentarité entre élevage et culture. C’est ce qui advient dans les pays industriels du Nord et, plus récemment dans une partie des pays des Suds ayant connu la « révolution verte », qui ont ainsi pu massivement augmenter leur production alimentaire avec la généralisation des engrais chimiques.

Cette évolution a cependant plusieurs revers. Elle entraîne une perte d’efficience d’utilisation de l’azote car plus on apporte de l’azote, moins la fraction utilisée par les plantes est importante et plus les pertes vers l’environnement sont grandes. La production d’engrais est par ailleurs très gourmande en énergie et s’accompagne d’émissions de gaz à effet de serre.

Enfin, l’utilisation d’engrais permet le développement de systèmes d’élevage intensifs et de cultures découplés et spécialisés. À l’échelle globale, il en résulte que 40 % des terres arables cultivées (à l’exclusion des prairies naturelles, savanes, steppes et autres espaces agricoles semi-naturelles) sont consacrées à l’alimentation du bétail. De plus, les territoires ultraspécialisés dans l’élevage ou les grandes cultures engendrent des excédents structurels d’azote. Ces excédents de fumier et lisier contaminent les systèmes aquatiques en nitrate (problèmes de potabilisation de l’eau, de biodiversité, d’eutrophisation) et augmentent les émissions d’ammoniac (avec des effets néfastes sur le système respiratoire) et de protoxyde d’azote (puissant gaz à effet de serre, environ 300 fois plus actif que le dioxyde de carbone). L’agriculture à l’échelle globale est ainsi aujourd’hui à l’origine d’environ un tiers des émissions de gaz à effet de serre et constitue le premier facteur de perturbation des cycles biogéochimiques de l’azote et du phosphore.

L’agriculture biologique : retour vers le futur ?

C’est dans ce contexte que, depuis les années 1970, et plus encore depuis le début des années 2000, l’agriculture biologique est apparue comme contre-modèle à cette agriculture chimique, basée sur les énergies fossiles et l’industrialisation de l’agriculture.

Dans son cahier des charges, l’agriculture biologique bannit les fertilisants chimiques et les pesticides. Baisse des rendements et retour vers le passé donc ?

Loin s’en faut. Car l’agriculture biologique s’appuie sur une connaissance approfondie du fonctionnement des écosystèmes. Elle repose sur des rotations longues (en Europe elles durent en moyenne de cinq à huit ans pour un cycle complet), intégrant plusieurs légumineuses dans le cycle de culture. Plus encore, nos travaux ont montré que, pour des apports totaux d’azote équivalents, les systèmes agricoles biologiques produisent autant, à l’échelle de la rotation de culture, que les systèmes conventionnels. Cela montre donc que l’agriculture biologique peut être intensifiée écologiquement. Mais comment et dans quel contexte ?

Observations empiriques de la relation fertilisation-rendement sur un cycle de rotation. En abscisse, la fertilisation totale en azote sur le cycle de rotation complet (fertilisant minéraux, fixation symbiotique, dépôts atmosphériques, fumier et autres matières organiques exogènes) ; en ordonnée, le rendement à l’hectare sur l’ensemble du cycle de rotation exprimé en kgN-exporté/ha/an. Les données montrent que, pour un même contexte pédoclimatique, les fermes en agriculture biologique et en agriculture conventionnelle se positionnent sur une même courbe caractérisée par un certain potentiel de fertilité, noté ici Ymax. La figure est adaptée de la publication de Billen, Le Noë, Garnier, (2018) dans la revue Science of the Total Environment Fourni par l'auteur

Quels leviers pour une transition agro-écologique ?

Nos travaux de recherches ont identifié, testé et validé trois leviers principaux pour nourrir la population en 2050 à différentes échelles, sans augmenter la surface des terres cultivées. Tous sont liés de près ou de loin au cycle de l’azote. C’est là que la vision systémique de l’agroécologie peut être salutaire, en élargissant la réflexion à l’ensemble du système agro-alimentaire.

Le premier levier consiste en une diminution de 16 % des apports protéiques journaliers, en accord avec les recommandations de santé. Selon ces mêmes recommandations, une réduction de 50 % de la consommation de viande et de produits laitiers est explorée avec une augmentation de la part des produits végétaux. Nous avons parfois testé des options plus radicales, végan ou végétarienne à titre exploratoire.

Le deuxième levier réside dans la reconnexion des systèmes d’élevage et de culture, s’affranchissant de l’importation d’aliments pour animaux. Cette reconnexion facilite le recyclage des fumiers et effluents d’élevage vers les terres cultivées réduisant ainsi la dépendance aux engrais azotés de synthèse. Une option supplémentaire, explorée dans certains scénarios, concerne le recyclage des urines humaines, renforçant encore la circularité des flux de nutriments.

Enfin, le troisième levier implique des rotations longues intégrant des légumineuses fixatrices d’azote et l’absence de recours aux engrais azotés et des fertilisants phosphorés minéraux.

Une vision systémique des systèmes de culture insérés dans le système agro-alimentaire. Les trois leviers de changement permettant une transition agroécologique. Fourni par l'auteur

L’exploration de différentes combinaisons possibles des trois principaux leviers de changement que nous avons envisagés, met en évidence le rôle prépondérant du régime alimentaire comme condition de mise en œuvre et de succès des deux autres leviers.

Plus la demande en produits animaux est réduite plus les marges de manœuvre pour déployer des systèmes agroécologiques sont élevées. Les modifications de régime alimentaire permettent, en effet, de diminuer les besoins de la population humaine et surtout ceux du cheptel. La reconnexion de l’élevage et des cultures conduit à répondre localement aux besoins du cheptel. L’immense majorité des territoires en France et en Europe pourraient ainsi être auto-suffisants tant pour la consommation humaine qu’animale.

Des bénéfices environnementaux immédiats, et partout

Dans tous les contextes où ces scénarios ont été développés, à l’échelle globale en Europe, en France, en Autriche, ou en Chine, nos résultats montrent une réduction de moitié des pollutions aquatiques et atmosphériques par l’azote, ainsi que des émissions de gaz à effet de serre.

Les effets de la généralisation de l’agroécologie seraient donc bénéfiques pour l’environnement. La diminution de la fertilisation azotée s’accompagne aussi d’une hausse marquée de l’efficience d’utilisation de l’azote, c’est-à-dire de la fraction des apports effectivement utile à la production, qui passe de 59 à 76 % dans le cas européen.

À l’échelle globale, nos scénarios montrent que ces leviers sont efficaces partout et que ces changement ne mettent pas en danger la sécurité alimentaire mondiale. Avec un régime alimentaire équitable, sans inégalités alimentaires entre pays du monde, l’introduction des légumineuses et la reconnexion de l’élevage et des cultures, la plupart des régions du monde resteraient excédentaires sans engrais chimiques et pourraient largement subvenir aux besoins des régions déficitaires comme le Maghreb, le Japon, et le Moyen-Orient.

Points de vigilance

Nos simulations montrent toutefois des points de vigilance concernant par exemple le stockage du carbone organique. En effet, la diminution du cheptel et de la fertilisation azotée totale pourraient entraîner une réduction des effluents d’élevage, de la production agricole et, par conséquent, des apports de résidus de culture (pailles, racines), ce qui diminue le stockage du carbone organique des sols. Des travaux expérimentaux menés à l’Inrae ont toutefois montré un stockage du carbone organique significativement plus élevé dans des sols cultivés en agriculture biologique versus conventionnelle, ce qui indique que nous avons pu sous-estimer certains apports de matière organique, notamment racinaires, dans nos exercices de modélisation. Il n’en demeure pas moins une réduction de moitié des émissions de gaz à effet de serre et des pertes d’azote vers les systèmes aquatiques.

Une autre interrogation concerne une possible carence en phosphore, s’il l’on se passe d’engrais phosphoré et s’il est apporté seulement via le recyclage des fumiers ? A minima pour le cas de la France à l’échelle de ses territoires, il existe des stocks de phosphore dans les sols qui permettrait de se passer de tout apport d’engrais phosphoré industriel pendant au moins 50 ans. En effet, l’agriculture française a fait un usage disproportionné des fertilisants minéraux en phosphore (essentiellement importé du Maghreb – Maroc et Tunisie en tête) entre les années 1960 et 1990 conduisant à un enrichissement considérable des sols en phosphore. Cet héritage colonial offre donc des réserves utilisables le temps de mettre en œuvre les changements.

a. Bilan des apports et des pertes de phosphore (P) des sols arables du bassin de la Seine depuis 1950 jusqu’à 2015, puis simulation d’un scénario de transition vers un système agroécologique sans apports de P industriel jusqu’en 2075. b. Évolution du stock de P inerte et de P labile (P Olsen) dans les sols arables. c. Évolution du P labile par rapport à la limite de teneur en P au-dessus de laquelle il n’est plus recommandé d’apporter des engrais phosphorés. Cette figure est construite à partir des données de la publication de Le Noë et al. (2020) dans Env. Res. Letters Fourni par l'auteur

Pessimisme de l’intelligence, optimisme de la volonté

Nos travaux montrent ainsi que les systèmes agro-écologiques ont le potentiel technique pour concilier production alimentaire et forte amélioration des performances environnementales dans des contextes très variés. Alors pourquoi la transition agroécologique n’a-t-elle pas déjà eu lieu ?

Sans doute le problème se trouve-t-il ailleurs, notamment dans la logique socioéconomique des chaînes amont-aval dans lesquelles l’agriculture se trouve insérée, dans les conditions de travail et la rémunération des agriculteurs et dans le poids politique sur l’action publique qu’ont acquis les acteurs qui contrôlent ces secteurs.

Toutefois, ce contexte socioéconomique est aussi une incitation supplémentaire à insuffler de nouveaux espoirs, a fortiori dans la situation actuelle de guerre énergétique et de flambée du prix des intrants. C’est tout le sens à donner à l’exploration des futurs possibles par des approches scientifiques, laissant à l’imagination toute la place qu’elle mérite d’avoir.

The Conversation

Julia Le Noë a reçu des financements des projets SLAM-B (ANR-22-PEXF-0003), PREFALIM (ANR-23-PEXF-0004) du PEPR exploratoire FairCarboN et a bénéficié d'une aide de l’État gérée par l'Agence Nationale de la Recherche au titre de France 2030 portant la référence ANR. Elle a également bénéficié des financements du projet MOBIDYC (ANR-23-ERCB-0006-0) gérée par l'Agence Nationale de la Recherche.

Gilles Billen a reçu des financements du programme PIREN-Seine, un programme public de recherche sur la qualité de l'eau et l'agriculture dans le Bassin de la Seine (https://www.piren-seine.fr/).

Josette Garnier a reçu des financements du programme interdisciplinaire PIREN-Seine (https://www.piren-seine.fr/)

PDF

28.04.2026 à 15:48

Une visite historique à Paris : la Papouasie-Nouvelle-Guinée, acteur clé du jeu sécuritaire en Océanie

Elise Barandon, Doctorante en science politique, co-éditrice au Rubicon, Université Paris-Panthéon-Assas

La Papouasie-Nouvelle-Guinée devient une actrice incontournable de sécurité et de défense en Océanie.
Texte intégral (2684 mots)

La visite de James Marape, le premier ministre papouan-néo-guinéen, à Paris en mai 2026, marquée par la signature d’accords de sécurité et l’ouverture d’une ambassade, illustre le rapprochement stratégique, dans un contexte de recomposition géopolitique du Pacifique, de la France et de cet État océanien membre du Commonwealth et troisième territoire insulaire le plus grand du monde.


La visite du premier ministre papouan-néo-guinéen James Marape à Paris, prévue mi-mai 2026, pourrait passer inaperçue. Or, à Port Moresby comme à Paris, cet évènement n’a rien d’anodin : la signature attendue d’un accord de shipriding et l’officialisation de l’ouverture d’une ambassade papouane-néo-guinéenne à Paris comptent en témoigner. Cette visite s’inscrit plus largement dans un contexte de recomposition des équilibres géopolitiques dans le Pacifique insulaire, notamment marqué par la multiplication des accords de sécurité (en particulier avec l’Australie et les États-Unis, notamment face à l’influence chinoise dans le pays), et le renforcement des souverainismes.

À l’aune d’analyses des documents stratégiques et d’entretiens conduits à Port Moresby, plusieurs questions sous-tendent notre analyse : comment deux conceptions différenciées de la sécurité peuvent-elles produire une coopération mutuellement bénéfique ? Comment la France construit-elle une relation de sécurité différenciée avec un État mélanésien aux ambitions sécuritaires régionales ? Il s’agit ici d’appréhender la coopération de sécurité entre les deux États, tout en s’attachant à réinscrire les logiques insulaires au cœur des enjeux régionaux et internationaux qui les sous-tendent, afin que les dynamiques de compétition entre puissances n’occultent pas les voix et formes d’agentivité propres aux États du Pacifique insulaire.

La Papouasie-Nouvelle-Guinée, un géant du Pacifique insulaire

Longtemps reléguée aux marges des analyses en relations internationales, la Papouasie-Nouvelle-Guinée (PNG) est pourtant le premier État insulaire de la région par sa population (environ 80 % des habitants du Pacifique insulaire) et son territoire (462 840 km2), lui permettant ainsi de s’imposer comme un acteur incontournable en Océanie.

La PNG, anciennement sous administration coloniale germano-britannique, puis australienne et indépendante depuis 1975, s’inscrit aujourd’hui dans une dynamique de montée en puissance progressive dans les domaines de la sécurité et de la défense, cherchant à affirmer plus nettement son influence et ses ambitions sur la scène régionale. Si, dans la continuité de l’héritage de ses pères fondateurs, elle s’est longtemps définie comme « amie de tous, ennemie de personne » (doctrine de l’universalisme), cette posture tend désormais à évoluer vers une stratégie plus sélective, fondée sur la consolidation de « partenariats stratégiques ». Dans ce contexte, la stratégie de la PNG est fréquemment interprétée comme relevant d’une logique de hedging.

Parallèlement, Port Moresby exprime sa volonté de s’affirmer à l’échelle régionale ; elle aspire à jouer un rôle plus actif, parfois qualifié de « grand frère », au sein du Pacifique insulaire. Ces inflexions ont mené à une prise de conscience accrue des limites capacitaires nationales, notamment en matière de sécurité intérieure et de défense. Les effectifs des forces armées (Force de défense de Papouasie-Nouvelle-Guinée, ou PNGDF) et de la police (RPNGC) demeurent en effet inférieurs aux standards généralement recommandés à l’échelle internationale. Le paysage sécuritaire national, quant à lui, se caractérise par une forte hybridité : dans les espaces urbains par exemple, les entreprises de sécurité privée jouent un rôle central – l’État n’ayant pas le monopole effectif de la sécurité. La PNGDF fait aussi l’objet d’un processus de transformation visant à accroître ses effectifs (10 000 personnels à l’horizon 2030, contre près de 4 000 aujourd’hui) et à faire évoluer son modèle organisationnel. Il s’agit notamment de passer d’une force historiquement structurée autour d’un « modèle de brigade » – à dominante « cérémonielle » – à une organisation plus « fonctionnelle » articulée autour de trois composantes (aérienne, maritime et terrestre).

Or, si l’attention stratégique portée à la Papouasie-Nouvelle-Guinée s’est accrue ces dernières années, et que les jalons des ambitions ont été posés, les priorités sécuritaires du pays restent encore largement sous-analysées. En effet, la PNG se caractérise par une diversité géographique et culturelle exceptionnelle (plus de 1 000 tribus) et une mosaïque de structures sociales organisées autour de clans, dont une grande partie vit dans des régions isolées. Les violences intertribales – parfois qualifiées de « terrorisme local » – côtoient des phénomènes de criminalité (raskoll) plus classiques. La porosité des frontières, tant terrestres que maritimes, favorise les trafics d’armes (notamment via la frontière indonésienne) et de stupéfiants, tandis que la pêche illégale constitue une menace persistante pour les ressources et la souveraineté économique du pays. À ces enjeux s’ajoutent des problématiques structurelles telles que les inégalités de développement, les tensions liées aux industries extractives, ainsi qu’une forte exposition aux catastrophes naturelles. Dans un tel environnement, la sécurité ne saurait être réduite à sa seule dimension militaire : elle s’inscrit dans un ensemble plus large de dynamiques politiques, économiques et sociales, qui appellent des réponses à la fois multidimensionnelles et adaptées aux réalités locales. Les enjeux dits de sécurité non traditionnelle occupent une place centrale dans les priorités exprimées localement et conditionnent, en grande partie, la stabilité à long terme du pays.

Une relation bilatérale revitalisée dans le domaine de la sécurité, et la France comme puissance d’ajustement

Si la coopération de sécurité entre la PNG et la France s’inscrit dans une longue temporalité, elle connaît, depuis le début des années 2020, un regain de dynamisme significatif. La signature d’un accord relatif au statut des forces (SOFA) en 2022 en a constitué une étape structurante. L’année suivante, à la faveur de la visite du président Emmanuel Macron dans la région, la relation entre Port Moresby et Paris a été revitalisée grâce au lancement de l’Académie du Pacifique, une initiative portée par les forces armées en Nouvelle-Calédonie et en Polynésie française. Le livre blanc de politique étrangère de la PNG précité inscrit d’ailleurs la France dans son « voisinage ».

Avec l’aide de la stratégie indopacifique française – réactualisée en 2025 – et de la National Security Policy 2025-2029 de la PNG, la coopération franco-papouane-néo-guinéenne a particulièrement augmenté en l’espace de quelques mois. Les escales, les patrouilles maritimes, et les transferts de capacités ciblées à l’image du don de drones de surveillance maritime DELAIR UX-11, en sont des exemples manifestes. La PNG prend également part à des exercices multilatéraux français (Croix du Sud) qui favorisent l’interopérabilité. En parallèle, des formations sont dispensées – de l’entraînement des forces spéciales au perfectionnement tactique (parachutisme, par exemple) –, contribuant à l’élévation du niveau opérationnel de la PNGDF. Enfin, la coopération s’inscrit également dans des cadres multilatéraux régionaux, tels que le South Pacific Defence Ministers’ Meeting (SPDMM) ou le Pacific Response Group.

Ces éléments opérationnels mettent en lumière une dimension stratégique singulière : celle d’une France perçue et décrite par nos interlocuteurs comme un partenaire de sécurité certes discret, mais crédible et souvent « sous-estimé ». Dans un environnement partenarial dense, la France pourrait être qualifiée de « puissance d’ajustement » pour la PNG. À rebours des approches plus structurantes de l’Australie, des États-Unis ou de la Chine – néanmoins parfois considérées comme « intrusives » voire « condescendantes » –, cette discrétion constitue une ressource. En proposant une approche complémentaire de celles existantes pour ne pas saturer le partenaire, la France contribue à certaines fonctions sécuritaires clés, souvent qualifiées de « niches » par les interlocuteurs, mais dont la plus-value est reconnue.

« Yu harim tok blo mi, bai mi harim tok blo yu » ?**

Les perspectives d’approfondissement de la coopération sécuritaire entre la France et la Papouasie-Nouvelle-Guinée apparaissent nombreuses. La revitalisation en cours de la composante aérienne de la PNGDF, et la rénovation de la base navale de Lombrum en parallèle de l’accord de shipriding (patrouiller dans les eaux territoriales et les zones économiques exclusives d’un État tiers, en embarquant un officier du pays concerné), ouvrent de nouveaux champs de coopération, susceptibles d’élargir le spectre des interactions opérationnelles. Des soutiens dans des secteurs émergents (cybersécurité, renseignement, opérations de maintien de la paix des Nations unies) sont également appelés à occuper une place croissante.

Ces perspectives prometteuses ne sauraient toutefois occulter un certain nombre de contraintes et de points de vigilance, voire de friction. Les cycles électoraux à venir dans les deux pays en 2027 sont susceptibles d’introduire des incertitudes dans la continuité des engagements, et certaines évolutions politiques internes appellent également à la prudence : la question de l’indépendance de Bougainville pourrait redessiner les équilibres régionaux et ouvrir de nouvelles configurations partenariales, tout en ravivant des tensions héritées d’un passé conflictuel.

Fondamentalement, une connaissance fine des réalités locales demeure indispensable : la PNG, en raison de sa grande diversité, ne peut être appréhendée comme un bloc monolithique, et toute approche standardisée comporte des risques d’inadéquation. Il convient en outre de rappeler que la coopération s’inscrit dans un contexte fragile : budgets serrés, défis en matière de professionnalisation, corruption, fragilités voire scandales institutionnels, et décalages des élites urbaines, constituent autant de facteurs susceptibles d’affecter la mise en œuvre des projets de coopération.

Enfin, la question de la saturation partenariale doit être prise en compte. Dans un pays où les offres de coopération se multiplient et où les ressources – humaines comme financières – sont limitées, l’enjeu n’est pas tant d’accumuler les initiatives que de les rationaliser. Si elle constitue un partenaire utile et apprécié, la France demeure structurellement un acteur secondaire dans l’écosystème sécuritaire de la PNG.

En définitive, la consolidation d’un partenariat durable repose sur des principes fondamentaux de réciprocité, d’écoute et de respect des priorités locales, faisant échos au wantok local. À cet égard, un proverbe en Tok Pisin (pidgin local) résume avec justesse l’esprit dans lequel cette relation peut se déployer : « Yu harim tok blo mi, bai mi harim tok blo yu » (« Si tu m’écoutes, je t’écouterai. »).

The Conversation

Elise Barandon est officier de réserve (Marine nationale) à la Direction générale des relations internationales et de la stratégie (DGRIS) et doctorante associée à l'Institut de recherche stratégique de l'Ecole militaire (IRSEM).

PDF

28.04.2026 à 12:51

Pourquoi est-il déconseillé de boire de l’alcool quand on prend des médicaments ?

Mickael Naassila, Professeur de physiologie, Directeur du Groupe de Recherche sur l'Alcool & les Pharmacodépendances GRAP - INSERM UMR 1247, Université de Picardie Jules Verne (UPJV)

Camille André, Assistante hospitalo-universitaire, CHU de Rennes, Institut de Recherches en Santé-Environnement-Travail - IRSET - UMR Inserm 1085

Naouras Bouajila, Chargée d'études, Société française d'alcoologie et d’addictologie - Doctorante, Groupe de Recherche sur l’Alcool & les Pharmacodépendances, UMR-S INSERM 1247, Université de Picardie Jules Verne (UPJV)

Lorsqu’il vous remet vos médicaments, votre pharmacien vous parle probablement peu d’alcool… Pourtant, sa consommation peut modifier leurs effets, les rendant moins efficaces ou plus toxiques.
Texte intégral (4013 mots)

Anticoagulants, antihypertenseurs, diurétiques, anxiolytiques, antidépresseurs, antidiabétiques, anticancéreux… tous ces médicaments apparemment sans grand rapport les uns avec les autres ont pourtant un point commun : ils sont sensibles aux interactions avec l’alcool. Consommer une boisson alcoolisée alors que l’on est sous traitement entraîne potentiellement des effets variés, dont certains peuvent être graves.


Vous sortez de la pharmacie avec dans votre sac un traitement contre la douleur, l’anxiété, l’hypertension ou le diabète. Votre pharmacien vous a très certainement expliqué la dose de médicament à prendre, et sur quelle durée. Il s’est peut-être attardé sur les effets secondaires potentiels. Il est possible qu’il vous ait aussi demandé si vous fumiez. Mais souvent, une question reste absente de ce type d’échange : vous arrive-t-il de consommer de l’alcool ?

L’association entre consommation d’alcool et médicaments est pourtant l’une des situations les plus fréquentes du quotidien. Elle concerne des millions de personnes, souvent sans qu’elles en aient conscience. Or, l’alcool peut modifier l’efficacité d’un traitement, en augmenter la toxicité ou amplifier certains effets indésirables, parfois avec des médicaments très courants.

Derrière cette réalité se cachent des mécanismes biologiques complexes, mais dont les conséquences sont très concrètes : chute, malaise, saignement, hypoglycémie, surdosage, inefficacité du traitement, ou aggravation silencieuse d’une maladie chronique.

Et contrairement à une idée reçue, il ne s’agit pas seulement d’un problème lié aux somnifères ou aux « gros buveurs ».

Une problématique fréquente

L’association entre alcool et médicaments potentiellement susceptibles d’interagir avec cette substance est loin d’être marginale. Aux États-Unis, l’analyse de l’enquête nationale NHANES (1999–2010) a estimé que 42,8 % des adultes utilisaient au moins un médicament susceptible d’une telle interaction, une proportion qui dépasse 75 % après 65 ans. En Suisse, environ une personne de 55 ans ou plus sur cinq déclarait consommer souvent ou presque toujours de l’alcool en même temps que ses médicaments.

Chez les sujets les plus âgés qui prennent plusieurs sortes de médicaments, le risque devient encore plus marqué : certaines études rapportent que la grande majorité des patients sont exposés à au moins une interaction potentielle. Autrement dit, il ne s’agit pas d’une situation rare ou exceptionnelle, mais d’une réalité fréquente du quotidien, particulièrement chez les personnes âgées.

Alcool et médicaments : une relation qui n’est pas neutre

Lorsque l’on prend un médicament, celui-ci ne fait pas qu’« agir » dans notre organisme. Il est absorbé, distribué dans notre corps, transformé par le foie, puis éliminé. Toutes ces étapes constituent la pharmacocinétique du médicament. Et l’alcool peut interférer avec chacune d’elles.

Le foie joue ici un rôle central. En effet, c’est lui qui métabolise non seulement l’alcool, mais aussi une grande partie des médicaments. Or, lorsque deux substances empruntent les mêmes voies biologiques, elles peuvent se gêner mutuellement.

Mécanismes par lesquels l’alcool modifie l’efficacité des médicaments. Naouras Bouajila

Deux situations doivent être distinguées, la consommation ponctuelle et la consommation régulière, car leurs effets sur les traitements ne sont pas les mêmes.

Consommation ponctuelle : quand le médicament s’accumule

Lors d’une prise aiguë d’alcool, un apéritif, un dîner arrosé, une soirée, l’organisme mobilise en priorité ses systèmes de dégradation de l’éthanol, notamment au niveau hépatique. Pour cela, le foie utilise diverses enzymes. Or, certains médicaments sont métabolisés par ces mêmes enzymes. Résultat : ceux-ci sont éliminés plus lentement. Leur concentration dans le sang augmente, ce qui augmente le risque d’effets indésirables ou de toxicité.

Ce phénomène peut être particulièrement problématique avec les médicaments dits « à marge thérapeutique étroite », c’est-à-dire ceux pour lesquels un faible écart de dose ou de concentration peut suffire à provoquer un effet excessif ou dangereux.

Autrement dit, un verre peut parfois faire « trop agir » un médicament.

Consommation régulière : quand le traitement devient moins efficace, ou plus toxique

À l’inverse, une consommation chronique d’alcool modifie durablement le fonctionnement du foie. Celui-ci augmente la production de certaines enzymes de biotransformation (notamment le cytochrome P450 2E1 ou CYP2E1). Ce phénomène est appelé « induction enzymatique ». Conséquence : certains médicaments sont dégradés plus rapidement qu’attendu. Ils restent moins longtemps à des concentrations efficaces, ce qui peut réduire leur effet thérapeutique.

Par ailleurs, cette adaptation a un revers. Elle favorise aussi la formation de métabolites réactifs, parfois toxiques. L’exemple le plus connu est celui du paracétamol. Après avoir été absorbé, une partie de ce médicament est transformée en un composé toxique pour le foie, la N-acétyl-p-benzoquinone imine (NAPQI). Normalement, ce métabolite est neutralisé par un composé appelé glutathion.

Schéma expliquant les raisons de la toxicité accrue du paracétamol en cas de consommation d’alcool
En cas de consommation d’alcool, la toxicité du paracétamol peut être accrue. DR, Fourni par l'auteur

Cependant, chez les consommateurs chroniques d’alcool, la production de NAPQI peut augmenter, car le foie fabrique de plus grandes quantités de l’enzyme CYP2E1, qui transforme le paracétamol en métabolite toxique. Dans le même temps, les réserves de glutathion diminuent : elles sont davantage consommées pour neutraliser ce toxique, et souvent moins bien reconstituées en raison de l’alcool, de la dénutrition ou d’une maladie du foie. Cela majore le risque de lésions hépatiques, parfois même lorsque les médicaments sont pris à des doses usuelles.

Distribution, déshydratation, élimination : des effets moins visibles mais importants

L’alcool ne perturbe pas seulement le métabolisme.

La déshydratation qu’il favorise peut réduire le volume de distribution de certains médicaments hydrosolubles (solubles dans l’eau, ndlr) et augmenter leur concentration dans le plasma sanguin.

Les modifications de la composition corporelle observées chez certains consommateurs chroniques d’alcool, notamment une augmentation relative de la masse grasse, peuvent aussi favoriser l’accumulation de molécules lipophiles (qui présentent une « attirance » pour les tissus gras) et prolonger leur durée d’action.

Enfin, lorsqu’une consommation prolongée a altéré le foie ou les reins, les capacités d’élimination diminuent. Les médicaments s’accumulent alors plus facilement, exposant à un risque accru de surdosage ou d’effets indésirables prolongés.

Souvent invisibles pour le patient, ces mécanismes modifient profondément l’équilibre entre bénéfice et risque du traitement.

Soulignons que, lors du développement d’un médicament, certaines interactions pharmacocinétiques peuvent être étudiées, notamment si un risque est suspecté. Toutefois, les essais cliniques incluent souvent peu de buveurs importants. En outre, ils excluent les patients fragiles et évaluent mal les consommations réelles d’alcool (ponctuelles, chroniques ou variables).

Après la mise sur le marché, la pharmacovigilance peut détecter des signaux d’alerte, mais l’alcool est fréquemment sous-déclaré ou non recherché. Résultat : de nombreuses interactions avec l’alcool restent probablement sous-estimées et passent donc sous les radars.

Quand les effets s’additionnent : les interactions pharmacodynamiques

L’alcool peut aussi interagir directement avec les effets des médicaments sur l’organisme. On parle alors d’« interactions pharmacodynamiques ».

Dans ce cas, l’alcool ne change pas forcément la concentration ou la distribution du médicament, mais la manière dont le corps y répond.

L’alcool agit principalement comme un dépresseur du système nerveux central (cerveau et moelle épinière). Il en renforce le principal système inhibiteur (la transmission GABAergique), tout en freinant le fonctionnement de structures moléculaires impliquées dans l’excitation neuronale (les récepteurs glutamatergiques NMDA).

Ce double effet entraîne sédation, ralentissement psychomoteur, troubles de la vigilance, altération des réflexes et baisse des performances cognitives. En d’autres termes, l’alcool ralentit l’activité générale du cerveau ainsi que le fonctionnement du corps et diminue le niveau d’éveil.

Lorsque des médicaments agissant sur ces mêmes voies sont associés à l’alcool, leurs effets ne s’additionnent pas simplement : ils se potentialisent. C’est le cas notamment :

  • des benzodiazépines (par exemple, l’alprazolam – nom commercial Xanax – ou le bromazépam – nom commercial Lexomil) ;

  • des hypnotiques (par exemple, le zolpidem – nom commercial Stilnox – ou la zopiclone – nom commercial Imovane) ;

  • des opioïdes (par exemple, la morphine, que l’on trouve notamment dans le médicament commercialisé sous le nom de Tramadol) ;

  • de certains antihistaminiques sédatifs (par exemple, l’hydrozine – nom commercial Atarax ou la dexchlophéniramine – nom commercial Polaramine) ;

  • de plusieurs psychotropes (par exemple, Tercian pour la cyamémazine, Largactil pour la chlorpromazine).

Sur le plan clinique, cela peut se traduire par une somnolence majeure, une confusion, des troubles de la coordination, des chutes, des accidents domestiques ou de la route.

Dans les cas les plus graves, en particulier avec les opioïdes ou certains anxiolytiques, la dépression du système nerveux central peut atteindre les centres respiratoires et devenir potentiellement fatale, les patients n’étant plus capables de respirer.

Une réaction parfois brutale : l’effet « antabuse »

Certaines interactions sont plus spectaculaires encore. En temps normal, l’alcool est transformé en acétaldéhyde, puis rapidement converti en acétate grâce à une enzyme appelée aldéhyde déshydrogénase (ALDH).

Mais certains médicaments bloquent cette seconde étape. L’acétaldéhyde s’accumule alors dans l’organisme, provoquant une réaction dite de type « antabuse ».

Les symptômes peuvent apparaître rapidement : rougeur du visage, céphalées, nausées, vomissements, tachycardie, hypotension, malaise intense.

Ce mécanisme est utilisé volontairement avec le disulfirame dans la prise en charge de la dépendance à l’alcool. Le principe n’est pas de « guérir » directement l’addiction, mais de créer une forte dissuasion : si la personne boit, elle risque un malaise rapide et désagréable.

Si le disulfirame est bien un médicament (en médecine, un traitement peut agir soit en corrigeant un mécanisme biologique, soit en modifiant un comportement ou en prévenant une rechute), son utilisation soulève toutefois des questions éthiques : elle n’est acceptable que si le patient est clairement informé, volontaire et accompagné médicalement. Aujourd’hui, il est moins utilisé qu’autrefois, mais peut rester utile dans certaines situations bien encadrées.

Des réactions similaires peuvent aussi survenir avec d’autres médicaments, notamment certains antibiotiques, comme le métronidazole, ou certains antifongiques.

Il faut avoir à l’esprit que, parfois, de faibles quantités d’alcool suffisent, y compris celles contenues dans des sirops, des bains de bouche ou dans certaines préparations alimentaires…

Des interactions fréquentes avec des traitements très courants

Le sujet des interactions avec l’alcool dépasse largement les médicaments « à risque évident ». Certains médicaments utilisés couramment sont aussi concernés par cette problématique.

– Anticoagulants et antithrombotiques : la consommation chronique d’alcool peut augmenter le risque hémorragique. Elle favorise les lésions digestives (gastrites, ulcères, varices œsophagiennes), perturbe l’agrégation plaquettaire et peut altérer la coagulation via l’atteinte hépatique ;

– Antihypertenseurs : une consommation aiguë peut entraîner une vasodilatation (dilatation des vaisseaux sanguins), une chute tensionnelle, des vertiges ou une syncope. À l’inverse, une consommation chronique favorise l’hypertension et peut compliquer le contrôle du traitement ;

– Diurétiques et bêtabloquants : l’association peut majorer l’hypotension. Dans certains cas, l’alcool peut aussi aggraver bradycardie ou malaise ;

– Psychotropes, anxiolytiques, hypnotiques, antidépresseurs, antipsychotiques : l’alcool augmente souvent la sédation, la confusion, les troubles de la mémoire et le risque de chute ;

– Antidiabétiques : l’alcool inhibe la production de glucose (néoglucogenèse) au niveau du foie, ce qui peut favoriser des hypoglycémies parfois sévères, notamment chez les patients traités par insuline ou certains médicaments hypoglycémiants ;

– Traitements anticancéreux : l’alcool peut majorer la toxicité hépatique, aggraver fatigue, troubles digestifs ou atteintes cutanées et, parfois, interférer avec le métabolisme de certaines molécules.

Illustration des classes de médicaments dont la pharmacodynamique est affectée par l'alcool.
Les classes de médicaments dont la pharmacodynamique est affectée par l'alcool. Naouras Bouajila, Fourni par l'auteur

Un risque qui explose chez les personnes âgées

Les personnes âgées constituent probablement la population la plus exposée aux interactions entre alcool et médicaments.

En effet, avec l’âge, la polymédication devient fréquente. Une part importante des plus de 75 ans prend plusieurs médicaments de façon concomitante, parfois jusqu’à cinq, voire davantage. Or, plus le nombre de traitements augmente, plus le risque d’interactions s’accroît.

S’ajoutent à cette situation des modifications physiologiques en lien avec la vieillesse, telle qu’une diminution de la masse hydrique (la quantité d’eau contenue dans le corps), qui favorise l’augmentation de la concentration sanguine d’alcool. L’augmentation relative de la masse grasse prolonge quant à elle l’action de certains médicaments lipophiles, tandis que la baisse des fonctions rénale et hépatique ralentit l’élimination des médicaments ainsi que, parfois, de leurs métabolites actifs ou toxiques, favorisant leur accumulation et augmentant le risque d’effets indésirables. Enfin, avec l’âge, le cerveau devient plus sensible aux substances sédatives.

Les interactions entre médicaments et alcool se traduisent souvent chez les personnes âgées par des chutes, des fractures, une confusion aiguë, des accidents médicamenteux qui entraînent hospitalisations et perte d’autonomie.

Soulignons que, dans ce contexte, même une consommation d’alcool jugée « modérée » peut produire des effets disproportionnés.

Pourquoi parle-t-on si peu de ce problème ?

Plusieurs raisons peuvent expliquer le fait que la question des interactions entre médicaments et alcool soit si peu abordée : parce que l’alcool est culturellement banalisé ; parce qu’évoquer sa consommation peut paraître intrusif ; parce que le temps manque souvent au comptoir ou en consultation ; parce que ces interactions semblent moins inquiétantes que celles qui peuvent se produire avec d’autres médicaments, etc.

Mais ignorer la question ne la fait pas disparaître. L’alcool est une substance biologiquement active, capable d’interagir avec de nombreux traitements. À ce titre, il devrait faire partie du dialogue thérapeutique, de la même façon que les allergies, le tabac ou les autres médicaments pris en parallèle en font partie. Aujourd’hui, demander à un patient s’il fume est devenu un réflexe de prévention. Demander s’il boit de l’alcool devrait l’être tout autant.

Alors, la prochaine fois que votre médecin rédigera votre ordonnance, ou que vous irez retirer vos médicaments à la pharmacie, demandez simplement : « Y a-t-il une interaction possible avec la consommation d’alcool, même occasionnelle ? »

Cette question, si elle était plus souvent posée de part et d’autre du comptoir, pourrait éviter bien des accidents silencieux…


Pour aller plus loin

– La Société française d’alcoologie et d’addictologie (SF2A) réalise actuellement un guide à destination des professionnels de santé sur les interactions alcool et médicaments ;

– Sur le site de la SF2A, la page AlcoolConsoScience met à la disposition des professionnels de santé des informations scientifiquement validées sur l’impact de la consommation d’alcool sur la santé.

The Conversation

Mickael Naassila est membre sénior de l'Institut Universitaire de France IUF. Il est Président de la Société Française d'Alcoologie et d'Addictologie (SF2A) et de la Société Européenne de Recherche Biomédicale sur l'Alcoolisme (ESBRA); Vice-président de la Fédération Française d'Addictologie (FFA) et vice-président sénior de la Société Internationale de recherche Biomédicale sur l''Alcool et les Addictions (ISBRA). Il est membre de l'institut de Psychiatrie, co-responsable du GDR de Psychiatrie-Addictions et responsable du Réseau National de Recherche en Alcoologie REUNIRA et du projet AlcoolConsoScience. Il a reçu des financements de l'ANR, de l'IReSP/INCa Fonds de lutte contre les addictions.

Naouras Bouajila a reçu des financements du Fonds de lutte contre les addictions de la Caisse nationale de l’Assurance maladie.

Camille André ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

28.04.2026 à 10:49

Delving into One Health’s vision to better protect people, animals and the planet from future health crises

François Roger, Directeur régional Asie du Sud-Est, vétérinaire et épidémiologiste, Cirad

Marie-Marie Olive, Chercheuse en épidémiologie, Cirad

In the wake of the WHO’s One Health summit, a new atlas explores the interdependency between environmental, health and food security issues, and strategies for supporting sustainability and the welfare of all life forms.
Texte intégral (722 mots)

Climate-sensitive diseases and zoonoses, antimicrobial resistance (AMR), sustainable food systems and exposure to pollution – the main factors fuelling infectious and non-communicable diseases were the focus of this year’s One Health Summit.

These hot topics for the global health community are central to One Health Atlas – a comprehensive, science-led guide to the wealth of initiatives behind the “One Health approach”.

Below is an excerpt from the book, which maps out the interconnections between human, animal, plant and environmental welfare and details One Health’s widely endorsed but “difficult-to-fund approach” :

Interest in One Health has risen among health institutions at local, regional and global levels, particularly since the 2019 SARS-CoV-2 pandemic.

The One Health approach, which acknowledges the interdependence between human, animal and ecosystem health, is now promoted by the Quadripartite Alliance₁.

It has also been mainstreamed by international financial institutions, such as in the World Bank’s One Health Operational Framework and the IDA20 Policy Commitments on One Health. Donors have begun providing funding or financing (…), not only in pandemic prevention, preparedness and response (PPR), but also increasingly in other streams focused on biodiversity, climate change and more.

However, the financing landscape is highly fragmented with many vertical, mostly public health-centric mechanisms.

They often react to health crises, rather than reducing risk at the source or breaking the panic– neglect cycle. The COVID-19 crisis triggered a paradigm shift, and specific (although limited) funding dedicated to One Health is now emerging, with two major initiatives worth noting.

In 2020, the French Development Agency (AFD) launched its NGO Sector Innovation Facility (FISONG OH), an innovative financial mechanism to support One Health. Initially intended for general NGO financing, this fund provided EUR 2.5 million for One Health projects in 2020.

In 2022, the World Bank (in collaboration with WHO) established the Pandemic Fund, a Financial Intermediary Fund designed to provide a dedicated stream of long-term financing to strengthen PPR capabilities in low- and middle-income countries. This fund has generated nearly USD 2 billion and supports One Health initiatives in 80 % of its projects. The Pandemic Fund managed to raise six US dollars for every dollar in grant funds.

Pragmatic approaches for One Health investments have been proposed through frameworks considering risks, co-benefits and stakeholder financial capacity for a fairer distribution of costs and benefits.

The Pandemic Fund’s first call for proposals also showed strong demand from beneficiary countries for strengthening public health systems, while raising questions about their capacity to effectively integrate One Health into their health systems.

These concerns echo the debates over the inclusion of One Health and financing provisions in the 2025 international Pandemic Agreement, which seeks to strengthen global preparedness for future health crises.

₁. The World Health Organization (WHO), the World Organisation for Animal Health (WOAH), the Food and Agriculture Organization of the United Nations (FAO), and the United Nations Environment Programme (UNEP).


More than 170 online and offline events are being held across France and internationally as part of the ongoing One Health Festival until May 15.

Passages by Camille Caffier, Franck Berthe, Marisa Peyre from The One Health Atlas were featured in this article.

The Conversation

François Roger is affiliated with CIRAD, a member of the PREZODE (Preventing Zoonotic Diseases Emergence) programme.

Marie-Marie Olive is affiliated with CIRAD, a member of the PREZODE (Preventing Zoonotic Diseases Emergence) programme.

PDF

28.04.2026 à 09:47

The truth about cats and dogs and the links between pet attachment and mental health

Tiphaine Blanchard, enseignante en gériatrie et nutrition vétérinaire, École Nationale Vétérinaire de Toulouse; Inrae

An original new study on pet ownership assesses how attached people are to their cats and dogs in order to understand the emotional connection and the associated health benefits at all ages.
Texte intégral (1663 mots)

Pets aren’t just mere companions, they play an active role in improving their owners’ wellbeing. But what does this connection tell us about our lifestyles? A recent study by the National Veterinary School of Toulouse has gauged how attached French pet owners are to their cats and dogs.

Animals – our best mental health allies

The benefits of an animal’s presence on human health are common knowledge. Many studies associate them with cardiovascular risk reduction and show how they can help reduce stress, especially among people who have a strong emotional bond with their pet.

Dog owners, for example, walk more, have a more active social life, and are less likely to experience depression. Among the elderly, studies suggest that the presence of an animal helps to preserve cognitive abilities, such as memory, as well as morale, while in children it promotes learning empathy and responsibilities.

This link is not only behavioural: it also affects our emotional needs. In a society marked by loneliness, anxiety and aging of the population, a dog or a cat sometimes becomes a real psychological support, capable of creating a sense of stability and usefulness in everyday life.

However, this relationship, which although beneficial in many cases, can also become a source of emotional distress. Some people develop an anxious attachment to their pet, characterised by excessive worry at the thought of separation or when the animal falls ill.

In elderly people, even without acute attachment anxiety, forced separation from their pet due to a hospital stay or admission to a nursing home often represents real trauma, as the animal is part of their emotional equilibrium and daily life.

The human-animal relationship as a therapeutic tool

The positive effects of the human-animal bond have now been put to good use in several hospitals and medical welfare programs.

The presence of animals in nursing homes can promote exchanges, rekindle memories, and temporarily help to break the feeling of loneliness among residents. Offering animal mediation in psychotherapy sessions for adolescents is also beneficial. Finally, in some paediatric units, particularly in oncology, specially trained animals accompany patients during care to reduce anxiety and improve wellbeing over the duration of the hospital stay.

More recently, several French police stations introduced kittens to appease victims of violence, an approach inspired by measures already implemented in other parts of the world.

For example, in the United States, specially trained dogs are being brought into some police stations and courtrooms to support victims during hearings. To date, there is no scientific data evaluating their impact in this specific context, but the testimonies are positive. Furthermore, benefits have been reported among professionals: a study with Canadian police officers showed that the presence of dogs in their work environment was perceived to reduce stress and improve wellbeing.

This theme deserves to be explored by dedicated research work to study how contact with an animal helps restore a sense of security post-trauma.

These initiatives, which are becoming more and more widespread, are all based on the same idea: to reinforce human health by building on the relationship with animals. Understanding the complex links between wellbeing, dependency and vulnerability requires a reliable survey instrument, which hadn’t been the case in France until recently.

A first step on the ladder to understanding pet attachment

To gain a better understanding of the pet/owner relationship, the Lexington Attachment to Pets Scale (LAPS) makes it possible to quantify emotional attachment between a pet owner and their pet across 23 topics (for example “My pet knows when I am feeling bad”). Until very recently France didn’t have an assessment method for pet attachment.

Nearly 1,900 French dog and cat owners responded to the survey.

How is pet attachment evaluated?

The LAPS scale assigns an attachment score of 0 to 69 (a high score reflects a stronger attachment of an owner to their animal).

In France, dog owners obtained a median score of 58.5 compared to 52 for cats, which is higher than in England, Denmark, or Austria!

Marked differences depending on owners’ profiles

The study highlights several factors influencing the achievement score:

  • Women score higher than men, a result also observed in other countries.

  • People living without children also have a higher score, as their animals can sometimes play the role of substitute family figures.

  • Dog owners have a higher score than cat owners, perhaps due to more active interaction.

  • People with a higher level of education score lower, perhaps because they tend to express their emotional attachment less.

These trends reflect deep social realities. In a society where loneliness is increasing, families are being reconstituted and remote work is becoming more widespread, animals play a role that’s increasingly affective. They soothe, structure daily life and fill a need for connection that human relationships don’t always satisfy.

When our dogs and cats become our attachment figures

In psychology, attachment theory describes our fundamental need for security and reassurance with an “attachment figure”, often a parent, partner, or… an animal.

Dogs, which are more demonstrative, offer emotional interaction similar to children: they solicit, provoke, and express joy. Cats, which are more independent, sometimes require a more “projective” form of attachment, where the owner interprets their signs of affection.

These differences explain why dogs get higher attachment scores: they actively respond to our human need for connection and reciprocity. But among all the owners, attachment remains something that is real.

What about the impact of pets’ health on their owner’s health?

The French version of the LAPS scale is already being used for other research in France.

One of the research projects is focusing on the impact of dog osteoarthritis on the daily life of its owners. When an animal suffers, it is often the whole household that bears the consequences. People in France can participate in this new study by completing an online questionnaire.

The questionnaire is open to all dog owners in France, whether or not they are affected by osteoarthritis, in order to improve understanding of how dogs’ health affects their owners’ health, and to improve care for dogs and their families.


A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!


The Conversation

Tiphaine Blanchard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

27.04.2026 à 15:56

Affaire Grasset : la relation auteur-éditeur, une ressource précieuse et menacée

Olivier Bessard-Banquy, Professeur des universités, spécialiste du livre et de l'édition période contemporaine, Université Bordeaux Montaigne

Que devient la relation entre un auteur et son éditeur quand les logiques d’influence supplantent les logiques littéraires ?
Texte intégral (1807 mots)

Le limogeage d’Olivier Nora, à la tête de la prestigieuse maison d’édition Grasset depuis vingt-six ans, a entraîné le départ concerté de 200 auteurs, choqués par le séisme provoqué par Vincent Bolloré. Si le couple auteur-éditeur a traversé deux siècles d’histoire du livre, en France, il n’avait jamais encore affronté une telle mise à l’épreuve.

(Déclaration d’intérêts : Didier Pourquery, président de l’association The Conversation France, fait partie des auteurs ayant déclaré qu’ils quittaient Grasset à la suite du limogeage d’Olivier Nora.)


Le départ de plus de 200 auteurs – signant la fin du label fondé par Bernard Grasset en 1907 – dit assez le choc que constitue le limogeage d’Olivier Nora, démis de ses fonctions par les dirigeants du groupe Hachette, sous la coupe de Lagardère que contrôle Vincent Bolloré par l’intermédiaire de Vivendi, mais aussi le lien fort qui unit l’éditeur à ses auteurs.

Tout a été dit déjà sur les causes de cette démission forcée et sur la façon dont ce nouveau capitalisme aux puissants ressorts idéologiques entend imposer son logiciel non pas seulement au cœur d’une maison reprise – Fayard qui a publié, depuis, Marion Maréchal-Le Pen –, mais bien à l’ensemble du groupe Hachette, le premier de l’édition française, dont on vient de célébrer le bicentenaire.

C’est qu’un éditeur n’est pas du tout aux yeux de ses auteurs un simple industriel au service de leur œuvre, comme le rappelle Anthony Glinoer dans son livre Être éditeur. Il est leur premier lecteur, celui qui les aide à perfectionner leurs pages, mais il est aussi celui qui les protège, qui les défend et qui, en leur permettant de trouver place au cœur d’un catalogue, riche d’une histoire qui en impose, leur donne une force de groupe.

S’inscrire dans une descendance

Qu’y a-t-il de plus prestigieux pour un jeune auteur que de démarrer sa carrière dans la collection « Blanche » chez Gallimard, là même où ont été proposées au public les œuvres de Gide, Proust, Malraux, Saint-Exupéry, Sartre ou Camus, parmi tant d’autres ?

Tous ceux qui ont été accueillis chez Grasset par Olivier Nora ont pu, eux aussi, s’inscrire dans une descendance, prolonger la longue histoire d’une fabrication d’événements littéraires de premier ordre, depuis le lancement de Raymond Radiguet dans les années 1920, les réussites éclatantes avec la révélation d’auteurs, comme Irène Némirovsky, et toutes les parutions heureuses de Jean Cocteau, d’Henry de Monfreid ou de Bruce Chatwin sans oublier les classiques Lettres à un jeune poète, de Rilke, ou le Nom de la rose d’Umberto Eco, parmi tant d’autres, comme l’a rappelé Pascal Fouché dans sa tribune au Monde.

De François Mauriac à Charles Bukovski, l’évolution de la maison Grasset a pu surprendre. Mais elle est restée une maison généraliste, pluraliste, où toutes sortes de sensibilités, littéraires ou politiques, ont pu s’exprimer. Olivier Nora poussé dehors, c’est la garantie de cette diversité qui disparaît – et, avec elle, tout le professionnalisme d’équipes dévouées pour assurer le plus grand rayonnement à l’œuvre des créateurs.

Le couple auteur-éditeur, indissociable de l’histoire de l’édition

Depuis le XIXᵉ siècle et l’affirmation de la figure de l’éditeur, ce professionnel au carrefour de la culture et de l’économie n’a cessé de nouer des liens toujours plus forts avec ses auteurs. Quand les espérances de vente ont pu devenir plus importantes, quand les plumes ont eu le légitime espoir de réussir à percer grâce au travail des maisons qui les ont portées, les écrivains n’ont pas tardé à saisir tout l’intérêt de lier leur destinée à celle d’un patron capable de transformer la valeur littéraire en valeur marchande.

Ernest Renan a été l’un des premiers à saluer l’action efficace de son éditeur, Michel Lévy ; toute l’histoire du livre est riche de ces couples légendaires que sont Gracq et Corti, Beckett et Lindon ou Perec et POL, après Verne et Hetzel ou Céline et Denoël.

Le soutien sans faille des auteurs Grasset en faveur d’Olivier Nora suffit à dire combien ce patron charismatique a su les publier au mieux – de ce point de vue la tribune publiée par Vincent Bolloré dans le JDD du 19 avril paraît tout aussi peu recevable que choquante. Peu d’éditeurs eussent fait mieux que le patron limogé à la tête de Grasset quand on sait qu’il a eu à affronter la séduction plus flamboyante que jamais de la NRF, la débrouillardise étonnante d’Albin Michel, la force d’attraction du Seuil toujours vive, dans un contexte de tassement des lectures ou de montée en puissance de l’occasion au détriment du livre neuf.

Recherche de rentabilité

Sans nul doute, au fur et à mesure des rachats de maisons au fil des ans, après 1945, tantôt par Hachette, tantôt par Gallimard ou le Groupe de la Cité, les auteurs ont-ils appris à distinguer la figure de l’editor, chargé de les suivre au sein de la maison, du publisher, présidant aux destinées de la marque.

Mais la très forte dimension personnelle du lien auteur-éditeur, rappelée par Sylvie Perez dans son livre Un couple infernal, a sans doute longtemps occulté la question pourtant devenue prégnante du capital tapi derrière le label. La parution de l’Édition sans éditeurs, d’André Schiffrin, en 1999 a fait prendre conscience des mutations en cours dans un contexte de concentration accrue dans le monde des médias et de la recherche furieuse de rentabilité maximale au sein des conglomérats du livre au détriment de toute logique éditoriale.

La brutalité avec laquelle les maisons du groupe Hachette sont sommées de s’adapter à ce qu’est l’idéologie qui doit animer l’ensemble des marques récupérées bouleverse toute l’édition, car il apparaît évident que la relation auteur-éditeur aujourd’hui ne peut plus être déconnectée des risques qui peuvent peser sur les maisons demain, quand elles seront peut-être reprises par des intérêts inconnus aux projets insondables.

La question de la clause de conscience que de plus en plus d’auteurs appellent de leurs vœux mérite assurément d’être étudiée – quand bien même elle demeure en l’état difficile à mettre en œuvre s’il s’agit de rendre tous les catalogues des maisons virtuellement vides en cas de départ des auteurs. C’est toute une nouvelle réflexion juridique qui doit être envisagée, débouchant peut-être sur de nouvelles dispositions légales afin que des équilibres soient trouvés. Pour donner toute forme de liberté possible aux auteurs sans vider les marques de leurs richesses.

Les petites maisons d’édition dans ce dispositif ont-elles une carte à jouer ? Sont-elles moins concernées que les grandes par ces menaces de mise au pas politique ? On peut le croire à première vue, car on voit mal de belles marques, comme Le Temps qu’il fait, comme L’Échappée, comme Allia, se vendre à de nouveaux propriétaires susceptibles de suivre la voie de la « trumpisation » de la culture.

Mais les malheurs de quelques maisons, vendues puis revendues, tombées de Charybde en Scylla, montre que tout est possible. La NRF dans les années 1980 n’a-t-elle pas été à deux doigts d’être reprise par Bouygues ?.

Bien malin qui peut dire ce que l’avenir du livre réserve aux maisons généralistes d’aujourd’hui sans le moindre projet politique. Car le livre comme la presse demeurent des secteurs attirants pour de grands argentiers qui pensent ainsi pouvoir faire triompher leurs idées et manipuler l’opinion. Il s’agissait jadis d’investissement, il s’agit désormais d’influence. Personne n’est à l’abri nulle part. Minuit, Bourgois, POL ont pu glisser dans le portefeuille des Gallimard, sans dommage, mais qu’en sera-t-il demain ?

Les rapports entre auteurs et éditeurs en sont forcément modifiés. Non qu’ils ne puissent plus se nouer dans la confiance. Mais s’ils sont idylliques le lundi, qu’est-ce qui prouve que la donne capitalistique ou idéologique ne s’en trouvera pas modifiée le mardi ?

The Conversation

Olivier Bessard-Banquy ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

27.04.2026 à 15:55

Libéraux et conservateurs ont-ils raison de s’attaquer à l’assistanat et à l’État social ?

Érik Neveu, Sociologue, Université de Rennes 1 - Université de Rennes

Les révolutions conservatrices et libérales ont attaqué l’État-providence en faisant du volontarisme individuel la réponse à des problèmes pourtant systémiques.
Texte intégral (2348 mots)

Les révolutions conservatrices et libérales ont reconfiguré l’action publique à l’origine des États-providence. Prétendant résoudre les phénomènes supposés d’assistanat et d’essor bureaucratique, les nouvelles formes d’action publique ont surtout déplacé les dysfonctionnements sociaux. Le volontarisme individuel ne saurait répondre à des problèmes d’ordre systémique.


L’expression « culture des problèmes publics » a été proposée par le sociologue états-unien Joseph Gusfield. Il désigne par là ce qui était devenu dans l’après-guerre une manière de sens commun quant aux façons d’identifier et de gérer dossiers et enjeux devenus assez saillants pour apparaître comme des problèmes à traiter. Si elle plonge ses racines dès le XIXᵉ siècle et les mobilisations autour de la « question sociale », cette culture va triompher avec les Trente Glorieuses (1945-1975, ndlr).

Elle se condense dans un schéma simple. Une situation, un rapport social est constitué – souvent par des mobilisations – comme injuste et problématique, et ainsi perçu par une large part de l’opinion. L’État est invité à y répondre. Il le fait par un double processus. D’une part, par la reconnaissance d’un « droit à » : la protection contre les accidents du travail, l’interruption volontaire de grossesse, la formation continue… D’autre part, par la désignation ou la création d’un corps d’agents publics pour répondre au problème ainsi reconnu. On pensera à la création des inspecteurs du travail, plus tard des travailleurs sociaux, ou encore d’agents surveillant les atteintes à l’environnement.

Une culture en actes

Cette culture des problèmes publics a donné naissance à des « institutions-cathédrales » (comme la sécurité sociale), contribué à protéger de nombreux risques, limité une partie des inégalités que produit une société sans régulations. On peut aussi la lire comme une police d’assurance contre des changements sociaux radicaux. À l’image de ce que souligne Martin Lipsky dans un ouvrage classique sur le travail des « bureaucrates de terrain », il est moins contraignant de doter un quartier pauvre d’un foyer socioculturel, d’un dispensaire et d’un poste de police avec leurs fonctionnaires que de réduire les inégalités scolaires, celles de revenus et de patrimoines.

Cette culture des problèmes publics s’est incarnée dans des variantes de l’État social, tributaires des histoires et des singularités nationales. Si Bismarck a donné son nom au système « bismarckien » d’État-providence, c’est que dans le dessein de contrer les socialistes allemands, il a dans les années 1880 combiné au bâton de la répression un système basé sur des cotisations, d’abord d’assurances maladie et accident, puis de retraite. Aux États-Unis, ce sera davantage la question de la protection des anciens combattants de la guerre de Sécession et de leurs familles qui suscitera de premières lois sociales.

Le politiste danois Gøsta Esping-Andersen a proposé une typologie de ces États sociaux. On peut ainsi identifier parmi eux un système libéral, qui met le marché au centre (notamment via un système d’assurances volontaires). Celui-ci cible aussi les aides publiques sur les plus démunis, dans des conditions qui peuvent les stigmatiser, comme le symbolise la catégorie du « cassos » en France, ou le mythe de la « Welfare Queen » aux États-Unis.

Dans le modèle « conservateur corporatiste », la place de l’État est centrale, mais les droits sociaux sont initialement dépendants du statut de salarié (longtemps largement masculin), avant de s’élargir via un financement par l’impôt après 1945.

Enfin, le modèle social-démocrate d’Europe du Nord offre à des bénéficiaires nombreux une large palette de garanties et de services publics, financés par l’État sur la base d’un impôt très progressif. Si l’étendue des droits reconnus ainsi que la place dévolue aux marchés et acteurs privés varient, la formule génératrice de ces modèles est, elle, fixe : reconnaissance d’un problème – traduction en un « droit à » protecteur – déploiement d’une réglementation et de professionnels spécifiques pour sa mise en œuvre.

Le procès de l’État-providence

Avec les révolutions conservatrices des années Reagan-Thatcher, c’est le noyau de ce sens commun qui est remis en cause. On reproche aux « bureaucraties » du « Welfare State » (l’équivalent en anglais de l’expression « État-providence ») d’être peu productives. Elles seront bientôt soumises au « New Public Management » qui, encadrant toute activité dans un réseau de hiérarchies plus fermes et de mesures statistiques, promet d’objectiver et de conforter la productivité.


À lire aussi : Les origines néolibérales de la mondialisation : retour sur l’émergence d’un ordre géopolitique aujourd’hui menacé


On reproche aussi aux « bureaucrates » une tendance à identifier sans fin de nouveaux problèmes et besoins d’intervention, qui ont pour effet d’élargir leur juridiction et leurs effectifs. Un adage ironique disait des missionnaires : « Ils vinrent faire le bien. Ils restèrent et s’en trouvèrent bien. » Il vaudrait ainsi pour les agents de l’État social qui – c’est un aspect du rapport « vocationnel » qu’elles et ils ont souvent à leur travail – se penseraient comme les porte-paroles de leurs « gens à problèmes ».

C’est encore la multiplication des causes et des revendications (minorités, environnement, santé publique) et des progrès techniques faisant passer certaines situations de contraintes fatales à la possibilité d’agir (comme l’infertilité avec la procréation médicalement assistée, par exemple) qui aboutiraient à une incessante inflation des effectifs et des budgets publics.

Dans la veine de ce qu’Hirschman a identifié comme les invariants d’une rhétorique réactionnaire, l’argument est aussi de souligner que les politiques destinées à conjurer les problèmes publics en créent de nouveaux : sous prétexte de lutter contre la ségrégation scolaire on ferait baisser le niveau global, les programmes de lutte contre la pauvreté auraient davantage fait croître le nombre des « assistés » qu’ils n’auraient réduit celui de malheureux.

Ce virage critique, alimenté par des visions conservatrices et néolibérales, en vient aussi à questionner le statut des bénéficiaires des aides publiques. Ont-ils ou font-ils des problèmes ? Seraient-ils toujours fondés à jouer de la plainte si l’obésité vient de comportements alimentaires malsains, si traire l’État-providence est une stratégie pour ne pas travailler ? Un trop de compassion et de « droits à… » aurait-il engendré le « cancer de l’assistanat » ?

Répondre aux problèmes en les individualisant

Si la critique de la culture des problèmes publics a pu aboutir à réduire des droits et des prestations, il serait injuste de soutenir qu’elle se réduit à l’obsession du moins de droits et de coûts, au déni de tous les malaises sociaux. Cette dernière propose surtout de répondre à ces problèmes en les individualisant.

Selon elle, c’est d’abord par un travail sur eux-mêmes que celles et ceux qui font face à des difficultés en sortiront. Aux femmes d’acquérir par des formations ou thérapies psychiques d’empowerment la confiance en elles-mêmes ou d’apprendre à optimiser leurs « atouts féminins ». Aux demandeurs d’emploi de sortir de l’assistanat en acceptant plus de mobilité spatiale et des emplois moins rémunérateurs. Alors ministre de l’économie, Emmanuel Macron avait ainsi expliqué les problèmes d’emploi d’ouvrières bretonnes du secteur sinistré de la volaille par leur « illettrisme »… auquel pourrait remédier un stage bien choisi.

Dans cette nouvelle culture, la solidarité n’est plus un droit inconditionnel, la réglementation n’est plus la voie royale des solutions. Priment désormais la logique contractuelle-conditionnelle, et un maillage d’incitations (les fameux nudges, « coups de coude » en anglais) qui n’ont pas forcément besoin d’État pour se structurer.

Un RSA ? Oui, mais le A soulignant une solidarité « active », il pourrait s’accompagner de l’obligation contractuelle de fournir des heures de service. Une allocation chômage ? Certainement, mais associée à la preuve d’un comportement actif et à l’impossibilité de refuser des offres décalées des expériences antérieures. Une politique de lutte contre la malbouffe qui engendre l’obésité ? Bien sûr, mais sans réglementation liberticide puisque s’affichent des Nutri-Scores et des injonctions à consommer cinq fruits et légumes par jour, et que même Coca-Cola incite ses consommateurs à faire du sport. Faut-il encore consacrer d’énormes ressources à une politique du trafic urbain quand il suffit de s’équiper de l’application Waze pour se jouer des bouchons ?

Renouveler la « nouvelle » culture des problèmes publics

Si la critique de la culture des problèmes publics a pu en souligner des inefficacités, des points aveugles, elle a également généré davantage de problèmes qu’elle n’a pu en résoudre. La pathologie du chiffre qui a consommé un temps croissant en production de statistiques a, par exemple, amené les policiers à remplacer du temps de terrain par du temps devant un clavier, et à ne pas enregistrer certaines plaintes pour ne pas avoir de mauvais chiffres.

La prise en charge des problèmes publics par le privé engendre elle-même de nouveaux problèmes : contourner l’État, c’est aussi se priver de ses agents quand il faut systématiquement vérifier le respect des règles. La complexité de certains dossiers et mécanismes de conditionnalité ont fait par ailleurs croître ce qu’on nomme le « non-recours » à des droits ou services. Si les finances publiques y gagnent, la justice moins.

La nouvelle culture des problèmes publics est, enfin, dépolitisante. Renvoyant à la responsabilité individuelle la genèse de bien des malaises, elle suggère l’oxymore du problème public privé. Mais les causes du réchauffement climatique, les réponses qu’il exige n’ont-elles pas une dimension plus structurelle que des négligences individuelles, toutes comparables ? Si 20 % des États-Uniens souffrent de difficultés relationnelles majeures, n’y aurait-il pas là le symptôme d’un dysfonctionnement social dont la solution n’est peut-être pas un open-bar d’anxiolytiques ? Cette culture promeut ainsi le chacun pour soi, et une vision du monde où – au-delà du caritatif – l’agir ensemble ne serait qu’énergie et argent gaspillés, voire probabilité de catastrophes liberticides.

Les économies radicales sur l’action publique ont, enfin, un coût – expansion de la pauvreté, déclin de la santé publique, canalisation des naufragés de l’État-providence vers des économies souterraines ou criminelles.

Mais si la nouvelle culture des problèmes publics peut être contestée sur ses résultats pratiques, elle doit tout autant l’être par les débats qu’elle rend impossibles ou biaisés en diabolisant tout ce qui est « public » et en faisant de l’initiative et du volontarisme individuels les seuls outils légitimes de réponse à des problèmes qui restent, quant à eux, obstinément systémiques.

The Conversation

Érik Neveu ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

27.04.2026 à 15:55

L’abondance impuissante : quand l’emballage prend sa revanche

Benoît Heilbrunn, Professeur de marketing, ESCP Business School

Le conflit entre les États-Unis et l’Iran pourrait provoquer une pénurie de plastique, une matière indispensable, notamment pour l’emballage, devenue critique.
Texte intégral (1785 mots)

L’incertitude persistante autour du conflit sur le détroit d’Ormuz n’affecte pas seulement le prix de l’énergie. Les matières plastiques directement issues du pétrole sont concernées. Avec un effet inattendu : des pénuries annoncées, notamment pour les produits d’emballage. Ce qui pose une question paradoxale : quel avenir pour le contenu si le contenant n’est plus ? Une question économique, mais aussi philosophique.


Nous croyons vivre dans une civilisation de la production, idée qui flatte notre vieux goût métaphysique pour les profondeurs. L’essentiel serait à l’intérieur : substance, matière, produit ; le reste ne serait qu’apparence, enveloppe, cosmétique. Or, c’est souvent l’accessoire qui finit par faire trébucher les empires.

Au printemps 2026, au plus fort de l’escalade entre les États-Unis et l’Iran, plusieurs alertes venues d’Asie ont montré qu’une économie pouvait être menacée non parce qu’elle n’avait plus de produits, mais parce qu’elle risquait de manquer de naphta, un intrant indispensable à la pétrochimie et donc à une partie des plastiques d’emballage. En Corée du Sud, on craignait ainsi des tensions sur les poches médicales, les seringues, les sacs et divers conditionnements. Comme quoi le problème n’est pas toujours l’absence de contenu mais la raréfaction du contenant.

Le paradoxe du contenant

Que devient alors le lait sans brique ou le médicament sans blister (coque de plastique transparent sur une base en carton, ndlr) ? La substance demeure, mais elle ne peut plus accéder à sa pleine existence marchande. Elle existe physiquement, mais pas encore socialement ni culturellement.

La séquence que nous traversons éclaire crûment la logique des chaînes de valeur mondiales. L’Organisation de coopération et de développement économiques (OCDE) rappelle qu’une large part du commerce international s’inscrit dans des chaînes globales où matières premières, composants, services et produits intermédiaires traversent les frontières à plusieurs reprises.

Dans un tel système, la marchandise est le résultat d’un empilement de médiations. Or, l’emballage appartient précisément à cette catégorie de médiations que l’on voit peu, mais dont l’absence paralyse tout.


À lire aussi : Les mythologies du plastique sont-elles réversibles ?


La forme avant la substance

Pour comprendre ce paradoxe, il faut déconstruire une opposition trop simple entre le contenu qui serait essentiel et le contenant qui ne serait qu’un support. La philosophie classique nous invite à penser autrement. L’hylémorphisme aristotélicien conçoit les êtres concrets comme des composés de matière et de forme : la matière n’existe pas vraiment comme chose pleinement déterminée sans la forme qui l’actualise.

Transposée à l’univers marchand, cette vieille leçon nous rappelle qu’un produit n’existe pas comme simple matière économique ; il n’existe qu’en tant qu’il est déjà pris dans une forme qui le rend visible, maniable, stockable, différenciable, transportable.

L’emballage n’habille pas le produit après coup. Il lui donne un mode d’existence. Il le fait passer de l’état de substance à l’état d’objet désirable et circulable.

Six cents millions d’euros d’investissements annuels

D’ailleurs, dans de nombreux univers, le packaging concentre parfois davantage de valeur économique et symbolique que le contenu lui-même. Selon les catégories, l’emballage peut représenter jusqu’à 30 à 40 % du coût du produit. Pour les boissons, l’Association nationale des industries alimentaires (ANIA) souligne qu’il peut représenter jusqu’à 50 % du bilan carbone sur l’ensemble du cycle de vie.

Quant au verre d’emballage, sa fédération européenne rappelle qu’il mobilise aujourd’hui plus de 150 projets de décarbonation et plus de 600 millions d’euros d’investissements annuels. Le contenant n’est donc pas un simple supplément esthétique ni un potentiel déchet : il constitue un poste économique majeur, parfois la partie la plus sensible du coût total. Là où le contenu est pauvre en valeur matérielle immédiate – eau, jus, produits dilués, biens fortement standardisés –, le pack peut devenir la partie décisive de la valeur marchande finale.

L’emballage comme frontière symbolique

Mais la portée de l’emballage ne s’épuise pas dans l’économie des coûts. Elle est aussi anthropologique.

L’anthropologue Mary Douglas a montré dans De la souillure (1967) que les sociétés organisent le monde à travers des frontières symboliques, entre le pur et l’impur, le propre et le sale, ce qui est à sa place et ce qui ne l’est pas. L’emballage contemporain peut être lu comme un petit dispositif de cette police symbolique. Il sépare physiquement le dedans du dehors mais symboliquement l’intègre du souillé. Le blister scellé, l’opercule intact, la bouteille transparente, le sachet stérile ou le carton inviolé sont des techniques, certes, mais aussi des gestes de purification matérielle.

L’emballage ne conserve pas seulement ; il garantit que le contenu est encore dans l’ordre, qu’il n’a pas été corrompu, touché, altéré. Il rejoue à petite échelle une grande opération anthropologique : mettre une chose à part pour la rendre acceptable.

C’est pourquoi l’on se trompe lorsqu’on dit qu’un emballage n’est qu’un support. Nous ne consommons presque jamais une substance nue mais une mise en scène. Nous consommons une substance déjà élevée à l’état de signe. Et c’est ici qu’il faut rappeler la formule célèbre de Claude Lévi-Strauss selon laquelle les nourritures « bonnes à manger » sont d’abord « bonnes à penser ».

La blancheur d’un pack de yaourt évoque la santé, la transparence d’une bouteille suggère la vérité, la texture d’un emballage fait déjà croire à la qualité de ce qu’il contient. Le marketing ne vend donc pas seulement des propriétés objectives ; il organise une dramaturgie perceptive où chaque détail matériel devient le support d’une croyance. Le produit séduit d’abord par son contenant. Et d’ailleurs, dans bien des secteurs, on consomme plus le pack que la substance.

Le contenant comme opérateur de culture

L’idée d’une crainte de pénurie de naphta aurait sans doute ravi Lévi-Strauss parce qu’elle met en jeu une inversion structurale entre le principal et le secondaire. Le structuralisme consiste, rappelons-le, à regarder les relations entre les termes et non leur évidence immédiate. Dans Mythologiques, et en particulier dans le tome 1, le Cru et le Cuit (1964), on voit comment des oppositions apparemment simples – cru et cuit, nature et culture, intérieur et extérieur – se compliquent dès qu’on les replace dans un système.

LCP, 2026.

Ici se joue une opposition du même genre : contenu et contenant. Spontanément, nous attribuons la valeur au contenu et nous reléguons le contenant au rang d’enveloppe extérieure. Or la crise inverse cette hiérarchie : c’est le contenant qui devient décisif, c’est lui qui commande l’existence sociale du contenu. Le terme supposé périphérique devient central ; le supposé accessoire devient la condition du nécessaire. Le packaging apparaît alors comme une sorte de cuisson sémiotique : il fait passer une substance du monde à l’état de marchandise.

Or, comme le rappelle l’anthropologue Philippe Descola, la séparation entre nature et culture n’est pas une évidence universelle mais un montage propre au naturalisme occidental. Le packaging peut alors être compris comme l’un des opérateurs ordinaires de la culturalisation de la nature. Une eau, un fruit transformé, un lait, un jus, une crème ne circulent pas comme de simples fragments du monde. Ils doivent être nommés, protégés, codés, mis en forme. Le packaging accomplit précisément cette opération. Il ne détruit pas la nature ; il la traduit dans un ordre de visibilité, de normes, de signes et de circulation. Il fait passer une substance dans un régime de culture. En ce sens, le pack est l’emblème discret d’une modernité qui ne se contente pas d’exploiter la nature mais de la reformater.

De la bouteille au conteneur

On peut d’ailleurs étendre cette logique au suremballage ultime que représente le conteneur maritime standardisé. Dans The Box, Marc Levinson (2006) montre comment cette simple boîte d’acier a transformé la géographie économique, bouleversé les ports, réduit les coûts de manutention et rendu possible une mondialisation beaucoup plus fluide des marchandises.

Nouvelle preuve du fait que les civilisations ne se transforment pas seulement par les idées qu’elles proclament, mais par les formats qu’elles standardisent. De la bouteille au conteneur, même logique : faire tenir, faire circuler, faire arriver. Petite boîte, grande boîte, toujours la même puissance du contenant.

The Conversation

Benoît Heilbrunn ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

27.04.2026 à 15:54

« Dégoogliser » l’éducation ? Le modèle alternatif de PeerTube

Laurent Tessier, Professeur de sociologie, Institut catholique de Paris (ICP)

Si les outils des Gafam sont très présents sur les ordinateurs des élèves et de leurs professeurs, des solutions libres sont développées dans l’éducation nationale. Quelques exemples.
Texte intégral (2065 mots)

Le système éducatif est-il inévitablement dépendant des outils fournis par les Gafam ? Des plateformes de ressources fondées sur des solutions libres comme PeerTube ont été développées pour les enseignants. Quels en sont les atouts et la réception sur le terrain ?


Le 7 mars 2026, Médiapart publiait un article intitulé « L’éducation nationale prolonge son contrat avec Microsoft en dépit des risques, et de ses propres consignes ». La France a, en effet, instauré des directives claires en faveur de l’utilisation de logiciels libres et « souverains ». Un mois plus tard, le 8 avril, la direction interministérielle du numérique (Dinum) annonçait ainsi sa sortie de Windows au profit de Linux afin de se « désensibiliser des outils américains ».

Mais est-il réellement possible de mettre fin à la dépendance du système éducatif vis-à-vis des Big Tech (Microsoft, Google, Apple ou encore Open AI pour ce qui est de l’intelligence artificielle) ? Ou, pour reprendre le mot d’ordre de Framasoft, est-il possible de « dégoogliser » l’éducation ?

Depuis plus de dix ans, cette association française s’efforce de produire des solutions, notamment à des fins éducatives, alternatives à celles proposées par Google et les géants de la Silicon Valley. Sa première version a, d’ailleurs, été lancée par deux enseignants du secondaire (de français et de mathématiques), dans le cadre d’un projet initialement intitulé FraMaNet. Ces premières expérimentations se sont par la suite structurées sous la forme d’une association loi 1901, créée en 2004, prenant le nom de Framasoft.

Le lien initial avec le monde de l’éducation restera au cœur de l’association jusqu’à aujourd’hui, Framasoft continuant à se présenter de manière récurrente comme une association « d’éducation populaire ».

Retour sur la création de la communauté Framasoft (TEDx Talks, 2014).

À partir d’un projet initial plutôt tourné vers la curation de solutions existantes, Framasoft va progressivement orienter son action vers le développement d’alternatives concrètes aux Big Tech, et en particulier à Google. Cette dynamique est formalisée en 2014 avec la campagne « Dégooglisons Internet » qui amène Framasoft à proposer jusqu’à 37 applications en ligne, avant de décider un resserrement sur quelques projets phares, dont PeerTube, sur lequel nous avons choisi de mener un projet de recherche récemment publié.

Des plateformes indépendantes mais interconnectées

PeerTube s’inscrit directement au cœur du projet de « dégooglisation » de Framasoft, dans le sens où il s’agit là explicitement de développer une alternative à la plateforme YouTube, elle-même portée depuis 2006 par Google. Du point de vue de l’expérience utilisateur, PeerTube présente ainsi beaucoup de similitudes avec YouTube.

Lorsqu’on se connecte à la page d’accueil d’une instance PeerTube, on découvre un ensemble de vignettes renvoyant à des vidéos, classées par tendances et par thématiques. Si l’on clique sur une vidéo, celle-ci prend l’espace principal de la fenêtre et se lance. Elle est soulignée d’une barre de commandes similaire à celle de YouTube (lecture, pause, vitesse de défilement, activation des sous-titres). On peut commenter la vidéo et la partager par l’intermédiaire d’un lien.

Pour un utilisateur de YouTube, la prise en main de PeerTube est immédiate, puisque ses choix ergonomiques reprennent quasiment trait pour trait les codes de YouTube. L’alternative proposée par PeerTube consiste à rendre possible ce type de pratiques grâce à une application web libre, que l’on peut installer sur le serveur de son choix. Autrement dit, tout internaute (pour peu qu’il dispose tout de même d’un bagage suffisant pour savoir installer un site web sur un serveur), peut grâce à ce système installer son propre « mini-YouTube » libre et y héberger les vidéos de son choix.

Ces instances indépendantes peuvent ensuite être fédérées, c’est-à-dire constituer un réseau. Au contraire d’une gigantesque plateforme à tendance monopolistique, telle que YouTube, PeerTube vise à faire exister une constellation de plateformes indépendantes mais interconnectées.

Il s’agit du même type d’alternative que celle que propose par exemple le réseau social Mastodon vis-à-vis des réseaux sociaux propriétaires comme Facebook ou Instagram : une multitude d’instances libres fédérées plutôt qu’une plateforme propriétaire centralisée, dans une logique dite du « fédivers ».

Faire vivre des « communautés d’utilisateurs »

Quelle est alors la réponse du public à cette proposition alternative ? Les statistiques consultables de PeerTube indiquent pour 2025 l’existence de 1 681 instances en activité, 418 000 utilisateurs, 56 000 commentaires, environ un million de vidéos hébergées (pour un total de 540 téraoctets de données) et 341 millions de vues. On peut donc dire que PeerTube n’en est plus à la simple « preuve de concept ». Il a généré depuis sa création une véritable communauté d’utilisateurs actifs.

On le voit aussi, ces statistiques représentent littéralement une goutte d’eau dans l’océan des vidéos en ligne. Pour rappel, YouTube générerait à lui seul 37 % du trafic Internet mondial. Plus d’un milliard d’heures de vidéo y sont regardées chaque jour. Chaque minute, 500 heures de vidéo y sont mises en ligne. En France, on compte 46,6 millions d’utilisateurs actifs de YouTube chaque mois, dont 19 millions de visiteurs uniques par jour.

Mais l’objectif de Framasoft ne se situe pas dans le fantasme d’une concurrence frontale avec le géant californien. PeerTube vise plus réalistement son adoption par des acteurs qui sont sensibles à sa proposition et à son projet, tels que ceux de l’éducation.

Observons donc à présent la place que peut occuper en France une application libre, telle que PeerTube, dans le périmètre du ministère de l’éducation nationale (MEN). Pour cela, on peut partir de l’action de la direction du numérique pour l’éducation (DNE), notamment via deux dispositifs qui y sont impulsés afin de favoriser les pratiques numériques libres et open source : Apps.education et LaForgeEdu.

Depuis 2024, LaForgeEdu propose une forge logicielle de type GitHub, c’est-à-dire une plateforme qui permet de déposer, de partager et de travailler de manière collaborative au développement de logiciels libres. Comme nous l’a expliqué l’un des porteurs de ce dispositif à la DNE, l’objectif de LaForgeEdu est de créer et de faire vivre des « communautés d’utilisateurs » qui associent des enseignants et des développeurs de logiciels libres.

Enjeux politiques et formation continue

LaForgeEdu héberge ainsi, de manière ouverte (mais réservée aux enseignants en poste dans l’éducation nationale), des dizaines de projets visant toutes les disciplines et tous les niveaux, pouvant aller de la génération d’exercices de mathématiques à des livres jeunesse interactifs réalisés par des enseignants.

Page d’accueil des ressources pour le primaire de La Forge des communs numériques éducatifs
Page d’accueil des ressources pour le primaire de La Forge des communs numériques éducatifs.

Depuis 202O, la plateforme Apps.education poursuit quant à elle un objectif complémentaire : elle propose des outils développés et hébergés en interne par la DNE, sur des serveurs du ministère de l’éducation nationale. Parmi ces applications, on retrouve justement une instance PeerTube réservée aux enseignants. Elle leur permet de partager avec leurs élèves des vidéos, de manière sécurisée, souveraine et non commerciale.

On voit ainsi à travers cet exemple comment, au sein de l’éducation nationale, l’action volontariste de certains acteurs permet de construire un écosystème favorisant l’accueil d’une solution telle que PeerTube.

Cependant, il ne suffit pas que des outils soient mis à disposition des acteurs pour que ceux-ci s’en saisissent. Au-delà des grandes orientations politiques, il s’agit à présent d’accompagner les enseignants et enseignantes dans le développement de gestes professionnels et d’habitudes numériques vertueuses et sécurisées.

Grâce à un financement européen, nous avons pu travailler dans le cadre d’ateliers spécifiques avec de nombreux collègues et observer leurs pratiques et leurs représentations sur ces questions. Il ressort de ce travail que les enseignants français sont régulièrement sensibilisés aux questions du logiciel libre. Ils ont aussi souvent un regard critique sur les Big Tech états-uniens et leur emprise croissante sur de nombreux aspects de la vie de leurs élèves.

Pour autant, dans le cas de PeerTube, malgré l’existence d’un « terreau idéologique » favorable, nous avons pu constater que l’adoption d’une alternative libre et décentralisée à YouTube restait un enjeu complexe.

Si nous avons pu observer l’ouverture à l’expérimentation d’alternatives pour certains acteurs à la fois technophiles et engagés, nous avons aussi pu mesurer la difficulté d’un déploiement à plus grande échelle face à une solution aussi « naturalisée » que peut l’être YouTube pour un plus grand public, y compris dans le monde de l’éducation.

Au-delà de la mise à disposition de solutions techniques, la question de la formation continue constituera sans doute un levier central pour faciliter ces transformations.

The Conversation

Cette recherche, menée par Laurent Tessier, a bénéficié du financement de la Commission Européenne via le programme OSCARS (Open Science Clusters Action for Research and Society).

PDF

27.04.2026 à 15:54

L’oxygène, cette molécule paradoxale, base de la vie et poison mortel : comment les microorganismes y font face

Alexandre Desparmet, Doctorant en Biologie Marine, Muséum national d’histoire naturelle (MNHN)

Cédric Hubas, Professor, Muséum national d’histoire naturelle (MNHN)

Comment bénéficier de l’oxygène sans en subir les dangers ? Une nouvelle étude éclaire ces processus chez des microalgues.
Texte intégral (2291 mots)

Les humains ainsi que bon nombre d’espèces vivantes ont besoin d’oxygène pour vivre. Pourtant cette molécule est chimiquement dangereuse, elle provoque ce que l’on appelle le « stress oxydant » (une altération des constituants de nos cellules, comme les protéines ou l’ADN). Il faut donc pouvoir l’utiliser, mais également s’en protéger. Une nouvelle étude éclaire ces processus chez des microalgues.


La relation entre la vie et l’oxygène est loin d’être simple. Pour la comprendre, il faut remonter aux origines de la vie sur Terre, à l’époque archéenne (entre -4 milliards et -2,5 milliards d’années). Les océans existaient déjà, mais l’atmosphère contenait très peu, voire pas du tout, d’oxygène libre.

Certaines bactéries réalisaient déjà une photosynthèse dite anoxygénique qui, contrairement à celle des plantes et des algues actuelles, ne libère pas d’oxygène mais produit des composés soufrés.

Il y a environ 2,4 milliards d’années survient un tournant majeur : la Grande Oxygénation. L’oxygène commence à s’accumuler dans l’atmosphère grâce à l’activité de bactéries photosynthétiques (les cyanobactéries) capables de réaliser la photosynthèse oxygénique, le même processus que celui utilisé aujourd’hui par les plantes et les algues.

Cette accumulation d’oxygène transforme profondément la biosphère. Pour la première fois, une molécule extrêmement réactive est produite en grande quantité par des organismes vivants. L’oxygène peut oxyder et endommager les structures cellulaires des organismes qui n’y sont pas adaptés. La vie se trouve alors confrontée à un paradoxe : devoir composer avec une molécule qu’elle produit elle-même mais qui représente un danger pour la majorité des formes de vie existantes.

Cette transition provoque une crise biologique majeure. De nombreuses espèces anaérobies sont repoussées vers des milieux pauvres en oxygène, comme les sédiments ou les profondeurs marines. Parallèlement, certaines lignées développent des mécanismes capables de neutraliser l’oxygène, puis de l’utiliser comme source d’énergie. La respiration oxygénique, bien plus efficace que les métabolismes anaérobies, permet ainsi l’émergence de formes de vie plus complexes.

Illustration des changements observés dans une colonne de Winogradsky installée à la station marine de Concarneau (Finistère). La colonne a été réalisée à partir de vase prélevée dans les viviers de la station. Les deux tiers de la colonne ont été remplis de vase, et le dernier tiers d’eau de mer provenant du site. Du carbone a été ajouté au fond de la colonne sous forme de petits morceaux de papier. L’objectif du projet est d’illustrer l’incroyable diversité des microorganismes et de proposer un parallèle entre les changements observés dans la colonne et certaines étapes de l’histoire évolutive de la vie sur Terre. Cédric Hubas, CC BY

Le paradoxe de l’oxygène

Bien que souvent associé à la vie, l’oxygène demeure chimiquement dangereux et peut provoquer ce que l’on appelle le stress oxydant. En effet, le dioxygène peut générer des espèces réactives de l’oxygène (ERO) – superoxyde, peroxyde d’hydrogène ou radical hydroxyle – capables d’endommager protéines, lipides et ADN.

Tous les organismes aérobies (y compris les humains) possèdent donc des systèmes enzymatiques permettant de neutraliser ces molécules : superoxyde dismutases, catalases ou peroxydases. Sans ces mécanismes de défense, l’oxygène serait rapidement létal. La vie moderne repose ainsi sur un équilibre délicat : utiliser l’oxygène pour produire de l’énergie tout en limitant ses effets toxiques.

Longtemps considérées uniquement comme des sous-produits nocifs impliqués dans le vieillissement ou certaines maladies, les ERO sont aujourd’hui reconnues comme des molécules de signalisation participant à la régulation de nombreux processus cellulaires (prolifération cellulaire ou régulation de certains gènes par exemple). Leur rôle exact reste cependant encore largement inexploré.

Le stress oxydant dans les environnements naturels

Le stress oxydant ne concerne pas seulement les organismes humains : il affecte l’ensemble du vivant. Il apparaît lorsque la production d’ERO dépasse les capacités de défense de la cellule. Ce phénomène est particulièrement marqué dans des environnements soumis à de fortes variations de conditions physiques ou chimiques.

Ces milieux extrêmes comme la mer morte, le désert du Sahara ou certains déserts d’altitude recevant un fort rayonnement solaire, possèdent des conditions très salées, très sèches ou fortement irradiées, mais abritent pourtant une biodiversité étonnante. Des organismes spécialisés, appelés extrêmophiles, y prospèrent grâce à des adaptations physiologiques remarquables. La notion d’environnement extrême dépend donc toujours de l’organisme considéré.

Même des milieux plus familiers peuvent imposer des contraintes importantes. Nos zones côtières, par exemple, connaissent des fluctuations rapides de lumière. L’intensité lumineuse y varie fortement au cours de la journée, ce qui influence directement l’activité photosynthétique.

Les organismes photosynthétiques sont particulièrement exposés à ce problème, car la capture d’énergie lumineuse favorise la formation d’espèces réactives de l’oxygène. Ainsi, si la lumière est indispensable à la photosynthèse, un excès d’énergie lumineuse peut perturber l’équilibre cellulaire et favoriser la formation d’ERO. Les organismes doivent donc exploiter la lumière tout en se protégeant de ses effets potentiellement toxiques.

Les adaptations des microalgues aux variations journalières de lumière

Les diatomées, microalgues très abondantes dans les sédiments marins, ont développé plusieurs stratégies pour faire face à ces variations lumineuses. Des pigments protecteurs, notamment les xanthophylles, limitent la formation de radicaux libres. Les cellules peuvent également modifier l’organisation de leur appareil photosynthétique afin d’optimiser la capture de lumière tout en réduisant les dommages.

Ces microalgues possèdent aussi des photorécepteurs capables de détecter les variations lumineuses et de déclencher des réponses physiologiques rapides, comme l’activation de mécanismes de photoprotection ou l’expression de certains gènes.

L’une de leurs adaptations les plus remarquables est leur migration verticale dans le sédiment. Lorsque la lumière est modérée, les diatomées remontent vers la surface afin de maximiser la photosynthèse. Lorsque l’intensité devient trop forte, elles s’enfoncent légèrement dans le sédiment, comme pour se mettre à l’ombre. Ces déplacements sont synchronisés par une horloge circadienne interne qui permet d’anticiper les cycles jour-nuit.

ERO et diatomées : un dialogue plus complexe qu’on ne le croyait

Des travaux récents suggèrent que les espèces réactives de l’oxygène pourraient jouer un rôle plus actif qu’on ne le pensait. Au-delà de leur caractère potentiellement toxique, elles pourraient agir comme signaux déclenchant certaines réponses comportementales.

Notre dernière étude montre que les ERO participent notamment au contrôle de la migration verticale des diatomées, alors que l’on pensait jusqu’à présent que ces migrations servaient principalement à limiter leur production et leur accumulation au niveau cellulaire.

Deux mécanismes semblent donc se combiner : la migration permet de réduire l’exposition à des conditions génératrices d’ERO, mais ces mêmes molécules pourraient également agir comme signaux déclenchant la réponse lorsque leur concentration dépasse un certain seuil.

Ce système fonctionnerait ainsi comme un véritable dispositif de surveillance interne. Les variations du stress oxydant reflètent rapidement les changements de l’environnement et permettent aux cellules d’ajuster leurs réponses physiologiques et comportementales.

Les diatomées étant très diversifiées et largement distribuées à l’échelle globale, il est probable que ces capacités de détection, de traitement de l’information et de mise en place de réponses varient selon les espèces et le contexte environnemental. Cette diversité confère aux diatomées une forte capacité d’adaptation, jouant un rôle essentiel dans leur survie.

Photographie de diatomées (Pleurosigma strigosum) au microscope optique. Alexandre Desparmet, Fourni par l'auteur

Ce travail montre, à travers un exemple frappant, que le vivant n’a pas seulement appris à se défendre contre l’oxygène et ses dérivés toxiques : il a aussi appris à les utiliser. Des déchets métaboliques oxygénés, autrefois considérés comme uniquement dangereux pour les cellules, peuvent devenir de véritables outils biologiques.

Cela rappelle que le rôle des ERO reste complexe et encore largement méconnu. Loin d’être de simples agents de stress, elles apparaissent aujourd’hui comme des molécules ambivalentes : des messagers subtils intégrés à des mécanismes fins de communication, d’adaptation cellulaire et de perception de l’environnement, notamment chez les diatomées.

Et comme souvent en sciences, ces découvertes ouvrent surtout de nouvelles questions… qui restent encore à explorer.


Nous remercions l’école doctorale DIVONA, la station marine de Concarneau (Finistère) et le laboratoire BOREA.

The Conversation

Alexandre Desparmet a reçu des financements de l'institut de l'Océan de l'Alliance Sorbonne Université.

Cédric Hubas a reçu des financements de l'institut de l'Océan de l'Alliance Sorbonne Université.

PDF

27.04.2026 à 15:54

Entre environnement et économie locale, faut-il choisir ? Le cas de l’exploitation du mica en Inde

Olivier Dubourdieu, Enseignant-chercheur sur les ressources minérales et les transitions, Mines Paris - PSL

En Inde, de nombreuses mines de mica ont été fermées pour lutter contre la déforestation, mais des activités informelles subsistent. En cause : la dépendance économique des mineurs.
Texte intégral (2265 mots)
Groupe d’artisans miniers ramassant du mica sur une ancienne verse à stériles au Jharkhand, au nord-est de l’Inde. Responsible Mica Initiative (RMI), Fourni par l'auteur

Comment concilier environnement et développement économique ? Le cas de l’exploitation minière du mica, en Inde, montre les difficultés à arbitrer entre ces deux dimensions lorsque des populations vulnérables sont dépendantes des ressources économiques de l’exploitation minière. L’accompagnement des mines artisanales à petite échelle pourrait être une solution, tout du moins à certaines conditions.


Batteries de véhicules électriques, peintures automobiles, fards à paupières… ces objets du quotidien ont un point commun. Ils contiennent tous une famille de minéraux discrète mais pourtant stratégique : des micas. Bien que relativement méconnu, le mica est omniprésent dans les économies industrielles modernes.

De par ses propriétés électriques et thermiques, c’est un isolant courant en électronique. On le retrouve aussi bien dans les sèche-cheveux que les véhicules électriques. Ses caractéristiques physiques en font également une base pour certains pigments utilisés dans les peintures industrielles ainsi que de nombreux produits cosmétiques. Cela en fait un minéral clé, tant pour la décarbonation de l’économie que pour le développement du numérique.

Des gisements de mica existent dans le monde entier, mais le Bihar et le Jharkhand, deux États du nord-est de l’Inde, représentent près de 20 % de la production mondiale. L’extraction de mica y est aujourd’hui largement artisanale et à petite échelle, souvent située en zone forestière.

À ce double enjeu de transition énergétique et numérique répond également celui de transition environnementale, et notamment de lutte contre la déforestation. Comment concilier préservation de l’environnement et maintien d’une activité économique essentielle à la survie de populations vulnérables ? Cet article ébauche une réponse, en s’appuyant sur mon travail de thèse.

Des mines et des hommes

L’Inde est l’un des principaux producteurs mondiaux de mica, avec environ 100 000 tonnes exportées chaque année. 75 % de cette production provient de deux États du nord-est du pays situés en zone forestière : le Jharkhand et le Bihar. À noter que les chiffres officiels du Bureau indien des mines (Indian Bureau of Mines, ou IBM) n’intègrent pas la production de mica de ces deux États (comme en 2021 par exemple. En effet, celle-ci est majoritairement liée à des mines artisanales et à petite échelle informelle, non encore reconnues par l’État indien, et majoritairement illégale depuis les années 1980 pour les raisons qu’on expose dans les paragraphes qui suivent.

Dans ces deux États, l’exploitation du mica démarre à la fin du XIXᵉ siècle. L’industrie minière s’y développe alors en deux temps :

  • Jusqu’aux années 1980, l’exploitation du mica est légale, encadrée par la réglementation locale de l’État du Bihar – celui-ci a, en effet, été scindé en deux en 2000 pour former les actuels États du Bihar et du Jharkhand.

  • Puis, en 1980, l’adoption du Forest Conservation Act par le gouvernement central indien marque un tournant qui se solde par la désindustrialisation officielle de l’exploitation du mica. Mais dans les faits, l’activité ne s’est pas vraiment arrêtée : elle s’est poursuivie de manière informelle, accentuant davantage la vulnérabilité sociale des mineurs.

Quels sont les enjeux de l’extraction artisanale de mica ?

Commençons par la première période, sorte d’« âge d’or » de l’industrie minière du mica en Inde. Les écrits historiques, comme ce livre de 1951 ou celui-ci de 1995) décrivent des exploitations minières industrielles relativement bien tenues, où les travailleurs ont accès à des équipements de protection (port de casque et de chaussures de sécurité), avec des moyens d’extraction semi-mécaniques.

L’industrie minière est alors vue source de prospérité économique, en particulier pour les centres urbains de Giridih et de Koderma. Les conditions de travail ne sont pas pour autant idylliques : certains travailleurs sont des agriculteurs qui cherchent des revenus supplémentaires et travaillent dans la mine sans avoir été suffisamment formés, d’autres souffrent de maladies respiratoires…

Ce moment est marqué par ce que l’on peut appeler « conversion des ressources » par laquelle la forêt est « convertie » en ressources minérales. Il faut comprendre que la déforestation n’est pas ici le produit d’une exploitation illégale mais le résultat d’un compromis implicite : accepter une certaine dégradation environnementale en échange de revenus indispensables pour des communautés rurales marginalisées.

La seconde période s’ouvre en 1980 après l’adoption du Forest Conservation Act, où la priorité nationale est désormais de protéger les forêts. L’exploitation minière du mica devient alors majoritairement illégale et s’inscrit dès lors dans l’économie informelle. Elle est soit pratiquée par des artisans miniers individuels, soit dans des mines semi-industrielles, où les conditions de vie et de travail sont précaires. Citons par exemple : maladies musculosquelettiques récurrentes, travail des enfants, effondrements réguliers des galeries… Il n’existe pas de statistiques officielles, mais l’interdiction semble avoir eu des effets négatifs sur les conditions de travail et la santé des travailleurs, les sites étant devenus plus difficiles d’accès pour les organisations souhaitant accompagner les artisans miniers dans l’amélioration de leurs conditions de vie et de travail.

Contraints d’opérer dans l’informalité, les artisans miniers se retrouvent marginalisés, à plusieurs titres : économiquement, légalement et socialement. Ils ne sont pas en position de force pour négocier le prix du mica qu’ils vendent et souffrent ainsi d’une position de faiblesse dans la chaîne de valeur.

Les services de police des États du Bihar et du Jharkhand organisent régulièrement des raids pour stopper les opérations d’extraction et saisir le mica illégalement exploité. Ces opérations semblent n’avoir qu’un impact limité en matière de ralentissement de l’extraction du mica. En revanche, elles ont un effet bien réel auprès des artisans miniers puisqu’elles contribuent à les diaboliser, alors même que l’extraction du mica est devenue leur principale source de revenus.


À lire aussi : Faut-il rouvrir des mines en France et en Europe au nom de la souveraineté économique ?


Deux mouvements de conversion successifs

L’histoire récente du mica en Inde révèle donc deux dynamiques de conversion successives : une première phase de conversion de la forêt vers la ressource minérale, au nom du développement économique, suivie d’une phase de reconversion des espaces miniers vers la forêt, portée par des objectifs de protection environnementale.

Ces deux mouvements ont un point commun : ils produisent des effets territoriaux et humains profonds qui n’intègrent pas pleinement les besoins et les capacités d’adaptation des communautés locales. Pour les artisans miniers, il s’agit de maintenir une activité économique malgré son illégalité et son impact sur la forêt. Cette tension a des répercussions pour d’autres acteurs.

Pour les États, notamment ceux du Bihar et du Jharkhand, l’extraction du mica comprend également une double dimension politique. D’abord parce que les voix des 300 000 personnes impliquées dans l’extraction du mica représentent un enjeu électoral significatif, mais également dans la mesure où la loi visant à la conservation de la forêt émane du gouvernement fédéral, alors que les enjeux de développement local relèvent des États.

Pour les acteurs en aval des chaînes de valeur du mica, comme les marques de cosmétiques ou automobiles par exemple, cette situation pose de nouvelles questions. Il s’agit de savoir ce que ces acteurs veulent privilégier : le développement économique de populations marginalisées ou la protection de l’environnement ?

Par leurs choix de fournisseurs et engagement sur le terrain auprès des communautés d’artisans miniers, les entreprises de l’aval influencent les dynamiques locales de conversion de ressources. Un des enjeux clés est juridique : une partie de ces entreprises doivent se conformer aux exigences des réglementations en matière de devoir de diligence, comme la directive Omnibus I de l’Union européenne, par exemple). Le risque est enfin réputationnel : comment assumer de s’approvisionner en matières premières à partir de mines artisanales, tout en affirmant protéger les ressources forestières ?


À lire aussi : Politiques responsables et directive européenne : comment le devoir de vigilance s’invite dans les grandes entreprises


Formaliser les mines artisanales à petite échelle

Face à cette situation, une nouvelle approche a émergé il y a plusieurs dizaines d’années : la formalisation des mines artisanales à petite échelle, c’est-à-dire, entre autres, la reconnaissance des artisans miniers comme des acteurs légitimes des chaînes de valeur. Cette reconnaissance s’accompagne de programmes d’accompagnement pour améliorer les pratiques sociales et environnementales, les conditions de travail, et pour limiter le nombre d’accidents et de lutter contre le travail des enfants.

C’est dans cet esprit qu’a été créée, en 2017, la Responsible Mica Initiative (RMI), une initiative regroupant de grands acteurs de la chaîne de valeur du mica, notamment des industriels, mais également des ONG visant à rendre ces chaînes de valeur plus durables, équitables et responsables. La RMI fait ainsi émerger des solutions par consensus, et considère la formalisation des mines artisanales de mica dans toutes ses dimensions : techniques, administratives, légales, sociales et économiques.

Concrètement, la RMI a déjà engagé plusieurs actions, comme la structuration des mineurs en coopératives, la définition de standards de production responsable, ou encore la mise en place d’audits et de programmes d’accompagnement dans la mise en conformité.

Telle qu’elle est envisagée par la RMI, la formalisation des mines artisanales de mica vise ainsi à rééquilibrer les rapports de pouvoir au sein des chaînes de valeur, au bénéfice des artisans miniers et de leur milieu de vie.

L’arbitrage environnement-développement au cœur d’un espace de négociation

L’exemple de l’extraction minière du mica en Inde montre que des politiques environnementales produisent parfois des effets pervers. En cherchant à protéger les forêts, elles fragilisent davantage des communautés, sans faire disparaître les pratiques qu’elles visaient à encadrer.

La résolution des tensions qui en découlent passe par la mobilisation de tous les acteurs, ce qui suppose l’existence d’un espace de négociation. Sur cette base, les acteurs peuvent ensuite construire une vision commune et la mettre en œuvre dans des actions collectives.

Mais une telle dynamique ne peut émerger que si l’espace de négociation est aussi un espace de confiance, qui permet d’aborder et de résoudre les questions de gouvernance dans les chaînes de valeur. C’est précisément ce que cherche à mettre en place des projets tels que la Responsible Mica Initiative, en créant les conditions d’un dialogue structuré entre acteurs aux intérêts divergents.

The Conversation

Olivier Dubourdieu a travaillé pour la Responsible Mica Initiative entre 2019 et 2024.

PDF

27.04.2026 à 15:53

Contre le glioblastome, la tumeur cérébrale la plus fréquente, la piste du cytomégalovirus

Gaëtan Ligat, Maître de Conférences, Université de Toulouse; Inserm

Le glioblastome est un cancer rare, mais agressif qui résiste aux traitements. La découverte de la présence du cytomégalovirus, un virus courant, dans les cellules tumorales ouvre des pistes thérapeutiques.
Texte intégral (1677 mots)

Le glioblastome, cancer rare mais agressif, résiste aux traitements. La recherche a mis en évidence la présence du cytomégalovirus, CMVH, un virus fréquent chez l’humain, dans les cellules tumorales. Le CMVH ne serait pas à l’origine de ce cancer mais en modulerait l’agressivité, selon l’hypothèse retenue actuellement. Et l’étude des interactions entre les cellules tumorales du glioblastome et le CMVH ouvre de nouvelles perspectives thérapeutiques.


Le glioblastome est la tumeur cérébrale la plus fréquente et aussi l’une des plus agressives chez l’adulte.

C’est un gliome (c’est-à-dire une tumeur qui se développe dans le cerveau ou la moelle épinière) à croissance rapide. Il se développe à partir de cellules gliales, ces « cellules de soutien » des neurones en forme d’étoile, appelées astrocytes et oligodendrocytes.

Un cancer rare mais agressif qui résiste aux traitements

Cette agressivité explique pourquoi, même en combinant des traitements lourds, comme la chirurgie, la radiothérapie et la chimiothérapie, les résultats restent souvent limités. Cette difficulté thérapeutique se reflète dans les chiffres : bien que relativement rare (environ 2 à 5 cas pour 100 000 personnes dans le monde), le glioblastome est associé à un pronostic très sombre, avec une survie moyenne d’environ dix-huit mois après le diagnostic.

Ainsi, sa gravité et l’efficacité encore insuffisante des traitements en font un enjeu majeur de santé publique. Depuis une vingtaine d’années, des chercheurs explorent une piste intrigante : un virus très courant dans la population, le cytomégalovirus humain, pourrait être présent dans ces tumeurs. Il pourrait influencer leur évolution et contribuer à leur résistance aux traitements classiques. Une hypothèse qui suscite beaucoup d’intérêt et qui ouvre la voie à de nouvelles approches thérapeutiques.

Cytomégalovirus humain : le virus qui manipule nos cellules

Le cytomégalovirus humain (CMVH) appartient à la grande famille des virus de l’herpès, comme ceux responsables de l’herpès labial ou de la varicelle.

C’est un virus très répandu : dans de nombreux pays, plus d’un adulte sur deux y a déjà été exposé. Après la première infection, souvent sans symptôme, le virus ne disparaît pas. Il reste présent dans l’organisme sous une forme « endormie », notamment dans certaines cellules du sang. Il peut se réactiver plus tard, surtout lorsque le système immunitaire est affaibli.

Ce qui rend le CMVH particulièrement intéressant, c’est sa capacité à influencer le fonctionnement des cellules qu’il infecte. Il peut stimuler leur division, les aider à échapper à la mort programmée des cellules et modifier la réponse immunitaire locale. Autant d’effets qui, en théorie, pourraient favoriser le développement d’une tumeur et contribuer à sa résistance aux traitements. Le CMVH est aussi la principale cause d’infection transmise de la mère au bébé pendant la grossesse.

Détection du cytomégalovirus dans les glioblastomes

Les premières observations suggérant un lien entre le CMVH et les glioblastomes remontent au début des années 2000. Des équipes de recherche ont alors détecté de l’ADN viral ainsi que des protéines spécifiques du virus dans des échantillons de tumeurs cérébrales. Ces résultats ont ouvert une nouvelle perspective : le glioblastome, déjà très complexe sur le plan biologique, pourrait aussi être influencé par un virus courant et persistant.

Depuis ces premières découvertes, de nombreuses équipes ont confirmé la présence du CMVH dans des glioblastomes. La quantité de virus détectée reste faible comparée à une infection active, mais même à ces niveaux, il peut produire des protéines capables d’influencer le comportement des cellules tumorales.

La présence du CMVH ne signifie pas pour autant qu’il soit à l’origine de la tumeur. Bien qu’une étude ait montré la transformation de cellules humaines greffées dans le cerveau de souris, la majorité des données suggère plutôt que le virus agit comme un « oncomodulateur » : il ne déclenche pas la formation de la tumeur, mais peut en modifier l’agressivité, certaines caractéristiques biologiques et amplifier la résistance aux traitements.

Le rôle indirect du CMVH dans la progression du glioblastome : « l’oncomodulation »

Le CMVH ne semble pas être à l’origine du glioblastome, mais pourrait en moduler l’agressivité par un phénomène appelé « oncomodulation ». Contrairement aux virus oncogènes classiques qui rendent les cellules cancéreuses, il n’induit pas directement la transformation cancéreuse d’une cellule saine. Les données expérimentales suggèrent plutôt qu’il agit sur l’environnement tumoral et sur certains mécanismes clés de la biologie cellulaire.

L’infection par le CMVH peut favoriser la formation de nouveaux vaisseaux sanguins, permettant à la tumeur de recevoir davantage de nutriments. Elle peut également inhiber l’apoptose, processus naturel d’élimination des cellules anormales, et interférer avec des régulateurs majeurs du cycle cellulaire.

Par ailleurs, le virus modifie le métabolisme cellulaire au profit de la survie tumorale et contribue à instaurer un microenvironnement immunosuppresseur, c’est-à-dire qui réduit l’efficacité des défenses de l’organisme.

Ensemble, ces observations pourraient renforcer la croissance et la résistance des glioblastomes. Elles ouvrent aussi de nouvelles perspectives de recherche et de stratégies thérapeutiques en ciblant non seulement la tumeur, mais aussi ses interactions virales.

Implications thérapeutiques

La découverte du CMVH dans les glioblastomes a rapidement conduit à explorer des interventions antivirales comme piste thérapeutique complémentaire. Des études pilotes ont testé le valganciclovir, un traitement antiviral déjà utilisé contre les infections à CMVH, chez des patients atteints de glioblastome. Bien que les résultats restent préliminaires, certains patients ont montré une amélioration relative de la survie, suggérant que limiter l’activité du virus pourrait freiner la progression tumorale.

En parallèle, la recherche se tourne vers des approches immunothérapeutiques ciblant le CMVH. L’objectif est de stimuler le système immunitaire pour qu’il reconnaisse et attaque spécifiquement les cellules exprimant des protéines virales, offrant ainsi une nouvelle voie pour traiter un cancer qui reste difficile à combattre avec les traitements classiques.

L’intérêt de ces stratégies dépasse les glioblastomes : le concept de virus « oncomodulateur » pourrait s’appliquer à d’autres cancers, y compris certains cancers pédiatriques comme le médulloblastome, soulignant le rôle possible de l’infection congénitale (infection transmise au bébé avant sa naissance, pendant la grossesse, par sa mère) dans la modulation de la tumeur. De plus, le CMVH a été classé en 2025 comme « probablement cancérogène pour l’humain » (groupe 2B) par le Centre international de recherche sur le cancer (CIRC/IARC), renforçant l’attention scientifique portée à ses effets sur le développement et la progression tumorale.

Enfin, afin de pallier l’émergence de résistances et à la toxicité des traitements classiques contre le CMVH, de nouvelles stratégies antivirales innovantes sont en cours d’exploration. Par exemple, de petits peptides conçus pour bloquer l’interaction entre deux protéines virales essentielles peuvent inhiber la réplication du CMVH. Cette approche pourrait compléter, ou même remplacer, les antiviraux classiques.

Un virus discret qui influence une tumeur agressive

Le CMVH illustre parfaitement comment un virus discret et très répandu peut influencer la biologie d’une tumeur agressive. Dans les glioblastomes, son rôle d’« oncomodulateur » ne consiste pas à déclencher la maladie, mais à amplifier son agressivité.

Étudier cette interaction ouvre de nouvelles perspectives pour mieux comprendre et traiter ces cancers difficiles, et montre le potentiel d’une approche intégrative mêlant virologie et oncologie.

Le glioblastome reste un défi majeur, mais la recherche sur le CMVH révèle que même des virus apparemment silencieux peuvent aider à décrypter la complexité des maladies humaines et offrir de nouvelles stratégies thérapeutiques.

The Conversation

Gaëtan LIGAT est membre de la section virologie de la Société Française de Microbiologie. Il est également administrateur et responsable du comité scientifique de l’association « Des étoiles dans la mer, vaincre le glioblastome ». Il a reçu des financements de : la Ligue contre le cancer, l’Association pour la Recherche sur les Tumeurs Cérébrales (ARTC), Des étoiles dans la mer, vaincre le glioblastome, la Fondation Flavien, FONROGA, Grandir sans cancer, Eva pour la vie ; Raphaël cœur chocolat, 111 Des Arts Toulouse, la région Occitanie, Défi clé CeBBOc, GEMSI.

PDF

27.04.2026 à 15:52

Gazprom et les stratégies de l’artwashing et du sportwashing

Oriana Jimenez, Doctorante en études slaves, Université Bordeaux Montaigne

En associant son image à de grandes manifestations sportives et artistiques, Gazprom a cherché à améliorer son image et, surtout, celle du régime de Vladimir Poutine.
Texte intégral (2436 mots)
Publicité de Gazprom mettant en avant son association avec la Ligue des champions de football, 2020. Capture d’écran issue d’un spot publicitaire de Gazprom

L’« artwashing » et le « sportwashing » représentent deux formes contemporaines de soft power. Ces stratégies, dont les dénominations sont inspirées du plus fréquent « greenwashing », consistent à mobiliser l’art, la culture ou le sport afin d’améliorer l’image d’acteurs étatiques ou économiques controversés. L’entreprise Gazprom, géant russe du gaz, s’est largement impliquée dans ce genre d’activités au cours des vingt dernières années pour tenter de donner à la Russie la réputation d’un État moderne, bienveillant et constructif. Des efforts auxquels l’invasion à grande échelle de l’Ukraine en 2022 a mis fin presque partout en Occident, mais qui ont depuis été réorientés vers les pays des BRICS.


Depuis quelques années, les notions d’artwashing et de sportwashing se sont imposées dans le débat public pour désigner de nouvelles stratégies d’influence. Ces pratiques consistent à mobiliser l’art, la culture ou le sport afin d’améliorer l’image d’acteurs étatiques ou économiques – souvent dans un contexte de controverses politiques ou éthiques. Elles s’inscrivent dans une logique de soft power, en agissant non sur les gouvernements, mais directement sur les opinions publiques.

L’artwashing désigne une utilisation de l’art, de la culture ou du mécénat artistique pour améliorer l’image publique d’un acteur. Le terme apparaît sous la plume de Mel Evans, dans Artwash : Big Oil and the Arts (2015), où il est employé pour dénoncer les liens entre une compagnie pétrolière (BP) et le financement de la culture (le musée Tate de Londres). Le sportwashing, quant à lui, renvoie à l’usage du sport comme outil de communication et de légitimation politique. Il s’agit, pour un État ou une entreprise, d’associer son image aux valeurs positives du sport. Selon Stephen Crossley et Adam Woolf, la première mention du terme daterait de 2012.

L’analyse de ces campagnes met en lumière un élément central : elles reposent sur une représentation précise du public visé. Chaque opération suppose une connaissance fine des imaginaires sociaux, culturels ou moraux mobilisables pour susciter l’adhésion. L’artwashing s’adresse principalement à un public plus restreint. Le sportwashing, à l’inverse, s’adresse à un public de masse. Ces deux logiques ne s’opposent pas, elles se complètent. Ensemble, elles forment les deux faces d’un même projet : redéfinir l’image d’une entreprise ou d’un État dans un langage accessible à tous.

C’est dans cette perspective que le cas de Gazprom, leader mondial du gaz naturel, mérite une attention particulière.

Gazprom et le « sportwashing »

L’industrie gazière Gazprom – abréviation de Gazovaïa Promychlennost – est contrôlée par le « clan Poutine » depuis le début des années 2000. L’État russe en détient une participation majoritaire et lui a accordé le monopole de l’exportation de gaz. Dans le domaine sportif, l’entreprise a multiplié les investissements stratégiques. En 2012, elle signe d’abord un contrat avec l’UEFA (Union des associations européennes de football, ndlr) jusqu’en 2015, estimé à 40 millions d’euros annuels, pour sponsoriser la principale compétition continentale de clubs : la Ligue des champions. Cet accord a été renouvelé à plusieurs reprises jusqu’à sa rupture en 2022, au lendemain de l’invasion à grande échelle de l’Ukraine en février 2022.

En finale de la Ligue des champions 2017, le Croate Mario Mandžukić marque un but spectaculaire pour la Juventus de Turin contre le Real Madrid, qui sera finalement victorieux 4-1. Derrière le gardien du Real Keylor Navas, les panneaux publicitaires de Gazprom sont parfaitement placés. Uefa.com

L’année suivante, Gazprom conclut un accord avec la Fifa (Fédération internationale de football association, ndlr) pour la période 2015-2018. Ces investissements constituent à la fois un moyen de compenser une image dégradée par l’annexion de la Crimée et un outil de promotion dans la lignée de l’expansionnisme russe du XIXᵉ siècle. En sponsorisant ces compétitions internationales, Gazprom devient une « entreprise-monde », captant une partie de la valeur symbolique des événements sportifs auxquels son nom est accolé. L’un des rapports publics de la compagnie sur son financement de la Coupe du monde 2018 ne laisse pas de doute sur l’efficacité de cette campagne publicitaire. Elle se reflète dans les enquêtes d’opinion menées par Gazprom : plus de la moitié des Européens interrogés perçoivent Gazprom comme un fournisseur de gaz fiable, notamment parmi les amateurs de football.

À l’échelle locale, Gazprom développe dès 2005 un lien étroit avec le Zénith Saint-Pétersbourg – club situé à proximité du point de départ du gazoduc Nord Stream, à Vyborg – dont le stade est d’ailleurs renommé Gazprom Arena. En 2007, elle devient le sponsor principal du club allemand Schalke 04 de Gelsenkirchen (Rhénanie-du-Nord-Westphalie) pour environ 9 millions d’euros par an – un prix bien supérieur à la moyenne du marché. Ainsi, Schalke se place au sixième rang des clubs les mieux financés, juste après des géants comme l’AC Milan, Chelsea ou encore le Real Madrid – ce qui ne correspond pas à son niveau sportif ni à sa notoriété. Ce choix est symbolique : Gelsenkirchen est l’un des centres historiques du marché énergétique allemand.

Depuis 2010, Gazprom sponsorise aussi l’Étoile rouge de Belgrade, sauvant le club de la disparition, à une époque où le gazoduc South Stream – depuis, abandonné – était en négociation. Ce gazoduc devait traverser sept pays européens, dont la Serbie – alliée historique de la Russie. South Stream s’inscrivait dans la stratégie russe de consolidation d’alliances régionales. Un document officiel du gouvernement serbe de 2025 détaille l’intention de Belgrade de renforcer les liens économiques avec la Russie, notamment dans le domaine de l’énergie. Ainsi, la stratégie de Gazprom semble porter ses fruits. L’accord a été maintenu en dépit de l’invasion de l’Ukraine.

Depuis février 2022, après avoir perdu de nombreux contrats, l’entreprise cherche de nouveau à étendre son réseau d’influence sportive, notamment en Hongrie, où le FC Ferencváros était visé. Cependant, l’accord n’a pas été officiellement conclu, et la récente défaite électorale du premier ministre Viktor Orban – l’un des rares dirigeants européens à soutenir ouvertement Vladimir Poutine et sa politique – ne semble pas laisser présager un quelconque rapprochement entre le géant russe et le club de Budapest.

Gazprom et l’« artwashing »

Parallèlement, Gazprom possède un vaste groupe médiatique, Gazprom-Media, qui contrôle des dizaines de chaînes de télévision, de radios, de plateformes numériques et de salles de cinéma. L’entreprise finance également expositions, festivals et projets artistiques en Russie et à l’étranger.

Gazprom fut notamment mécène, au côté d’Engie, de l’exposition Pierre le Grand, un tsar en France. 1717 au château de Versailles en 2017. Le PDG de Gazprom France déclarait alors que, si les énergies fossiles venaient un jour à disparaître, les grandes institutions culturelles demeureraient et conserveraient le nom de leurs bienfaiteurs. Ce mécénat s’inscrivait dans un contexte diplomatique précis : malgré les sanctions liées à l’annexion de la Crimée, la France et la Russie ont affiché une volonté de rapprochement, incarnée par cette exposition à laquelle Emmanuel Macron et Vladimir Poutine ont assisté côte à côte.

Depuis 2022 et l’exclusion de la Russie des grandes compétitions sportives internationales, Gazprom semble avoir réorienté ses investissements.

À l’étranger, les projets culturels de Gazprom se concentrent désormais majoritairement sur la Chine, les pays des BRICS et le Sud global – une telle initiative qui traduit une volonté de construire de nouveaux relais symboliques hors du cadre occidental.

En 2025, Gazprom-Media a soutenu le film russe Groupe sanguin, présenté au China Film International Festival. Ce film, consacré à la mémoire de la Seconde Guerre mondiale, participe à une relecture historique valorisant la souffrance soviétique et créant des parallèles avec la mémoire chinoise. Cette démarche s’est inscrite dans une stratégie plus large de rapprochement entre la Russie et la Chine, dans un contexte de recomposition géopolitique et de volonté de dissociation du monde occidental.

Du mécénat au soft power

Ces pratiques illustrent l’émergence d’une nouvelle forme de diplomatie qui ne s’adresse plus seulement aux gouvernements, mais directement aux publics.

Le père fondateur du soft power, Joseph Nye, définit celui-ci comme la « capacité d’influencer par l’attraction plutôt que par la contrainte », tandis que Nicholas Cull évoque une « nouvelle diplomatie publique » impliquant entreprises, institutions culturelles et médias. Cependant, comme le rappelle Maxime Audinet, cette diplomatie reste historiquement liée à des formes de propagande.

L’artwashing et le sportwashing apparaissent ainsi comme des avatars contemporains de cette diplomatie du public. Ils mobilisent les émotions et les valeurs culturelles pour influencer les perceptions internationales, tout comme les nouvelles formes de déstabilisation employées par le Kremlin. Ils sont un moyen innovant de faire basculer l’opinion publique sur certains sujets. Ce fonctionnement n’est pas sans rappeler les récentes stratégies d’influence et d’ingérence employées par le Kremlin après 2022, comme celle des étoiles de David peintes en région parisienne, suggérant une démultiplication des stratégies d’influence.

La frontière entre diplomatie culturelle, soft power et propagande demeure cependant fragile. Derrière la valorisation de l’art ou du sport se cachent souvent des objectifs économiques et politiques, soulevant des enjeux éthiques majeurs.

Gazprom apparaît ainsi comme un acteur innovant en matière d’influence et de diplomatie. Le géant russe a été l’un des premiers acteurs étatiques à financer massivement le football européen moderne, ciblant notamment des zones stratégiques liées aux infrastructures énergétiques. Depuis 2022, l’entreprise semble accorder une certaine importance au mécénat culturel et aux collaborations artistiques pour continuer à façonner l’opinion publique étrangère, établissant des ponts émotionnels et culturels qui échappent aux canaux gouvernementaux traditionnels et s’adressant directement aux populations. L’année 2022 marque ainsi un tournant pour Gazprom et la Russie, avec un réajustement stratégique orienté vers de nouvelles opportunités, en particulier la Chine, les BRICS et leurs rares alliés européens.

The Conversation

Oriana Jimenez ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

27.04.2026 à 11:00

Influence des collègues : obtenir un crédit dépend-il uniquement des échanges avec son banquier ?

Sarah Maire, Assistant Professor in Accounting and Control, Ph.D., IÉSEG School of Management

Aurore Burietz, Professeur de Finance, LEM-CNRS 9221, IÉSEG School of Management

Jérémie Bertrand, Professeur de finance, IESEG School of Management et LEM-CNRS 9221, IÉSEG School of Management, IÉSEG School of Management

Le taux auquel est attribué un crédit à une entreprise dépend de facteurs qualitatifs. Qui sont les chargés de clientèle les plus influençables ?
Texte intégral (1436 mots)

Les conditions de crédits accordées aux entreprises ne dépendent pas uniquement de données quantitatives. Certains chargés de clientèle font confiance à des facteurs plus qualitatifs et consultent leurs collègues avant de prendre des décisions. Les directions des banques devraient se saisir de ce sujet pour tenter de corriger des écarts difficiles à objectiver.


Deux entreprises au profil financier similaire devraient obtenir les mêmes conditions de crédit. Dans le cas contraire, quels seraient les facteurs expliquant des conditions différentes d’une entreprise à une autre si ces deux entreprises représentent le même risque ?

Si l’évaluation d’un dossier de crédit repose sur une procédure objective établie par la banque, comment une telle situation peut-elle se produire ?

L’influence des collègues

L’une des pistes envisagées dans notre étude porte sur l’influence des collègues du chargé de crédit au sein d’un même centre d’affaires et soulève la question suivante : comment, à travers une discussion entre deux chargés de crédit, la décision finale se retrouve altérée selon l’opinion de son voisin de bureau ? Réussir à identifier une telle influence est crucial pour appréhender les inégalités de financement pouvant en résulter et ainsi envisager une modification des pratiques bancaires.

Lors d’une demande de financement à la banque, l’entreprise doit fournir un certain nombre d’informations et de documents pour que le chargé de crédit analyse le projet à financer et la situation financière de son client, tout en tenant compte du contexte économique. La décision d’octroyer ou non un crédit et ses conditions n’est pas aisée : quel montant d’emprunt autoriser ? À quel taux ?

La part du « feeling »

Ces décisions reposent non seulement sur des données chiffrées comme sa notation financière ou son chiffre d’affaires, appelées informations quantitatives, mais aussi sur une part importante de jugement humain basé entre autres sur le ressenti en rendez-vous, la durée de la relation entre la banque et l’entreprise, ou la maîtrise de la langue de l’emprunteur, appelées informations qualitatives.

Dans ce genre de situation impliquant de nombreux paramètres et un niveau de technicité important, le chargé de crédit peut être tenté de demander l’avis d’un de ses collègues afin d’être sûr de prendre la bonne décision. L’influence des collègues, ce qu’on appelle l’effet de pairs, peut ainsi influencer les préférences individuelles des chargés de crédit, allant jusqu’à un pour cent d’écart de taux.

Assimilation ou contraste ?

De manière générale, un individu a davantage tendance à demander l’avis d’une personne qui lui ressemble, mais cette attitude est principalement motivée par le désir d’obtenir des informations qui lui seront utiles dans sa situation personnelle. Ainsi, demander l’avis ne veut pas forcément dire adopter le même point de vue.

Dans le cas d’un chargé de crédit qui demande l’avis de son collègue, ce chargé de crédit peut donc avoir deux réactions différentes. Soit il décide d’ajuster son point de vue pour aligner sa décision avec ce que pense son collègue (posture d’assimilation), soit il choisit de ne pas aller dans le même sens que son collègue (posture de contraste). Les résultats de notre étude révèlent que les deux postures existent et dépendent du profil du chargé de crédit.

Dans le cas d’un chargé de crédit qui a tendance à privilégier les informations qualitatives davantage liées à la relation banque-emprunteur et qui en plus de ça travaille dans une agence où cette préférence est partagée, l’effet de pairs amplifie cette tendance et les chargés de crédit prêtent plus d’attention à ces informations. Ils se renforcent dans leurs positions et leurs décisions de crédit sont ajustées en conséquence : c’est un exemple d’assimilation où le chargé de crédit s’aligne sur ses pairs.

À l’inverse, l’effet de pairs peut atténuer les préférences individuelles dans le cas des chargés de crédit qui ont une préférence pour l’utilisation d’informations financières dites quantitatives pour prendre leur décision. Autrement dit, un chargé de crédit valorisant fortement l’analyse des documents comptables dans une agence où cette approche est moins partagée ajustera sa décision pour tenir davantage compte d’informations qualitatives, à priori moins importantes pour lui. Cette dynamique témoigne d’une posture de contraste où le chargé de crédit va ajuster sa décision dans le sens contraire de ce qu’il aurait fait sans l’avis de ses collègues.

Une question d’expérience ?

Les données qui soutiennent notre étude permettent en outre d’identifier les profils des chargés de crédit les plus sensibles à l’effet de pairs. D’abord, si l’on regarde les caractéristiques des chargés de crédits : les femmes, plus sensibles aux informations qualitatives, sont davantage influencées que les hommes. Leur évaluation des prêts est renforcée quand leurs collègues partagent leur vision relationnelle du crédit.

Si on se tourne vers l’expérience des chargés de crédits, les moins expérimentés sont plus perméables à l’opinion de leurs pairs. À l’inverse, les chargés seniors maintiennent davantage leurs positions initiales. Enfin, un fait surprenant est apparu : le niveau d’études ne semble pas influencer la sensibilité à l’effet de pairs.

L’environnement de travail joue également. Dans les petites agences où la socialisation est élevée, l’effet de pairs s’intensifie. Dans les plus grandes agences, où les interactions sont plus diluées, cet effet diminue. Enfin, un chargé de crédits privilégiant les informations qualitatives qui rejoint une agence partageant cette préférence verra l’impact de ses préférences accentué. Le résultat est le même pour ceux valorisant les informations quantitatives. Cela démontre que la composition d’une agence bancaire façonne les décisions d’emprunt, au-delà des politiques globales de la banque.

Une question pour les RH des banques

Ces conclusions amènent à poser la question de la meilleure organisation pour les banques ? Pour éviter une homogénéité excessive des décisions, qui peut conduire à discriminer certains emprunteurs ou à sous-évaluer certaines informations, les banques devraient favoriser la diversité des profils au sein d’une même agence en privilégiant la mixité de genre et la diversité d’expérience. Les mutations entre agences devraient également tenir compte de la composition actuelle des équipes, et pas seulement des affinités personnelles ou des postes vacants. Le recours à des outils d’IA ne supprimerait pas ce possible écart, car l’IA peut être très biaisée en fonction de la base qui l’a entraînée, et à ce jour une décision ne peut pas être prise par une IA.

Les décisions liées à l’octroi d’un crédit et à la détermination des conditions d’emprunt ne sont jamais purement individuelles. Elles se construisent dans un dialogue implicite avec les pairs, et cela ne peut être ignoré. Comprendre les mécanismes sous-jacents à ces prises de décisions permet aux banques de comprendre leurs propres pratiques et de rechercher des décisions plus justes pour elles-mêmes et leurs clients.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF
50 / 50
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Issues
Korii
Lava
La revue des médias
Time [Fr]
Mouais
Multitudes
Positivr
Regards
Slate
Smolny
Socialter
UPMagazine
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
À Contretemps
Alter-éditions
Contre-Attaque
Contretemps
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
 
  ARTS
L'Autre Quotidien
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Gigawatts.fr
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
Gauche.Media
CETRI
ESSF
Inprecor
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
🌓