31.03.2025 à 11:59
Marie-Christine Lichtlé, Professeur des Universités, Co-Responsable de la Chaire MARÉSON, Université de Montpellier
Anne Mione, Professeur de marketing stratégique, management de la qualité et stratégie, Université de Montpellier
Béatrice Siadou-Martin, Professeur des universités en sciences de gestion, Co-responsable de la Chaire MARESON, Université de Montpellier
Jean-Marc Ferrandi, Professeur Marketing et Innovation à Oniris, Université de Nantes, Co-fondateur de la Chaire MARÉSON, Nantes Université
De nouvelles pousses entrepreneuriales émergent pour valoriser des déchets comestibles en biscuits apéritifs ou plats préparés. Une étude menée auprès de 941 consommateurs français questionne l’acceptabilité de cet upcycling alimentaire.
Les entreprises proposant de l’upcycling alimentaire, surcyclage ou valorisation ont le vent en poupe. Hubcycled produit de la farine à partir de lait de soja ou arôme à base de pépins de fraises, la biscuiterie Ouro valorise de la drêche en biscuits apéritifs ou In Extremis valorise des pains invendus en boulangerie dans une proposition de biscuits apéritifs.
« L’upcycling alimentaire est défini comme un aliment dont au moins un des ingrédients serait soit un coproduit ou un résidu de la fabrication d’un autre produit (drêche pour la bière), soit un produit invendu (pain), soit un ingrédient qui était précédemment considéré comme un déchet et/ou gaspillé dans la chaîne d’approvisionnement. »
En raison des coûts liés à la collecte de ces déchets ou invendus et de ceux liés à leur transformation, le prix de vente de ces produits upcyclés est plus élevé que celui des offres traditionnelles. Mais, qu’en est-il de l’acceptabilité de ces produits par le consommateur ? Est-il prêt à consentir ce sacrifice monétaire pour se tourner vers une offre alimentaire durable ? Ce modèle de niche peut-il devenir un business model soutenable ? Telles sont les questions auxquelles nous répondons dans une recherche menée auprès de 941 consommateurs.
En 2021, 8,8 millions de tonnes de déchets alimentaires ont été produits en France. Parmi ces déchets, 4,3 millions de tonnes sont comestibles – aliments non consommés encore emballés, restes de repas, etc. Pour encourager les entreprises dans la transition écologique de leurs modèles de production, le gouvernement a voté en 2020 la loi antigaspillage pour une économie circulaire (Agec). Car l’industrie agroalimentaire est confrontée à des enjeux importants : assurer la sécurité alimentaire, proposer une offre durable, limiter le gaspillage alimentaire à tous les niveaux que ce soit la production, la distribution ou la consommation.
Notre objectif est de mesurer l’acceptabilité des produits upcyclés et d’identifier les attributs susceptibles d’accroître cette acceptabilité – selon qu’ils portent sur l’entreprise, sur la qualité du produit ou du processus de fabrication.
Abonnez-vous dès aujourd’hui !
Chaque lundi, des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).
Pour mesurer l’acceptabilité des consommateurs vis-à-vis de ces produits upcyclés, notre recherche s’appuie sur une expérimentation menée auprès de 941 consommateurs. Après avoir pris connaissance d’une offre de biscuits apéritifs – prix, poids, visuel du produit, libellés –, ces derniers ont été interrogés à quatre reprises. Les données collectées permettent d’apprécier la réponse comportementale du consommateur, appréhendée par l’attitude envers le produit et le consentement à payer dans un premier temps avec une présentation minimale de l’offre.
Des informations sont également fournies et communiquent sur trois bénéfices potentiels différents : la démarche vertueuse de l’entreprise, la qualité gustative et la qualité processuelle des biscuits.
Notre recherche a trois enseignements principaux. Le premier concerne le consentement à payer. En moyenne, les consommateurs indiquent un consentement à payer de 1,96 euro. Ce prix est bien supérieur au prix de référence du marché (le leader du marché propose le produit à 0,90 euro). Il reste cependant inférieur au coût réel de cette offre ou des offres qualitatives (certaines marques bio sont vendues à plus de 3 euros).
Deuxièmement, l’ajout d’un argument, peu importe sa nature, permet d’améliorer la valeur créée. Le consommateur est alors prêt à payer en moyenne 2,15 euros au lieu de 1,96 euro (soit un gain d’environ 10 %). Cependant, l’ajout d’un ou de deux arguments supplémentaires n’améliore pas le consentement à payer.
Ce nouveau produit n’est pas accepté de la même manière selon tous les consommateurs ; cela justifie la mise en œuvre d’une approche différenciée. En effet, la distance psychologique influence la perception et la représentation du produit upcyclé. Elle est définie par la théorie du niveau de construit comme une expérience subjective associée au degré de proximité ou de distance qu’un individu éprouve à l’égard d’un objet, ici le biscuit. Nous montrons que la distance psychologique explique l’attitude envers le produit et le consentement à payer. Autrement dit, les consommateurs les moins distants du biscuit ont un consentement à payer supérieur à celui des personnes distantes et ont l’attitude la plus favorable. Inversement, les plus distants envers le biscuit ont le consentement à payer le plus faible et l’attitude la plus défavorable.
Cette recherche suggère ainsi des pistes pour améliorer la durabilité de ce business model. En termes de communication, il est important pour les entreprises évoluant sur ce marché d’ajouter un avantage cohérent avec le caractère upcyclé et de communiquer sur celui-ci. Cette communication a pour objectif de renforcer la crédibilité des entreprises sur ce marché. Elle doit s’appuyer sur des arguments concrets afin de réduire la distance psychologique.
Il est inutile de démultiplier les avantages, car ces efforts de communication n’améliorent pas nécessairement le consentement à payer et l’attitude. Ce résultat est convergent avec les effets limités montrés par la multilabellisation des produits alimentaires. Les études montrent qu’avoir plusieurs labels ou certifications n’améliorent pas le consentement à payer pour des produits alimentaires tels que le miel.
Les entreprises doivent clairement s’adresser aux consommateurs sensibles au gaspillage alimentaire et se positionner sur ce marché de niche avant de pouvoir espérer atteindre l’ensemble des consommateurs. Cette segmentation permet d’offrir des pédagogies différenciées adaptées aux différents publics pour réduire leur distance psychologique vis-à-vis des biscuits et… les convaincre d’acheter ce produit avec un consentement à payer plus élevé.
Marie Eppe, fondatrice d’In Extremis, a participé à la réalisation de cette contribution.
Béatrice Siadou-Martin a reçu des financements de l'ADEME et de la Région Pays de la Loire (programme IP-AG).
Jean-Marc Ferrandi a reçu des financements de l'ADEME et de la Région Pays de la Loire (programme IP-AG)
Anne Mione et Marie-Christine Lichtlé ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
31.03.2025 à 11:59
Kamel Si Mohammed, researcher, Université de Lorraine
Vanessa Serret, Professor, IAE Metz School of Management – Université de Lorraine
Emprunt émis sur les marchés financiers par un État ou une entreprise pour financer des projets liés spécifiquement à l’environnement, les obligations vertes sont entre deux eaux. D’un côté, les velléités de Donald Trump de mettre fin aux politiques climatiques. De l’autre, un boom de ce marché avec 530 milliards de dollars d’émissions en 2024.
Avec l’élection de Donald Trump, les acteurs de la finance verte grincent des dents. Le président américain a fait réagir en décidant de sortir de l’accord de Paris. Entre 8 100 et 9 000 milliards de dollars par an jusqu’en 2030. C’est l’argent qu’il faudrait mobiliser pour atteindre les objectifs climatiques mondiaux selon le Climate Policy Initiative. Pour lever ces sommes colossales, les gouvernements et les entreprises se tournent de plus en plus vers les obligations vertes.
Dans une étude sur les États-Unis de 2008 à 2022, nous explorons la manière dont ces obligations contribuent à la réduction des risques climatiques. À l’instar des obligations classiques, les obligations vertes sont des emprunts – et donc des dettes – émis sur le marché par des États ou des entreprises. Ces obligations vertes sont destinées uniquement à financer des activités écologiques. Avec quels résultats ?
Les États-Unis, après avoir réintégré l’Accord de Paris en 2021, se sont fixés des objectifs ambitieux : réduire de 50 à 52 % leurs émissions de gaz à effet de serre d’ici 2030 par rapport au niveau de 2005. Pour atteindre ces objectifs, le pays mise sur la finance verte, notamment via les obligations vertes.
Dès 2020, les États-Unis ont été le plus grand émetteur mondial d’obligations vertes, avec 51,1 milliards de dollars émis selon la Climate Bonds Initiative. Cette tendance s’est poursuivie, atteignant 550 milliards de dollars en 2024, se rapprochant du record de 588 milliards de dollars établi en 2021. Fannie Mae, organisme spécialisé dans la garantie des prêts immobiliers, a été un pionnier des obligations vertes.
Apple a émis sa première obligation verte en 2016, avec un montant de 1,5 milliard de dollars, établissant ainsi un jalon important dans le secteur de la finance durable pour une entreprise technologique. Après une légère baisse en 2017, les émissions ont augmenté à partir de 2019, atteignant 4,5 milliards de dollars en 2024.
Notre étude sur le marché américain analyse la période de 2008 à 2022. Elle prend en compte plusieurs événements majeurs, tels que la signature de l’accord de Paris, mais aussi des crises économiques comme la crise financière de 2008 et la pandémie de Covid-19. Les chocs économiques – comme la crise de 2008 ou la guerre en Ukraine – augmentent l’incertitude. Elles rendent les obligations vertes plus attractives en tant que valeurs refuges. Plus l’incertitude économique est élevée, plus les obligations vertes démontrent leur résilience en réduisant les risques climatiques.
Un point clé de cette recherche est l’impact de l’incertitude économique sur les obligations vertes. Pour mesurer cela, nous avons utilisé l’indice d’incertitude politique économique, ou Economic Policy Uncertainty (EPU), ainsi que l’indice des sommets climatiques, ou Climate Summit Index (CSI). Ces indices reflètent la manière dont les événements politiques et les engagements climatiques influencent les marchés financiers.
Les résultats économétriques montrent que les obligations vertes jouent un rôle crucial dans la réduction des risques climatiques. Toutefois, l’efficacité de ces obligations est à nuancer. Par exemple, lorsque les engagements politiques en faveur du climat sont faibles, l’impact des obligations vertes s’avère plus limité.
Pour mener cette analyse, nous avons utilisé la méthode statistique appelée régression quantile-surquantile multivariée. Cette méthodologie permet de mesurer l’impact des obligations qui peut être asymétrique selon une période de faible ou de forte incertitude économique. Ils permettent d’étudier la relation dynamique entre les obligations vertes et les risques climatiques selon différents scénarios de marché.
Nos résultats montrent que lorsque le marché des obligations vertes est encore peu développé, leur capacité à réduire les risques climatiques est plus limitée. Cependant, au fur et à mesure que le marché des obligations vertes se développe, leur impact positif sur la réduction des risques climatiques devient plus prononcé. Autrement dit une plus grande émission d’obligations vertes est associée à une baisse significative des risques climatiques.
L’efficacité des obligations vertes dépend des politiques climatiques mises en place lors des sommets internationaux mesurés par l’indice de sommet climatique. Nous avons constaté que les engagements pris lors de ces sommets influencent directement le marché des obligations vertes. Lorsque les gouvernements prennent des mesures strictes pour réduire les émissions de carbone, la demande pour ces obligations augmente, ce qui renforce leur impact positif sur la réduction des risques climatiques.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Notre étude montre que l’indice de risque climatique diminue d’environ 16 %, lorsque l’émission d’obligations vertes est très élevée, illustrant leur effet significatif dans l’atténuation du risque climatique. Cependant, lorsque l’indice des sommets climatiques est faible, l’effet des obligations vertes sur la réduction du risque climatique est plus limité, enregistrant une baisse d’environ 12 %.
Ces résultats soulignent la nécessité d’un cadre réglementaire incitatif pour favoriser l’expansion du marché des obligations vertes et maximiser leur efficacité dans la lutte contre le changement climatique.
Notre étude propose au moins trois recommandations pratiques à destination des décideurs et des investisseurs pour maximiser l’impact des obligations vertes.
Instaurer un cadre incitatif solide : mettre en place des garanties gouvernementales, afin de réduire les risques financiers associés aux obligations vertes et ainsi attirer un plus grand nombre d’investisseurs.
Établir des normes claires : définir précisément les critères qui qualifient une obligation verte. Cela permettra d’accroître la transparence et la confiance des investisseurs, tout en renforçant l’intégrité du marché.
Faciliter l’accès aux obligations vertes, notamment pour les petites entreprises et les investisseurs institutionnels, en développant des plates-formes de trading dédiées comme le Luxembourg Trade Exchange.
Les obligations vertes ne se limitent pas à un simple instrument financier. Elles représentent un levier puissant pour accélérer la transition écologique, réduire les risques climatiques et stabiliser les marchés financiers face aux incertitudes économiques et politiques. Cependant, notre étude met en lumière une limite notable : les résultats se concentrent principalement sur les États-Unis, un marché financier mature. Il serait essentiel d’élargir le champ d’analyse aux pays émergents, où les risques climatiques et les incertitudes économiques sont souvent plus marqués.
En 2023, les émissions d’obligations vertes dans les marchés émergents ont augmenté de 34 %, atteignant 135 milliards de dollars. Ces chiffres soulignent le potentiel croissant de ces instruments dans ces régions. Des recherches futures pourraient explorer comment ces obligations peuvent répondre aux besoins spécifiques des économies émergentes, pays où le risque climatique est souvent plus élevé ainsi que l’incertitude politique.
rien à déclarer
Kamel Si Mohammed ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
31.03.2025 à 11:59
Cécile Cezanne, Maître de conférences-HDR en économie, Université Côte d’Azur
Gaye-Del Lo, Maître de conférences, Centre d'Économie Paris Nord (CEPN), Université Sorbonne Paris Nord
Sandra Rigot, Professeur des Universités en économie, Université Sorbonne Paris Nord, Chaire « Énergie et Prospérité, Chaire Economie du Climat, Université Sorbonne Paris Nord
Une étude menée sur 305 entreprises cotées en France, en Allemagne, au Royaume-Uni et au Japon, met en lumière l’influence du conseil d’administration sur la réduction des émissions de gaz à effet de serre (GES). Une empreinte surtout prégnante dans les entreprises les plus émettrices.
Sous la pression des tensions géopolitiques et des impératifs de compétitivité, l’Union européenne a amorcé un choc de simplification du Green Deal incarné par les directives Omnibus. Inspiré par les conclusions du rapport Draghi sur le décrochage économique de l’Europe, ce texte allège les contraintes réglementaires, notamment en matière de normes dans les domaines environnementaux, sociaux et de gouvernance. Cette inflexion du cadre institutionnel risque de ralentir la transition écologique. À moins que les entreprises s’engagent volontairement à adapter leur gouvernance face aux défis climatiques actuels…
En tant qu’organe de gouvernance par excellence, le conseil d’administration a un rôle crucial à jouer. Notre étude récente menée sur 305 entreprises cotées en France, en Allemagne, au Royaume-Uni et au Japon, entre 2015 et 2021, met en lumière l’influence du conseil d’administration sur la réduction des émissions de gaz à effet de serre (GES). En substance, le conseil d’administration, souvent perçu comme un organe mis au service de la performance strictement financière de l’entreprise, se révèle être un acteur déterminant de la lutte contre le changement climatique. En favorisant la diversité de genres et en structurant des comités dédiés à la durabilité, il peut contribuer à faire des entreprises de véritables moteurs du changement.
La gouvernance d’entreprise, qui désigne l’ensemble des règles et processus encadrant la gestion et le contrôle des sociétés, a connu une évolution significative au fil des décennies. D’abord centrée sur la maximisation des profits et la protection des intérêts de court terme des actionnaires, elle s’est progressivement élargie pour inclure des considérations sociales et environnementales. Aujourd’hui, les entreprises sont évaluées non seulement sur leurs performances financières, mais aussi de plus en plus sur leurs résultats en matière de développement durable.
Le conseil d’administration est l’organe chargé d’orienter et de superviser les décisions stratégiques de l’entreprise et de trancher sur toute question relative à son intérêt social. Il remplit deux fonctions majeures : la gestion des décisions, qui consiste à influencer et soutenir les choix stratégiques des dirigeants, et surtout le contrôle des décisions en veillant à ce que ces choix respectent l’intérêt global de l’entreprise et de ses parties prenantes.
En matière de transition écologique, le conseil d’administration doit adopter des stratégies environnementales basées sur des exigences réglementaires et des normes internationales non obligatoires : GRI, IR, TCFD, CDP, etc. Parmi ces décisions, on peut citer la fixation de cibles environnementales mesurables, le développement de l’économie circulaire et des chaînes d’approvisionnement responsables ou encore l’investissement dans l’innovation verte. Ces démarches sont fondamentales car elles influencent directement la capacité d’une entreprise à réduire ses émissions de GES.
Notre étude montre que la composition du conseil d’administration joue un rôle déterminant sur la performance carbone des entreprises.
Parmi les facteurs essentiels, figure d’abord la diversité de genres au sein de l’instance ; les entreprises ayant une plus forte proportion de femmes administratrices affichent des niveaux d’émissions plus faibles. Le parcours de formation – droit, sciences humaines, sciences de l’éducation – et les dynamiques professionnelles des femmes diffèrent sensiblement de ceux de leurs homologues masculins selon Galbreath et Jaffe & Hyde.
Abonnez-vous dès aujourd’hui ! Chaque lundi, des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).
Plus enclines à soutenir des initiatives philanthropiques et à valoriser la responsabilité sociétale des entreprises, elles se distinguent par une sensibilité accrue aux enjeux sociaux et environnementaux. Cette orientation les conduit à promouvoir des politiques de durabilité et à exercer une surveillance rigoureuse sur les engagements environnementaux.
Un autre facteur clé est la création de comités spécialisés au sein du conseil d’administration. Notre étude montre que les entreprises disposant d’un comité RSE (responsabilité sociale et environnementale) enregistrent une meilleure performance en matière de réduction des GES. Notamment pour les émissions directes (Scope 1) et indirectes liées à la consommation d’énergie (Scope 2). Même s’ils n’ont aucun pouvoir de décision et que leur mission consiste essentiellement à éclairer les réflexions du conseil d’administration, ces groupes de travail permettent d’instaurer une vigilance accrue sur les objectifs climatiques.
En revanche, la présence de membres indépendants, bien qu’elle garantisse un regard objectif, ne semble pas avoir d’effet direct sur la réduction des émissions. De même, la composition du conseil d’administration n’aurait pas d’influence sur les émissions les plus indirectes (Scope 3), alors que ces dernières représentent environ 80 % des émissions globales des entreprises.
Les résultats varient toutefois selon les domaines d’activité. Les entreprises opérant dans les secteurs à fortes émissions identifiés par le GIEC comme l’énergie, les bâtiments, les transports, l’industrie et l’AFOLU – agriculture, foresterie et autres usages des terres –, bénéficient davantage de ces dispositifs de gouvernance. Dans ces secteurs, la diversité de genres parmi les administrateurs et la présence d’un comité RSE ont un impact particulièrement marqué sur la réduction des émissions. À l’inverse, dans les industries à plus faibles émissions, ces facteurs jouent un rôle moins décisif, probablement en raison d’une empreinte carbone initialement moindre.
Au-delà de la réduction des émissions de GES, le conseil d’administration pourrait se saisir d’une question complémentaire majeure : la préservation de la biodiversité. Essentielle pour assurer la résilience des écosystèmes et garantir la durabilité des activités humaines, elle reste sous-estimée. Or, le conseil a les moyens, outre l’adoption volontaire d’initiatives comme la norme TNFD (Taskforce on Nature-related Financial Disclosures), de pousser les entreprises à limiter activement leur impact sur la biodiversité. Il pourrait veiller à la mise en place de modèles d’affaires attentifs aux écosystèmes, au développement de dispositifs de compensation des atteintes à la biodiversité ou encore à l’adoption de technologies plus respectueuses de la nature. Là encore, la composition du conseil d’administration pourrait être un enjeu de taille. La décision récente de l’entreprise Norsys de faire siéger la nature au sein de son conseil d’administration l’atteste.
Cécile Cezanne est chercheuse associée à la Chaire Énergie et Prospérité (https://chair-energy-prosperity.org/).
Sandra Rigot a reçu le soutien de la Chaire Énergie et Prospérité et de la Chaire Énergie du Climat
Gaye-Del Lo ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
31.03.2025 à 11:58
Florent Noël, Professeur, directeur délégué à la recherche, IAE Paris – Sorbonne Business School
Benoît Grasser, Vice-président adjoint à la politique scientifique, Université de Lorraine
L’autonomie au travail n’est pas toujours désirable. Son attrait dépend notamment de l’environnement de l’organisation. Devenir autonome, cela s’apprend et cela requiert du soutien, une condition nécessaire mais pas suffisante. Car les salariés le savent : dans certaines situations, l’autonomie peut être un piège.
Il ne faut souvent pas longtemps, lors d’une discussion sur la liberté et la responsabilisation dans le travail, pour que s’élève une voix faisant remarquer que certains travailleurs sont réticents, que d’autres en sont incapables et que beaucoup sont les deux à la fois. Or, si certains peuvent revendiquer leur rejet de l’autonomie, c’est peut-être qu’ils n’y ont jamais vraiment goûté ou qu’ils ne savent pas comment être autonome, ou bien encore que l’octroi d’autonomie est considéré comme un marché de dupes au regard du peu de réelle liberté d’agir qui l’accompagne parfois.
On pourrait du reste noter que savoir qu’on ne souhaite pas être autonome ou savoir dans quelle situation on peut l’être ou pas, c’est déjà être en mesure d’exercer un certain niveau d’autonomie.
L’autonomie, entendue comme « le fait de se gouverner soi-même » ne manque pas de charme et on peut avec Jean-Jacques Rousseau (Du contrat social) clamer que « renoncer à sa liberté, c’est renoncer à sa qualité d’homme, aux droits de l’humanité, même à ses devoirs ». On notera toutefois que dans le cadre d’une organisation, des individus reliés par des contrats de travail impliquant toujours un degré de subordination, dépendants les uns des autres pour obtenir les ressources nécessaires à la réalisation de leur travail, coordonnés par des processus pour satisfaire un client, ne sont jamais complètement autonomes.
Inversement, les ergonomes nous l’enseignent, le travailleur « presse-bouton » ne disposant d’aucune marge de manœuvre décisionnelle ou comportementale n’existe pas davantage. Par ailleurs, comme le rappelle Sen, la liberté n’est pas seulement l’absence de contraintes, mais aussi la capacité réelle de pouvoir faire ce qui a de la valeur pour soi. En ce sens, l’autonomie au travail correspond à la fois à la possibilité d’initiative et à la possibilité d’agir dans le sens de ce qui semble être réellement important pour soi.
La question de l’autonomie au travail est un motif récurrent de la théorie des organisations. Faut-il prescrire et contrôler le travail autant que possible comme le suggèrent les approches managériales inspirées du taylorisme ? Ou faut-il au contraire en appeler à l’expertise, au sens de la situation, à la compétence de celui qui fait ? Faut-il trancher cette question au nom de l’efficacité, d’un idéal d’émancipation par le travail ou de la quête de sens et de bien-être ? Les réponses à ces questions mêlent très probablement l’ensemble de ces dimensions, mais le vrai débat porte sur les processus d’autonomisation plus que sur l’autonomie elle-même : comment apprendre individuellement et collectivement à être autonome ?
Cet apprentissage est d’autant plus nécessaire que l’autonomie est au croisement d’intérêts qui ne sont pas forcément contradictoires. L’autonomie est souvent conquise par les salariés. On peut le voir comme une position de principe : s’émanciper ne se discute pas. Mais, ils peuvent également la rechercher parce qu’elle procure des marges de manœuvre qui leur sont nécessaires pour rendre leur travail plus soutenable ou pour faire ce qui à leur sens est du « bon travail ». Exercer un contrôle sur la façon d’exercer son travail, maîtriser les relations dans lesquelles on s’implique sont des moyens de rééquilibrer les exigences du travail et les ressources dont on dispose pour y répondre. Ce faisant, l’exercice de l’autonomie peut conduire à développer des compétences qui en retour renforcent l’autonomie.
À lire aussi : Une entreprise réellement « libérée » est avant tout libérante
De l’autre côté, l’autonomie est aussi souvent requise par l’encadrement. C’est le cas chaque fois que le travail est trop complexe, trop relationnel ou trop peu répétitif pour qu’il puisse être standardisé et prescrit. Accorder de l’autonomie aux salariés, c’est alors s’en remettre à leur expertise et à leur compétence pour que le travail puisse se faire de façon efficace. Ce faisant, lorsque l’autonomie est utilisée à bon escient selon l’employeur, c’est-à-dire de façon à produire de la valeur pour l’organisation, il est probable qu’elle entraîne davantage encore de délégation.
L’apprentissage de l’autonomie est donc une affaire de pilotage fin. Comme nous avons pu l’observer dans des organisations qui ne revendiquent pas un style de management particulièrement fondé sur l’autonomie, en l’occurrence les agences de France Travail (ex Pôle emploi) : les salariés disposent au quotidien d’une certaine marge de manœuvre, soit parce qu’on la leur accorde explicitement, soit parce qu’il y a toujours des failles dans la prescription. Ils ne peuvent toutefois réellement s’en saisir que s’ils ne rencontrent pas d’obstacles individuels – il faut croire en ses capacités et pour cela avoir des capacités – ou d’obstacles collectifs, il faut d’une part que le management accepte voire encourage l’exercice de ces marges de manœuvre et d’autre part que les salariés aient réellement les moyens de faire ce qu’ils jugeraient adaptés à la situation.
Abonnez-vous dès aujourd’hui !
Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).
Lorsque ces conditions sont réunies, des boucles vertueuses d’apprentissage peuvent se mettre en place. À mesure que les salariés font usage de leur autonomie pour viser des réalisations ayant de la valeur pour eux, ils font l’expérience de leurs capacités et peuvent découvrir le plaisir qu’il y a à bénéficier d’un certain degré de liberté. Parallèlement, à mesure qu’ils font usage de leur autonomie pour viser des réalisations ayant de la valeur pour l’organisation, il est probable qu’ils conquièrent la confiance de leur encadrement et puissent bénéficier de davantage de ressources, du temps et des budgets qui renforceront également leurs capacités.
Le niveau d’autonomie est donc systématiquement l’objet d’une négociation et d’un apprentissage collectif, d’une interaction entre des capacités et une volonté individuelle et un environnement plus ou moins « capacitant ». « Libérer » le travail ne se décrète pas, cela s’apprend. Il faut explorer les marges de manœuvre dont on dispose réellement, au-delà de ce qui en est dit, et savoir quoi en faire, ce qui questionne les motivations de l’individu et leur alignement sur les finalités de l’organisation. Une fois la dynamique enclenchée, il faut ensuite l’entretenir.
C’est, d’ailleurs, à ce stade que l’autonomie peut être mobilisée pour renforcer l’autonomie elle-même : se mettre en position d’apprendre et s’organiser individuellement et collectivement pour accumuler les ressources permettant de dégager plus de marges de manœuvre. Cela passe par gagner du temps, gagner la confiance du management, redéfinir les priorités, proposer des axes de développement pour soi et pour l’entreprise…
On comprend mieux les réticences affichées que nous rappelions au début de cet article : l’autonomie n’est pas à la portée de tous les salariés et il faut toujours une petite dose de savoir-faire au départ. Cette dernière peut s’acquérir si elle venait à manquer. Mais l’autonomie n’est surtout pas à la portée de toutes les organisations.
L’autonomie est parfois perçue par les salariés comme un piège à éviter. Il y a tout d’abord le risque qu’elle ne soit qu’une injonction paradoxale. C’est le cas lorsque l’autonomie se limiterait à dégager des marges de manœuvre pour viser des objectifs auxquels les salariés n’adhèrent pas voire réprouvent. Il faut donc que l’organisation puisse ouvrir ses finalités aux propositions qui émanent des salariés qui la peuplent.
Ouvrir des espaces d’apprentissage individuel et collectif – et s’en nourrir – est une question de volonté managériale et de design organisationnel. Lorsque l’organisation ne laisse pas faire, n’autorise pas les prises d’initiative ou laisse ceux qui en prennent démunis face aux manques de moyens, le piège de l’autonomie se referme. Sur ce point, le management de proximité doit savoir lâcher prise, c’est une évidence. Il faut aussi réfléchir à la rémanence des contraintes tapies dans les outils de travail et les processus de gestion qu’on déroule, sans toujours prendre pleinement conscience de l’enfermement qu’ils génèrent.
Il y a enfin le risque de polarisation. Il est tout à fait probable que les démarches managériales visant à s’appuyer sur l’autonomie éveillent prioritairement l’intérêt de ceux qui ont le plus confiance dans leur potentiel et qui pensent pouvoir porter des initiatives qui seront accueillies favorablement. Ceux-là ont peu à perdre. Ils ne peuvent que bénéficier du processus d’automatisation.
À l’opposé, ceux qui doutent d’eux-mêmes ou du caractère « capacitant » de leur environnement professionnel pourraient légitimement hésiter à entrer dans ces apprentissages. Ils n’auront pas l’occasion de montrer ce qu’ils peuvent faire, d’expérimenter la satisfaction de se sentir compétents et de participer au développement de leur organisation. Il est fort probable qu’on intensifie pour eux la prescription. La responsabilité initiale leur incombe peut-être, mais on peut encore se demander s’il ne serait pas du devoir et de l’intérêt de l’organisation d’aller les chercher.
Florent Noël est chercheur dans une équipe de recherche dont les travaux reçoivent le concours de l'IPSI (Institution pour le progrès social dans l'industrie). L'IPSI n'est intervenue a aucun moment dans la rédaction de cet article et de la recherche dont il est issu. La recherche dont cet article est issu a été réalisée dans le cadre d'un contrat de recherche avec la direction des statistiques, études & évaluation de Pôle Emploi (devenu depuis France Travail)
La recherche dont cet article est issu a été réalisée dans le cadre d'un contrat de recherche avec la direction des statistiques, études & évaluation de Pôle Emploi (devenu depuis France Travail). Benoît Grasser était membre de l'équipe de chercheurs qui a travaillé dans le cadre de ce contrat de recherche.
31.03.2025 à 11:58
Valérie Petit, Full Professor in Management, ESSCA School of Management
L’hubris des dirigeants est souvent mis en cause quand des dysfonctionnements surviennent. Mais de quoi parle-t-on précisément ? Comment s’en prémunir individuellement, et protéger les entreprises mais aussi la démocratie ?
Huit cents milliards de capitalisation boursière à Wall Street perdus et un recul de 50 % à 80 % des ventes de véhicules : c’est le bilan catastrophique de Tesla ces trois derniers mois. C’est aussi, possiblement, le chiffrage le plus précis de l’hubris d’Elon Musk depuis que ce dernier a pris ses quartiers au cœur du pouvoir politique américain. Si cet effondrement surprend les commentateurs et les investisseurs, en revanche, il n’étonne guère les chercheurs en gestion qui, depuis près de trente ans, se sont attachés à mesurer le coût de l’hubris du dirigeant pour son entreprise.
C’est en 1986 que Richard Roll, professeur de finance à Caltech, au cœur de la Silicon Valley, publie les premiers travaux sur l’hubris du dirigeant. À l’époque, il tente d’expliquer pourquoi certains CEO paient trop cher certaines acquisitions. Après avoir épuisé toutes les explications habituelles, il finit par conclure qu’une partie du surcoût peut être imputée à l’égo du dirigeant et à la perte, par celui-ci, du sens de la mesure : c’est ce que Roll nomme l’hypothèse d’hubris. À sa suite, de nombreux travaux en gestion souligneront l’impact négatif de l’hubris du dirigeant sur les choix stratégiques et la performance financière de leurs entreprises. Dans les années 2000, la révélation de scandales tels qu’Enron, Lehman Brothers ou encore Vivendi Universal, donnant à voir la combinaison dramatique de l’égo, de la mauvaise gestion voire de la corruption placera définitivement le risque d’hubris du dirigeant à l’agenda des scientifiques et des parties prenantes. Mais comment mesurer et prévenir ce risque ?
La chose est compliquée, car il faut d’abord définir ce qu’est l’hubris ; or, le terme fait moins référence à un concept qu’à un ensemble de mythes mettant en scène l’arrogance et l’insolence funestes de l’homme face aux dieux. On pense au mythe d’Icare qui, méprisant les conseils de son père, vole trop près du soleil pour finir dans la mer, mais aussi à celui de Phaéton, qui, tenant à conduire le char du dieu Soleil à la place de son père Apollon, met le feu aux nuages.
Dans l’Antiquité, l’hubris est considérée comme un crime. Pour Platon : « Quand déraisonnablement, un désir nous entraîne vers les plaisirs et nous gouverne, ce gouvernement reçoit le nom d’hybris ». Et Aristote de préciser le plaisir qu’y trouve celui qui en souffre :
À Rome, Suétone brosse le portrait des 12 césars, ces hommes qui disposent d’un pouvoir tellement grand que leur psyché s’en trouve altérée. L’histoire retiendra plutôt la folie de Néron que la modération de Marc Aurèle. Deux mille ans plus tard, les historiens parleront de « césarite », la maladie des césars, pour désigner cette maladie du pouvoir absolu, souvent résumée par la phrase de Lord Acton : « Le pouvoir corrompt, et le pouvoir absolu corrompt absolument. » L’idée que le pouvoir rend fou s’ancre définitivement dans la croyance populaire.
Abonnez-vous dès aujourd’hui !
Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).
Mais comment scientifiquement mesurer cela ? Et surtout comment distinguer dans cette « folie » ce qui appartient à l’individu en propre (par exemple, un trouble de la personnalité narcissique) et ce qui relève des effets du pouvoir auquel il est exposé ?
Les premières tentatives de mesure de l’hubris du dirigeant peuvent prêter à sourire : occurrence du pronom « je » dans les discours du dirigeant, taille de sa photo dans le rapport annuel… les chercheurs mobilisent des mesures très approximatives. Par ailleurs, la clarté conceptuelle n’est pas toujours au rendez-vous : sous le label « hubris » se retrouvent des notions pourtant distinctes telles que le narcissisme (un trouble de la personnalité), la surconfiance (un biais cognitif) ou l’orgueil (un vice). En 2009, la recherche connaît un tournant. Lord David Owen, médecin psychiatre et ancien ministre des affaires étrangères britannique, propose un tableau clinique du syndrome d’hubris, regroupant 14 items diagnostiques. Parmi ceux-ci, on retrouve :
des aspects du narcissisme (il affiche une confiance excessive dans son propre jugement et le mépris pour les conseils ou les critiques des autres),
de l’asocialité (il perd le contact avec la réalité, souvent associée à une isolation progressive),
de l’histrionisme (quand les choses tournent mal, il continue d’afficher une grande confiance en soi et ignore les « détails » ou « l’intendance » qui ne suit pas),
enrichie de quelques items originaux (il utilise le « nous » en lieu et place du « je », il se croit le seul qualifié éternellement pour son poste).
En 2012, nous avons transposé ce tableau au contexte de la direction d’entreprise et de l’hubris du dirigeant en décrivant les comportements d’hubris des dirigeants à trois niveaux :
le rapport à soi (style communicationnel théâtral et égocentré, décisions stratégiques hasardeuses, stratégie irréaliste et ambition démesurée, enracinement au pouvoir et incapacité à transmettre le pouvoir),
le rapport aux autres (management destructeur incluant agression, harcèlement, menace, intimidation, refus de toute critique, absence d’empathie pour les salariés)
et le rapport au monde (manquement à l’éthique, contestation de l’autorité de la loi, du marché, de la justice, refus de prendre la responsabilité).
Ces travaux recensaient les principaux symptômes de l’hubris (en termes de comportements). Restait la question que tout le monde se pose : quelle est l’origine de cette maladie du pouvoir ? Pourquoi certains leaders tombent-ils malades et d’autres pas ? Comment éviter la contagion et surtout quels gestes barrières mettre en place pour prévenir les ravages individuels, économiques et politiques de l’hubris des leaders ?
À lire aussi : Du populisme de plateforme au populisme politique : Elon Musk change d’échelle
Récemment, nous avons commencé à formuler des hypothèses radicalement nouvelles sur ce qu’est réellement l’hubris, cette maladie du pouvoir. Pour ce faire, partant de la citation de Lord John Acton (« Le pouvoir corrompt, et le pouvoir absolu corrompt absolument »), nous nous sommes concentrés non pas sur les comportements associés à l’hubris (les symptômes), mais sur la nature même de l’intoxication par le pouvoir de la psyché et des comportements du dirigeant (la maladie). Qu’est-ce qui dans le pouvoir nous corrompt ?
Notre hypothèse s’appuie y compris sur l’expérience politique de l’auteure qui, lors d’un mandat parlementaire de 5 ans, a pu observer et ressentir les effets du pouvoir sur la psyché des leaders. Partant de ce récit auto-ethnographique, nos travaux récents formulent plusieurs propositions pour mieux comprendre et prévenir le risque d’hubris.
Premièrement, l’hubris est bien un syndrome (comme le burn-out), lié aux conditions de travail particulières (l’exercice du pouvoir), qui débute et qui cesse avec l’exposition du dirigeant au pouvoir. En conséquence, la meilleure solution pour prévenir et guérir l’hubris est d’éloigner le dirigeant du pouvoir ou de disperser, encadrer ou partager celui-ci.
Deuxièmement, l’hubris n’est pas la combinaison d’autres troubles (narcissique, asocial, paranoïaque, histrionique, schizotypique), de traits psychologiques (égocentrisme, manque d’empathie, surconfiance) ou encore de comportements dysfonctionnels (violence, agressivité, théâtralité, harcèlement), mais l’intoxication de ceux-ci par le pouvoir. Ainsi, un dirigeant narcissique pourra dire : « Je suis le plus génial entrepreneur que la tech a jamais connu. » S’il souffre d’hubris, il dira plutôt : « Mon entreprise est la meilleure car j’en suis le dirigeant ; sans moi aux manettes, elle n’est rien. »
L’intoxication par le pouvoir résulte d’une relation dysfonctionnelle du leader au pouvoir : lui et le pouvoir ne font plus qu’un, ils fusionnent. Mais là où, par arrogance, le dirigeant croit posséder le pouvoir, c’est en réalité celui-ci qui le possède, faisant de lui son agent, sa créature entièrement dédiée à son culte qu’il confond avec le culte de lui-même. Celui qui prend alors volontiers des postures de dominant dans ses relations avec autrui et le monde vit en réalité, au plus profond de lui, une soumission et une aliénation complète au pouvoir. En conséquence, on ne luttera pas contre l’hubris en se focalisant sur la personnalité ou les comportements du dirigeant, mais en questionnant sa relation (et la nôtre) avec le pouvoir et sa nature addictive et aliénante.
Troisièmement, pour expliquer l’emprise du pouvoir sur l’individu, il faut comprendre la nature particulière de ses effets corrupteurs. Nous faisons l’hypothèse que la relation du dirigeant au pouvoir relève de la sacralisation, et que la nature de sa relation intime avec celui-ci peut être qualifiée de numineuse. Pris dans les filets du pouvoir, sidérée et émotionnellement débordé, le dirigeant est tel un mystique. Ainsi, dans cet univers soi-disant profane de l’entreprise, le sacré et l’irrationnel ressurgissent dans la relation intime, souvent tue, du dirigeant au pouvoir. Continuer à ignorer l’importance de la relation au pouvoir ou en refouler la dimension irrationnelle et spirituelle est l’un des facteurs les plus évidents du risque d’hubris.
Alors que faire pour éviter aux dirigeants et aux entreprises de succomber à l’hubris ?
Une voie individuelle consisterait pour le dirigeant à méditer chaque jour sur le pouvoir et sa relation, sa place, ses effets. C’est ce que fit l’empereur Marc-Aurèle dans ses méditations et qui lui permit d’échapper à la césarite
Une voie institutionnelle consisterait à renforcer les mécanismes de gouvernance d’entreprise favorisant le turnover et le partage des fonctions au sommet des entreprises.
Une voie collective enfin questionnerait notre responsabilité dans cette culture idolâtre du pouvoir qui rend possible la sacralisation et, in fine, l’intoxication par le pouvoir. Ceci supposerait notamment d’en finir avec le mythe du charisme (il nous faut un individu exceptionnel, hors norme, quitte à hériter d’un hors la loi), le mythe de l’incarnation nécessaire (il est l’âme/l’incarnation de l’entreprise, vous comprenez) ou encore l’essentialisation de la direction (les dirigeants, vous savez, ils sont différents, plus agressifs, narcissiques, il faut faire avec).
Ajoutés à une saine obsession de la dispersion du pouvoir, ces quelques gestes barrières contre une culture toxique du pouvoir sont plus que jamais nécessaires face à ce nouveau risque systémique pour les entreprises et les démocraties.
Valérie Petit ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
30.03.2025 à 16:36
Bantignies Frédéric, Directeur de Recherche CNRS, Université de Montpellier
Giacomo Cavalli, Directeur de recherche CNRS, Université de Montpellier
Les marques épigénétiques sont des modifications chimiques de l’ADN qui vont permettre d’activer ou d’éteindre certains gènes. Elles sont reproduites lorsque les cellules se divisent mais peuvent-elles l’être entre deux générations ?
À la base de l’information génétique, l’ADN est la molécule fondatrice de la vie terrestre. Cependant, elle ne peut pas fonctionner seule, car son information doit être interprétée par des protéines présentes dans le noyau des cellules, rajoutant une information supplémentaire que l’on nomme information épigénétique (« épi » provenant du préfixe grec qui signifie « au-dessus »).
À chaque génération, nous héritons de l’ADN contenu dans les chromosomes de nos deux parents, sous la forme de 23 chromosomes de la mère et 23 chromosomes du père, pour aboutir aux 46 chromosomes de l’espèce humaine (ce nombre varie selon les espèces) dans chacune de nos cellules. Au cours du développement, nos cellules se divisent un très grand nombre de fois pour former des individus adultes (constitués de plus de 30 000 milliards de cellules !).
L’équation paraît relativement simple, car la séquence d’ADN des 46 chromosomes se recopie à l’identique (durant la « réplication de l’ADN ») avant de se partager équitablement dans deux cellules « filles » lors de chaque division cellulaire (appelée « mitose »). Malgré cette information génétique identique, nos cellules ne sont pas toutes pareilles. Chacune d’entre elles se différencie pour produire la variété de tissus et d’organes qui constituent notre corps. C’est justement l’information épigénétique qui permet cette différenciation.
Que sait-on de ces mécanismes épigénétiques qui font l’objet d’intenses recherches depuis le début du siècle ? Ils impliquent un grand nombre de facteurs cellulaires, dont on commence à comprendre la fonction. Au sein des chromosomes, l’ADN, chargé négativement, s’enroule autour de protéines chargées positivement, les histones. Des centaines de facteurs se lient, directement à l’ADN ou aux histones, pour former ce que l’on pourrait qualifier de « gaine épigénétique ».
À lire aussi : Épigénétique, inactivation du chromosome X et santé des femmes : conversation avec Edith Heard
Cette gaine est loin d’être homogène. Elle contient des facteurs qui peuvent déposer, sur la molécule d’ADN ou les histones, des petites molécules qui agissent comme des « marque-pages » que l’on pourrait mettre dans un livre à des endroits précis. Ce sont les fameuses « marques épigénétiques » (méthylations, acétylations…) et un grand nombre d’entre elles se retrouve au niveau des gènes qui sont situés tout le long de nos chromosomes. Ces marques sont indispensables, elles diffèrent dans les différents types cellulaires que composent un organisme et contribuent directement à la régulation de l’expression des gènes (par exemple, des gènes importants pour la fonction du foie s’exprimeront dans les cellules du foie, tandis que les gènes spécifiques des neurones ou des cellules musculaires y seront éteints). La question est désormais de savoir si ces mécanismes épigénétiques influencent aussi la transmission de l’information génétique.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Prenons tout d’abord le cas le plus simple de la mitose (division cellulaire). La plupart des cellules doivent transmettre leur fonction, c’est-à-dire reproduire l’expression de la panoplie de gènes qui leur sont propres dans leurs cellules filles. Un grand bouleversement se produit lors de la mitose avec un regroupement et une condensation importante des chromosomes et donc de l’ADN qui les composent. Lors de cette étape, l’ADN reste enroulé autour des histones, mais de nombreuses protéines de la gaine s’en trouvent dissociées. En revanche, la plupart des marques sur l’ADN et les histones sont conservées. Ainsi, des repères épigénétiques vont subsister sur et autour de l’ADN. Une fois la mitose terminée, ces marques vont permettre aux cellules filles de reconstruire rapidement l’architecture des gènes le long des chromosomes, qui porteront encore les marques épigénétiques indispensables et pourront à nouveau recruter les facteurs associés à leur fonction. Les mécanismes épigénétiques participent donc directement à l’héritage de la fonction cellulaire.
Est-ce que cette information épigénétique pourrait aussi être transmise aux générations futures ? Dans ce cas, le challenge est bien plus important. L’information doit être transmise aux gamètes mâle et femelle qui fusionnent lors de la fécondation pour former la première cellule de l’embryon. Cette cellule se divisera afin de constituer les différents types cellulaires du futur organisme. Les étapes de réorganisation et de condensation des chromosomes sont ici encore plus drastiques que lors de la mitose. La méthylation de l’ADN, les marques des histones et l’organisation 3D des chromosomes sont largement reprogrammées, comme si l’organisme s’efforçait d’effacer le bagage épigénétique accumulé dans la génération précédente.
Est-ce que l’épigénétique peut néanmoins influencer l’héritage génétique de la descendance ? Aujourd’hui, cette question fait l’objet de recherches intensives, et parfois controversées. Ces recherches visent notamment à comprendre si des facteurs environnementaux, nutritionnels, liés aux stress ou à l’exposition à des facteurs chimiques ou physiques pourraient exercer une influence sur les générations futures.
On a pu décrire des exemples précis de l’effet de l’environnement sur la régulation épigénétique dans de nombreuses espèces animales et végétales.
Chez des reptiles, la température est un déterminant majeur du type sexuel, via le dépôt de marques épigénétiques spécifiques (méthylation des histones). Chez les insectes, de nombreux traits phénotypiques sont liés à des régimes alimentaires qui entraînent des variations épigénétiques, par exemple la distinction entre la reine et les abeilles ouvrières ou la distinction de castes d’ouvrières chez certaines fourmis (via la méthylation de l’ADN et l’acétylation des histones, respectivement).
L’exposition à des facteurs chimiques, tels que l’arsenic ou le bisphénol A peut également être à l’origine de modifications épigénétiques. On essaye aujourd’hui de comprendre les mécanismes par lesquels ces stimuli agissent et s’ils peuvent générer un héritage stable au fil des générations dans l’espèce humaine. Des études épidémiologiques ont bien tenté de faire des liens entre régime alimentaire et influence sur la progéniture, mais ces études se confrontent souvent à des aspects multi-factoriels difficiles à contrôler et souffrent d’un manque de preuves moléculaires.
Des études au niveau d’organismes modèles sont donc nécessaires pour étudier l’influence de modifications épigénétiques sur la transmission de l’information génétique. Des exemples de transmission des états épigénétiques à travers les générations sont actuellement bien décrits chez le ver C.elegans et les plantes, des organismes où il y a moins de reprogrammation de l’état épigénétique lors de la fécondation. Notre équipe travaille sur l’organisme modèle Drosophila melanogaster ou mouche du vinaigre. À la suite de perturbations de l’organisation 3D des chromosomes, nous avons pu mettre en évidence des cas d’héritage de modifications épigénétiques sur un gène responsable de la couleur de l’œil au fil de nombreuses générations.
Dans le modèle souris, des études ont également montré que l’insertion d’éléments génétiques permettait d’induire des modifications épigénétiques, notamment la méthylation d’ADN. Ces modifications conduisent à la répression d’un gène responsable de la couleur du pelage ou de gènes importants du métabolisme qui, lorsqu’ils sont supprimés, provoquent l’obésité ou l’hypercholestérolémie, et ce, de manière héritable sur plusieurs générations.
Dans ces exemples d’héritage transgénérationnel, le premier signal qui induit un changement épigénétique implique la modification d’une petite séquence d’ADN. Même si cette séquence est rétablie à la normale, le changement se maintient. Bien que probablement rares et possiblement influencés par le patrimoine génétique, ces phénomènes pourraient exister dans la nature. Des recherches futures seront nécessaires pour comprendre si d’autres mécanismes épigénétiques pourraient être hérités.
Bien que ces données ne changent pas les lois génétiques actuelles, elles indiquent qu’au-delà de la simple duplication et transmission de la séquence d’ADN aux gamètes mâles et femelles, des informations épigénétiques pourraient contribuer à l’héritage de certains traits chez de nombreuses espèces. Ces recherches pourraient donc servir à mieux comprendre l’évolution et l’adaptation des espèces, ainsi que les mécanismes à la base de certaines pathologies humaines, comme les cancers.
Les recherches au sein du laboratoire Cavalli sont financées par des subventions du Conseil Européen de la Recherche (ERC AdG WaddingtonMemory), de l'Agence Nationale pour la Recherche (PLASMADIFF3D, subvention N. ANR-18-CE15-0010, LIVCHROM, subvention N. ANR-21-CE45-0011), de la Fondation ARC (EpiMM3D), de la Fondation pour la Recherche Médicale (EQU202303016280) et de la Fondation MSD Avenir (Projet EpiMuM3D).
Bantignies Frédéric ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
30.03.2025 à 16:35
Daniel Delbrassine, Chargé de cours honoraire, moniteur pédagogique, Université de Liège
L’annulation par le ministère de l’éducation nationale de sa commande d’une adaptation de la Belle et la Bête pour les élèves de CM2 a déclenché une polémique qui invite à se pencher sur la situation particulière de la littérature de jeunesse et l’attention spécifique qui lui est de longue date accordée dans l’espace public.
La récente affaire du « Livre pour les vacances », décommandé par le ministère de l’éducation nationale avant son impression en 800 000 exemplaires, a surpris nombre d’acteurs du livre et de l’école, à commencer par son auteur Jul qui avait adapté en BD le très classique La Belle et la Bête, de madame Leprince de Beaumont (1711-1776).
Les enfants de CM2 concernés par l’opération, qui vise à leur offrir un livre à lire durant l’été avant leur entrée en sixième, recevront donc un autre titre, mais le dessinateur n’a pas hésité à parler de « censure » de la part de la direction générale de l’enseignement scolaire, qui est intervenue le 17 mars dernier.
Le gros mot était prononcé et cette polémique a mis en lumière la situation particulière de la littérature de jeunesse au sein du champ culturel. Celle-ci fait en effet exception : elle doit à son public d’être le seul lieu où la censure s’exerce ouvertement en démocratie. Cette nécessaire protection du lecteur juvénile s’imposerait même « naturellement », si l’on en croit l’éditrice espagnole Beatriz de Moura.
Mais ce statut singulier pose un certain nombre de questions : comment fonctionne cette « censure » et à partir de quelles réglementations ? Sur quels objets et sur quels sujets s’exerce-t-elle ?
Depuis ses origines, la littérature adressée à la jeunesse est une « littérature sous surveillance », car la religion, l’école et le pouvoir politique ont toujours cherché à en assurer le contrôle.
La surveillance religieuse renvoie à des pratiques fort anciennes (Inquisition et mise à l’Index). Elle s’exprime surtout par des interventions d’ecclésiastiques dans le champ de la littérature, comme l’abbé Louis Bethléem qui publie Romans à lire et romans à proscrire. Essai de classification au point de vue moral des principaux romans et romanciers (1904). En 1927, un procès retentissant vise l’abbé, qui s’était mis en scène déchirant en public des revues « licencieuses ».
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
L’école exerce elle aussi un contrôle sur la littérature de jeunesse. Cette pression institutionnelle s’exerce notamment sur les éditeurs, conscients du rôle de l’école en matière de prescription. La scolarisation de la littérature jeunesse montre ici un de ses revers : le pouvoir d’influence sur les ventes exercé par les autorités de l’enseignement et par les enseignants eux-mêmes.
La surveillance politique de la littérature de jeunesse n’est pas récente. Dès la fin du XIXe siècle, le sénateur René Bérenger (surnommé « Père la pudeur ») crée la Société centrale de protestation contre la licence des rues, et l’arsenal légal se renforce avec la loi sur l’outrage aux mœurs de 1898. Avant la Deuxième Guerre mondiale, la loi du 29 juillet 1939 instaure un Code de la famille, dont 20 articles sont consacrés au « délit d’outrage aux bonnes mœurs ».
Le consensus politique présent à la Libération n’a donc rien d’étonnant, puisque la loi n°49-956 du 16 juillet 1949 sur les publications destinées à la jeunesse est l’aboutissement d’un processus d’un demi-siècle.
La fonction première de la loi n°49-956 du 16 juillet 1949 sur les publications destinées à la jeunesse (mentionné aujourd’hui encore dans tous les ouvrages destinés à l’enfance) n’est pas d’exercer une censure, car elle vise d’abord à instaurer un contrôle ex ante fondé sur l’intimidation.
En effet, son article 3 prévoit une commission de surveillance et de contrôle, dépendant des ministères de la justice et de l’intérieur et chargée de surveiller l’ensemble de la production adressée à la jeunesse, essentiellement à partir des critères définis à l’article 2. La commission reçoit tous les titres à publier et rend des avis, en intervenant parfois auprès des éditeurs. Selon la formule du chercheur Pascal Durand, cette loi organise donc la « soumission des [auteurs et des éditeurs] à un horizon d’attente normative », que l’on qualifiera d’« autocensure ».
Récemment, la loi a subi plusieurs modifications, notamment dans son article 2 qui définit les questions litigieuses, mais l’activité de la commission s’est « très fortement réduite », si l’on en croit Bernard Joubert qui en a recensé les victimes dans son volumineux Dictionnaire des livres et journaux interdits. La censure s’exerce aujourd’hui bien plus efficacement par le biais d’acteurs privés auxquels le champ médiatique offre un terrain favorable, et l’institution semble désormais passée au second plan en termes d’impact sur les acteurs du livre.
Sur le parcours d’un livre, les actions de censure et d’autocensure peuvent donc surgir à toutes les étapes. À la source, les auteurs assument assez spontanément leur part, mais peu en parlent ouvertement, sans doute par volonté de ne pas nuire à la légitimité de leur création.
L’autrice Malika Ferdjoukh confiait ainsi avoir supprimé une phrase qu’elle jugeait délicate dans un roman jeunesse : « L’abeille sniffe sa ligne de glace à la vanille. » Selon elle, cette image gratuite « semblait cautionner et rendre légère une chose qui ne l’est pas ». Dans Titus Flaminius : la fontaine aux vestales (2003), Jean-François Nahmias recourt à des propos très pudiques et à l’ellipse narrative pour évoquer la première nuit d’amour de son personnage. Dans ce roman historique où la description détaillée des mœurs de l’époque sacrifie à la contrainte du genre, l’évocation très chaste de la sexualité des héros crée un paradoxe étonnant.
Les auteurs assument donc leur part d’autocensure, parfois au prix d’acrobaties littéraires, en « adaptant » leur texte à leur public, préoccupés qu’ils sont de « respecter leur lecteur ». Les éditeurs interviennent dans un deuxième temps, aiguillonnés par le cadre légal, mais surtout par les réactions des prescripteurs adultes, qui sont aussi leurs acheteurs…
Certains éditeurs en viennent à retirer spontanément des ouvrages sous la pression de campagnes médiatiques efficaces comme celle qui a visé On a chopé la puberté, (éditions Milan, collection « Les secrets des pipelettes »), documentaire destiné aux pré-ados, publié en février 2018. À la suite d’une pétition recueillant 148 000 signataires en trois jours, la maison d’édition décide d’abandonner toute la collection. La chercheuse Mathilde Lévêque donne une analyse critique et nuancée de cette affaire dans un article intitulé On a chopé la censure.
Parmi les prescripteurs, les bibliothécaires ont toujours pris leur part dans les obstacles dressés entre un livre et ses lecteurs. L’absence intentionnelle dans la liste d’achats, la relégation aux « enfers » (quand ils existent) ou simplement dans le bureau, sont des pratiques fréquentes. Ainsi, en 2016, le Dictionnaire fou du corps (2012), de Katy Couprie, a fait l’objet d’une mesure de retrait dans le réseau de la Ville de Paris.
L’appareil d’État semble avoir aujourd’hui perdu beaucoup de son impact, les acteurs du champ éditorial « négociant » entre eux – sur l’espace médiatique – les termes de ce qui est désormais publiable à l’adresse de la jeunesse. La loi de 1949 reste comme une référence en toile de fond, pour un secteur de l’édition où les groupes de pression occupent désormais la première place en termes d’interventions suivies d’effets.
En pratique, cette situation ressemble de plus en plus à celle qui a toujours prévalu aux États-Unis. L’influence d’outre-Atlantique se concrétise dans la pratique des éditeurs qui mobilisent des « sensitivity readers » et avertissent leurs lecteurs avec des « trigger warnings ».
On notera enfin que la censure s’avère presque exclusivement thématique et manifeste bien l’évolution des sociétés, à travers des thèmes tabous qui perdurent (sexualité, violence, politique), mais aussi l’émergence de nouveaux sujets comme le genre ou la race. Une autre constante apparaît : l’absence de prise en compte des aspects narratifs dans la présentation des thèmes jugés délicats.
Le rôle des procédés littéraires mobilisés pour représenter tel ou tel sujet est passé sous silence dans l’immense majorité des cas. Or, on sait combien cet aspect est important pour évaluer l’innocuité éventuelle d’un récit, mais les censeurs se précipitent sur les contenus, sans vouloir prendre en compte leur traitement ni les « mesures de protection du lecteur » mises en place par les auteurs.
Daniel Delbrassine ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
30.03.2025 à 16:35
Paula Fernandes, Researcher, Cirad
Alain Ratnadass, Senior research scientist, Cirad
François-Régis Goebel, Directeur de Recherches en protection des cultures, gestion des bioagresseurs, Cirad
Gaëlle Damour, chercheuse, Cirad
Il existe chez les plantes des dizaines de mécanismes plus ingénieux les uns que les autres pour réguler naturellement les organismes qui s’attaquent aux cultures. S’appuyer sur ces alliés précieux est indispensable pour diminuer notre dépendance aux pesticides. Cela permet aussi de construire des systèmes agroécologiques plus résilients.
Chaque jardinier connaît l’œillet d’Inde, allié qui éloigne insectes et maladies du potager. Mais saviez-vous qu’il existe de nombreuses autres plantes, dites « plantes de service », précieuses pour une agriculture plus respectueuse de la santé et de l’environnement ?
Des résultats de recherche révèlent qu’une large gamme de plantes, lorsqu’on les intègre aux systèmes de culture, sont capables de réguler les bioagresseurs des champs (insectes et arthropodes, nématodes, champignons, bactéries, virus, adventices), et donc de réduire les besoins en pesticides.
Selon les plantes, elles mobilisent un mécanisme particulier ou en combinent plusieurs. Certaines vont agir contre les bioagresseurs aériens, tels les plantes aromatiques ou le maïs. D’autres sont efficaces contre les bioagresseurs telluriques, comme les crotalaires, le sorgho hybride ou les crucifères.
Penchons-nous dans un premier temps sur les mécanismes mis en œuvre par certains végétaux pour contrer les bioagresseurs aériens.
Les plantes refuges, fréquemment implantées en bordure de parcelle, assurent un habitat favorable aux auxiliaires, en leur fournissant le gîte et le couvert. Ainsi, ces derniers sont déjà présents lorsque les ravageurs arrivent pour attaquer les cultures, ils interviennent plus rapidement (prédation, parasitisme). C’est le cas notamment du tournesol mexicain (Tithonia diversifolia) utilisé aux abords des champs de canne à sucre en Tanzanie pour attirer et préserver les coccinelles prédatrices du puceron jaune Sipha flava, ravageur majeur dans ce pays.
Les plantes d’ombrage, intégrées dans la parcelle, modifient son microclimat. En changeant la luminosité et l’humidité, elles rendent les conditions climatiques défavorables à certains bioagresseurs et plus favorables à d’autres.
C’est notamment le cas des eucalyptus ou érythrines dans les plantations de caféiers, vis-à-vis du champignon Colletotrichum kahawae provoquant l’anthracnose des baies au Cameroun. Ces plantes ont le même effet sur la cochenille Placococcus citri et le champignon Cercospora coffeicola qui provoque au Costa Rica la cercosporiose.
Certaines plantes jouent un rôle de barrière contre les agresseurs. Implantées en bordure, elles forment un rideau végétal qui empêche les ravageurs d’atteindre la culture. C’est le cas des barrières de Crotalaria juncea qui obstruent le passage des aleurodes, qui volent à hauteur d’homme vers les plants de piment.
D’autres végétaux utilisent également l’espace pour freiner l’avancée de l’ennemi. Associés à une culture sensible, ils vont dissimuler cette dernière aux ravageurs en créant un effet de « dilution » visuelle. Ces associations, en générant une discontinuité spatiale, peuvent aussi ralentir la propagation de proche en proche des maladies fongiques.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Elles peuvent par ailleurs réguler les adventices par compétition pour les ressources (lumière, eau, nutriments) ou par barrière physique. En bananeraie, des espèces comme Neonotonia wightii ou Arachis pintoi ont révélé de bonnes aptitudes, avec un impact modéré sur la croissance des bananiers.
Les plantes émettrices d’odeurs peuvent être utilisées seules ou bien combinées pour accroître leur efficacité dans un système « push-pull » :
La plante « push », intégrée au milieu de la culture, diffuse un « parfum répulsif » pour les ravageurs. Les plantes aromatiques, telles que le basilic ou le gros thym antillais Plectranthus amboinicus, constituent un vivier intéressant de plantes « push ».
Parallèlement, une plante « pull » est introduite, soit dans la parcelle pour attirer les auxiliaires, soit en bordure pour attirer vers elle le ravageur, le détournant ainsi de la culture. Ainsi, certaines variétés de maïs doux attirent la femelle de la noctuelle de la tomate qui, au lieu de pondre sur les tomates, va le faire sur les soies des épis de maïs – qui constituent des « voies sans issue » car les larves qui éclosent ne peuvent s’y développer.
Les plantes citées jusqu’ici ne s’attaquaient qu’aux bioagresseurs aériens. Mais d’autres mécanismes existent pour combattre les bioagresseurs telluriques.
La rotation des cultures, notamment, permet d’interrompre la reproduction des bioagresseurs. Lorsqu’une plante non sensible à l’agresseur vient remplacer pendant une période la plante sensible, la population de parasites dans le sol diminue fortement.
Une fois que la culture sensible revient sur la parcelle, elle est en mesure de se développer sans incidence majeure tant que la population pathogène reste faible. Une véritable course de vitesse s’engage alors entre le développement de la culture et la multiplication du pathogène.
C’est par exemple le cas en cultures maraîchères ou dans des bananeraies. Créer des jachères assainissantes à base d’espèces non-hôtes (comme Crotalaria juncea ou Brachiaria spp) réduisent les populations de nématodes phytoparasites.
Autre méthode d’attaque contre les telluriques, l’empoisonnement ou l’inhibition – aussi appelée allélopathie. Ici, différentes stratégies existent et ont été mises en évidence.
Certains végétaux, tels que les crotalaires, libèrent via leurs racines des alcaloïdes pyrrolizidiniques toxiques pour plusieurs espèces de nématodes phytoparasites.
Autre moyen, la biofumigation par certains végétaux au moment de leur décomposition. Par exemple des isothiocyanates, composés soufrés à large spectre d’efficacité (champignons, bactéries, nématodes…), issus de la dégradation des glucosinolates largement présents chez les brassicacées (moutarde par exemple) et les alliacées (ail, oignon…).
D’autres plantes, enfin, provoquent la germination des graines de plantes parasites (comme le Striga) ou attirent les pathogènes (nématodes phytoparasites) vers leurs racines en émettant des signaux semblables à ceux d’une plante sensible. Ainsi, le coton, le lin ou le soja, plantes non hôtes, diminuent le potentiel infectieux du sol en engendrant la germination « suicidaire » du Striga, dont les radicules sont alors incapables de se fixer à leurs racines.
De façon générale, les plantes de service peuvent aussi jouer un rôle bénéfique en stimulant la diversité de la microflore et de la macrofaune du sol, de façon globale ou ciblée.
Parmi les communautés du sol se trouvent des espèces antagonistes ou prédatrices des bioagresseurs. En particulier certains nématodes libres, qui se nourrissent de nématodes phytoparasites. Mais aussi des bactéries et champignons, qui peuvent produire des antibiotiques ou encore parasiter ces bioagresseurs. On parle alors de suppressivité spécifique.
En bananeraie, les jachères de Paspalum notatum augmentent ainsi les populations de nématodes libres omnivores ou prédateurs, qui en retour diminuent les populations de nématodes phytoparasites.
D’autres microorganismes du sol, sans réguler directement les pathogènes, occupent des niches où ils sont en compétition avec eux, notamment en colonisant la rhizosphère des plantes, et en utilisant les mêmes ressources.
Ce faisant, ils réduisent les conditions favorables à la croissance des pathogènes. On parle alors de suppressivité générale.
Outre l’accroissement de populations bénéfiques du sol, les plantes de service contribuent également à l’enrichir. Souvent employées comme engrais verts ou plantes de couverture, elles restituent au sol de la matière organique et des nutriments, accessibles ensuite à la plante cultivée.
Du fait de l’amélioration de sa résistance physiologique, via une nutrition plus équilibrée et la disponibilité de certains oligoéléments, celle-ci est moins vulnérable aux attaques des bioagresseurs, telluriques mais aussi aériens.
L’efficacité des plantes de service dépend donc dans une large mesure du contexte. Pour réussir, l’utilisation de plantes de service pour gérer des bioagresseurs requiert une compréhension claire des principes génériques de l’agroécologie couplée à une connaissance fine des espèces impliquées, afin d’adapter et appliquer ces principes à des situations spécifiques.
L’évolution des interactions entre cultures et bioagresseurs nécessite également d’adapter les pratiques au changement, et, le cas échéant, de mobiliser simultanément divers mesures et mécanismes de régulation.
Le 5 juin 1984 naissait le Cirad fondé par décret. Depuis plus de 40 ans, les scientifiques du Cirad partagent et co-construisent avec les pays du Sud des connaissances et des solutions innovantes pour préserver la biodiversité, la santé végétale et animale, et rendre ainsi les systèmes agricoles et alimentaires plus durables et résilients face aux changements globaux.
Paula Fernandes a reçu des financements de bailleurs publics de la recherche pour le developpement
Alain Ratnadass a reçu des financements de bailleurs de fonds publics français, européens et internationaux pour la recherche pour le développement.
François-Régis Goebel est membre de l'International Society of Sugarcane Technologists (ISSCT). Il a reçu des financements de bailleurs de fonds publics français, européens et internationaux pour la recherche pour le développement.
Gaëlle Damour a reçu des financements de bailleurs de fonds publics français, européens et internationaux pour la recherche pour le développement.