28.04.2026 à 15:50
Élodie Faisca, Maîtresse de conférences en sciences de l'éducation et de la formation, Université de Rouen Normandie
D’après les textes sur la protection de l’enfance, les enfants et les adolescents ont le droit de contribuer aux décisions qui les concernent. Dans les faits, leur participation est très inégale. Et si leur parole est effectivement recueillie, elle n’est pas pour autant prise en compte.
La Convention relative aux droits de l’enfant reconnaît aux enfants le droit d’exprimer leur opinion sur toute question les intéressant et d’être entendus dans les procédures administratives ou judiciaires qui les concernent. Pourtant, les rapports publics, les témoignages et les travaux de recherche confirment que les décisions en protection de l’enfance se prennent encore trop souvent pour et sans les enfants.
Comment expliquer ce décalage entre les textes, les pratiques et les expériences des premiers concernés ? Les résultats de cette recherche doctorale montrent que la participation des enfants est un processus complexe, construit dans le temps, à travers des interactions spécifiques, des espaces et des temporalités parfois inadaptés.
Un même enfant peut ainsi connaître des expériences de participation très différentes au cours d’une même intervention, de la non-participation à la participation significative, en passant par la participation symbolique.
Entre 2020 et 2023, nous nous sommes intéressées aux expériences vécues par des enfants de 8 à 14 ans, placés et accompagnés au sein des services de l’aide sociale à l’enfance (ASE). Cette recherche a combiné des entretiens avec l’observation d’une succession d’actes professionnels pour plusieurs enfants et permet de comprendre combien la participation des enfants en protection de l’enfance évolue au fil des interactions et des décisions.
Un même enfant peut ainsi vivre, au cours d’une même intervention, des expériences radicalement différentes, oscillant entre la non-participation, la participation symbolique et la participation significative.
Nina et Nathalia ont vécu plusieurs expériences de non-participation avant de pouvoir vivre ce que nous considérons comme une première expérience de participation significative. Dans ces situations, ce n’est pas le fait de voir une décision conforme à leurs opinions qui est important, mais bien de se sentir écoutées, entendues et associées à toutes les étapes du processus décisionnel.
A contrario, tous les enfants rencontrés ont vécu des expériences de non-participation. Ces expériences sont souvent marquées par une absence ou un déficit d’informations (sur leurs droits, les décisions à venir, les enjeux de leur participation…), de rares opportunités de rencontres avec des professionnels, des changements fréquents ou encore des systèmes et pratiques oppressifs envers les enfants.
Entre ces deux extrêmes, d’autres enfants ont connu des situations où leur parole était entendue mais disqualifiée ou, au contraire, invisibilisée par des processus décisionnels morcelés et complexes. Par exemple, les observations d’un processus décisionnel pour Laura pourraient traduire un niveau élevé de participation : le point de vue de Laura est entendu, relayé et sa demande portée et soutenue par le magistrat. Pourtant, elle considère ne pas avoir participé à cette décision.
Ce que nous comprenons à partir de cette expérience, qualifiée de minimale peut s’expliquer par un processus de captation institutionnelle de la parole de l’enfant. Laura ne sait pas si, comment ni auprès de qui sa parole a été relayée et pense que ce n’est pas son avis qui a compté dans la décision prise.
Certains moments (entretiens, audiences, synthèse) favorisent l’expression, tandis que d’autres la rendent plus difficile. Nous identifions quatre actes professionnels qui influencent l’expérience des enfants.
Les entretiens individuels avec les enfants sont souvent perçus comme un espace privilégié pour recueillir leur avis. Pourtant, le contexte, le contenu et la forme de ces échanges impactent leurs expériences. Les enfants sont souvent contraints par le cadre (lieu, durée, présence d’autres personnes) et peu préparés aux questions posées.
Le contenu des échanges, souvent centré sur les difficultés familiales et suivant la temporalité administrative et judiciaire, laisse peu de place à l’expression de leurs émotions ou de leurs souhaits. Enfin, les formes et les supports pour soutenir l’expression (langage, outils utilisés) ne sont pas toujours apparus adaptés pour faciliter une connexion et une communication avec l’enfant.
Les rencontres pluriprofessionnelles (réunions d’équipe, synthèses, bilans) sont des moments clés des processus décisionnels. Ces espaces permettent de réunir l’ensemble des acteurs professionnels impliqués dans l’intervention, lesquels partagent leurs observations, actions et analyses. Les enfants sont absents de ces instances et, actuellement, il n’existe pas, au sein des services concernés par la recherche, de support ou processus permettant de systématiser le recueil de leurs points de vue en amont et pendant ces échanges.
Pourtant, de récents travaux montrent des effets positifs de la prise de décision partagée et de la participation sur les résultats des décisions. Ces éléments font écho à d’anciennes recherches qui mériteraient d’être poursuivies à propos des effets et du vécu de la présence des enfants aux réunions qui les concernent. La prise en compte de la perspective de l’enfant reste aléatoire et parfois superficielle : même quand il s’exprime, son avis n’est pas encore systématiquement intégré dans les synthèses ou les décisions.
Les écrits professionnels (comptes-rendus, synthèses, projets pour l’enfant) sont des outils importants dans le processus décisionnel. Les enfants sont rarement cités directement dans les textes et, quand c’est le cas, leurs propos peuvent être repris de manière décontextualisée ou découpés. Là encore, ces résultats s’appuient sur et complètent d’autres travaux scientifiques.
Les écrits devraient pouvoir permettre de savoir si et comment l’enfant a été associé au processus, de restituer son opinion sur les propositions ou les décisions et, conformément aux principes de la convention et du cadre juridique, d’accorder à son point de vue le poids qui lui revient eu égard à son âge et à son degré de maturité. Ces documents pourraient devenir des outils de participation s’ils intégraient de manière plus systématique les observations et expressions des enfants, et s’ils étaient partagés avec eux pour validation.
Enfin, le temps de l’audience constitue le dernier moment analysé pour comprendre l’expérience des enfants. Les enfants sont souvent peu préparés au déroulement et au contenu des échanges. Ils ne savent pas toujours qui seront les personnes présentes, comment prendre la parole et ne savent pas, en l’absence de restitution complète des rapports, comment leurs propos pourraient être repris devant l’ensemble des personnes, y compris leurs parents.
Cela n’est pas sans conséquences sur la construction des expériences de participation. Par exemple, Angel, âgée de 9 ans, découvre que ce qu’elle a exprimé au cours d’un entretien a été transmis au juge. La juge s’appuie donc sur le propos d’Angel disant que l’un de ses parents est plus gentil que l’autre. Angel tentera de prendre la parole, constatant la peine provoquée chez son autre parent et se mettra à pleurer en expliquant qu’elle n’a jamais dit ça. En sortant de l’audience, Angel s’adressera avec colère à sa référente en disant « Ça m’a pas du tout aidé ce que vous avez fait ».
Les enfants en protection de l’enfance ne vivent pas une, mais des expériences de participation, expériences qui sont interconnectées. Au regard de la gravité des décisions à prendre, de la nécessité de trouver un équilibre entre des intérêts multiples et parfois divergents (de l’organisation, des parents, de l’enfant, du décideur), du coût émotionnel, les prises de décision en protection de l’enfance sont un exercice pénible et complexe.
La participation des enfants est un processus tout aussi exigeant, qui ne peut se réduire au seul recueil du point de vue de l’enfant. Elle exige des espaces sécurisés, des temporalités adaptées, des professionnels formés et des organisations sur lesquelles s’appuyer.
Cette recherche démontre empiriquement que la participation ne se décrète pas mais se construit, jour après jour, dans les interactions et les décisions qui façonnent la vie des enfants. Dès lors la question n’est plus « Pourquoi les enfants ne participent pas ? » mais « Comment les organisations peuvent-elles créer et soutenir les espaces et les processus producteurs des expériences ? ».
Élodie Faisca a reçu des financements de l'ANRT dans le cadre d'une Cifre.
28.04.2026 à 15:49
François Langot, Professeur d'économie, Directeur adjoint de l'i-MIP (PSE-CEPREMAP), Le Mans Université
Jean-Olivier Hairault, Professeur d'économie et Directeur Scientifique de l'Observatoire Macro du Cepremap, Paris School of Economics – École d'économie de Paris
Pour réduire le poids de la dette, la France devra-t-elle adopter des règles budgétaires strictes ? Le débat entre les tenants de cette solution et ses opposants doit intégrer la situation réelle des finances publiques. En outre, une règle budgétaire permet au secteur privé d’anticiper à moyen et long terme, quand l’absence de règles produit angoisse et attentisme. Loin d’être une camisole, les règles budgétaires, si elles sont bien pensées, peuvent être d’autant plus efficaces qu’elles renforcent la coordination.
Le débat entre Thierry Breton et Xavier Timbeau pose une question majeure. Le premier promeut une règle budgétaire alors que le second affirme qu’une règle ne remplacera jamais la politique. Les deux ont raison, et pourtant, le débat reste incomplet. Pour dégager les vertus ou les dangers d’une règle budgétaire, encore faut-il regarder les faits.
La France n’a jamais connu plus de deux années successives de désendettement depuis cinquante ans. La France est un cas presque unique parmi les grands pays avancés. La Banque de France rappelle que la dette publique française augmente de façon continue depuis 1974. D’autres pays ont connu des poussées d’endettement, parfois massives. Mais ils ont aussi connu des phases de reflux.
Entre 2013 et 2019, l’Allemagne a vu son ratio de dette continûment se réduire pour finalement diminuer de 21 points de PIB. La Belgique l’a réduit pendant quatorze années de suite (entre 1994 et 2007), le diminuant alors de 51 points de PIB. Durant dix années successives (entre 1995 et 2004), l’Italie a connu un épisode de désendettement lui permettant de réduite son ratio dette sur PIB de 26 points. L’Espagne a réduit sa dette entre 1997 et 2007 de 30 points. Les États-Unis ont également connu une baisse de dix points entre 1997 et 2000. La Suède a engagé un redressement durable depuis sa crise des années 1990. La Suisse a abaissé fortement sa dette depuis l’introduction de son frein à l’endettement en 2003. La Pologne a également connu une baisse après son pic du milieu des années 2010. La France, elle, n’a jamais réussi à enclencher une dynamique durable de désendettement.
Cette singularité économique s’accompagne d’une singularité institutionnelle. L’Allemagne a un frein à l’endettement de rang constitutionnel. La Suisse aussi. L’Espagne a inscrit la stabilité budgétaire dans sa Constitution et l’a complétée par une règle de dépense. L’Italie dispose depuis 2013 d’un triptyque règle de dépense, règle d’équilibre et règle de dette, lui aussi adossé à une réforme constitutionnelle. La Pologne a un plafond de dette inscrit dans sa Constitution. La Suède s’est dotée d’un cadre cohérent fondé sur un plafond de dépenses, un objectif de solde et une ancre de dette. La Belgique a utilisé successivement plusieurs règles nationales de dépenses, de recettes et de solde.
À lire aussi : De Chirac à Macron, comment ont évolué les dépenses de l’État
Même les États-Unis, sans frein constitutionnel comparable au modèle allemand, disposent de procédures telles que des plafonds de dépenses, des règles imposant le financement de toutes nouvelles dépenses et de règles d’équilibre dans presque tous les États fédérés (FMI pour un descriptif à l’échelle mondiale des règles budgétaires de chaque pays).
La France, elle, n’a ni frein constitutionnel ni véritable règle nationale de désendettement. Elle a des engagements européens, des lois de programmation, et surtout une habitude : celle de renvoyer chaque année à l’année suivante l’effort qui n’a pas été consenti en pariant sur une croissance qui réduira son endettement.
Dette publique et règles budgétaires
Bien sûr, corrélation n’est pas causalité. Mais quand un pays est, sur un demi-siècle, presque le seul à cumuler hausse continue de sa dette publique et absence de règle budgétaire interne, tandis que ceux qui ont réussi à la réduire se sont souvent dotés d’une règle budgétaire, il devient difficile de soutenir que l’architecture institutionnelle est secondaire.
Une fois ces faits rappelés, le travail de l’économiste est alors d’évaluer si, à effort budgétaire donné, la règle est plus efficace pour contenir la dette publique qu’un ajustement discrétionnaire revoté chaque année, au gré des alternances, des crises et des rapports de force.
Des travaux de l’i-MIP visent à évaluer l’efficacité de l’adoption de règles budgétaires. Une des originalités des méthodes développées à l’i-MIP est de prendre ne considération la formation des anticipations en réponse aux annonces de politique économique. Cela donne à ses méthodes un avantage pour l’évaluation des règles budgétaires, fortement dépendante des changements de comportements qu’elles peuvent induire.
Deux scénarios doivent alors être comparés pour mesurer l’impact d’une règle budgétaire. Pour une même restriction budgétaire pluriannuelle en valeur, le premier scénario introduit des réductions de dépenses perçues par les agents économiques comme une suite de mesures votées annuellement, se succédant les unes aux autres sans engagements à long terme. Le second scénario implémente ces mêmes économies via une règle engageant l’État, dès le premier vote, sur ces mêmes réductions de dépenses. Dans le premier cas, les agents économiques revoient leurs anticipations année après année, alors que, dans le second, ils adaptent de façon durable leurs comportements.
Si tout l’ajustement porte sur la consommation publique, la baisse du ratio dette sur PIB serait plus forte (de 2,1 points après cinq ans) si ces baisses de dépenses étaient implémentées via une règle plutôt qu’avec la possibilité qu’elles soient remises en cause chaque année. Si les économies reposent uniquement sur les transferts aux ménages, le ratio dette sur PIB baisserait de 3,1 points de plus (après cinq ans) avec une règle qu’avec des baisses de dépenses discrétionnairement votées chaque année.
Comme les décisions économiques reposent en grande partie sur les anticipations, la règle permet de coordonner les agents économiques sur des projets de plus long terme, davantage créateurs d’emploi et de richesse. En revanche, l’incertitude autour des votes « parlementaires » réduit l’amplitude des décisions de tous les acteurs (ménages et entreprises), dans l’attente des futurs votes. Ainsi, lorsque les agents savent qu’une trajectoire de finances publiques sera effectivement tenue, ils ajustent dès aujourd’hui et plus fortement leurs décisions d’épargne, de travail, de prix et de consommation.
Les évaluations de l’i-MIP montrent que la règle réduit non seulement le niveau de la dette mais aussi le risque de dérapage pouvant conduire à de fort niveau de dette. Elle génère aussi davantage de croissance. Le point décisif est là : une règle budgétaire n’est pas une camisole. C’est un dispositif de coordination des anticipations sur le moyen terme, horizon sur lequel se fondent les embauches et les investissements.
Le gouvernement doit conduire sa politique budgétaire en intégrant l’information sur la dette héritée, et pas seulement se donner une cible fixe de déficit public. Une règle budgétaire doit garantir que la dette n’est pas seulement stabilisée en éliminant l’effet boule de neige, mais progressivement ramenée vers une cible. Pour ce faire, le solde primaire doit d’une part couvrir le service de la dette passée, net de la croissance nominale, et d’autre part engager le remboursement de l’excès de dette courante par rapport à sa cible de long terme. Ce besoin de financement est donc proportionnel à l’écart entre la dette courante et sa cible de long terme et a pour fonction de déterminer explicitement le rythme du retour vers le niveau souhaité de dette. L’application concrète de cette règle suppose non seulement de définir ce rythme d’ajustement, mais aussi de préciser une cible de dette, qui sert d’ancrage au retour progressif de la trajectoire budgétaire.
Cette règle indexée sur le niveau hérité de la dette et de son écart à sa cible implique que l’excédent primaire requis décroît avec le ratio de dette : l’objectif n’est donc pas un niveau donné et intangible de solde primaire ou total, mais une règle d’indexation sur le niveau de la dette. Cette règle permet un déficit total équivalent aux gains liés au remboursement d’une dette passée avec des revenus intégrant la croissance nominale d’aujourd’hui, amputés d’un terme de correction, visant à financer le retour de la dette vers sa cible. Si le taux d’intérêt net de la croissance devient négatif, la dynamique de la dette devient suffisamment favorable pour que, même au-dessus de la cible, le retour progressif vers celle-ci puisse demeurer compatible avec un déficit primaire.
Aujourd’hui le déficit primaire de l’État français est de 2,9 points de PIB avec un ratio dette sur PIB à 115,6 %. L’application immédiate de la règle décrite ci-dessus nécessiterait de présenter en 2026 un budget excédentaire d’au moins 0,55 point de PIB afin de stabiliser la dette à son niveau d’aujourd’hui. Ensuite, pour que le ratio dette sur PIB passe sous les 100 % dans 20 ans (réduction de l’écart à une cible de long terme fixée à 60 % en accord avec le traité européen), un second excédent de 1,15 point de PIB est nécessaire. L’addition de ces deux composantes de la règle conduit alors à un excédent primaire de 1,7 point de PIB pour 2026. Ainsi, avant même d’engager une réduction de la dette publique, le seul objectif de la stabiliser en une période est certainement irréaliste compte tenu de l’ampleur du déficit actuel. C’est donc un engagement sur un plan budgétaire sur un horizon pluriannuel qui doit garantir la stabilisation, puis le retour vers la cible de long terme. C’est ce type de règle, dans le cadre d’un plan pluriannuel, qui est testée dans les simulations de l’i-MIP et permet d’accroître l’efficacité d’une politique de consolidation.
Thierry Breton a raison sur un point essentiel : un pays ne peut vivre éternellement dans le déni budgétaire. Xavier Timbeau a raison sur un autre : aucun chiffre gravé dans le marbre ne remplacera jamais l’intelligence économique. Mais la conclusion à tirer n’est ni l’austérité constitutionnalisée ni le refus de toute règle. Elle est plus simple, la France a besoin d’une gestion budgétaire crédible et surtout prévisible.
Autrement dit, d’une règle pluriannuelle, transparente, suspendable en cas de choc majeur, mais suffisamment contraignante pour empêcher ce que nous pratiquons depuis cinquante ans : promettre le redressement demain pour éviter de le décider aujourd’hui. Parce qu’elle coordonne les décisions sur un horizon plus long, une telle règle réduit l’incertitude économique, toujours défavorable à l’embauche comme à l’investissement. Et si cette discipline avait été à l’œuvre ces deux dernières années, nous disposerions peut-être aujourd’hui des marges budgétaires nécessaires pour financer un nouveau bouclier tarifaire.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
28.04.2026 à 15:49
Maxime Lassalle-Han, Maître de conférences en droit, Université Bourgogne Europe
Le 1er avril dernier, les députés ont voté un amendement visant à supprimer le régime des conventions judiciaires d’intérêt public, une procédure de justice négociée ouverte aux entreprises. Plutôt saluées à l’époque, elles sont davantage critiquées. N’eût-il pas mieux valu les amender plutôt que de les supprimer ? C’est peut-être à cette tâche que va se consacrer la commission mixte paritaire qui se réunit mardi 28 avril.
En 2016, la loi Sapin 2 instaure en France un système de justice négociée applicable aux personnes morales, inspiré du droit américain : la convention judiciaire d’intérêt public (CJIP). Il s’agit notamment de répondre au caractère relativement rare des enquêtes, poursuites et condamnations en matière de corruption et de criminalité financière. Le modèle traditionnel de justice pénale, fondé sur une enquête judiciaire puis un jugement, n’est pas jugé assez effectif.
Un autre modèle de justice est alors envisagé, celui de la justice négociée, inspiré du droit américain et de ses « deals de justice ». Il a l’avantage de permettre d’éviter des enquêtes et procès longs et coûteux. Cette forme de justice a aussi pour intérêt d’inviter les entreprises à se dénoncer à et mettre en place des mécanismes internes visant à prévenir les activités criminelles. C’est ce qui explique que les CJIP, initialement pensées comme un moyen de répondre à la corruption dans les entreprises, aient été étendues à la lutte contre les infractions fiscales et la criminalité environnementale.
À lire aussi : La France dans la lutte contre la corruption : les solutions américaines
Pour autant, les CJIP, inspirées du modèle américain de justice négociée suscitent, depuis leur naissance, de nombreux questionnements. Le Conseil d’État souligne dès 2016 le risque que l’intervention de la justice perde « sa valeur d’exemplarité » et surtout son objectif de « recherche de la vérité ». De même, la faible « lisibilité de la politique pénale du parquet en matière de mise en œuvre de la convention judiciaire d’intérêt public » est critiquée dans par un rapport parlementaire en 2019.
Alors que la loi Sapin 2 est sur le point de fêter son dixième anniversaire, l’Assemblée nationale a adopté, le 1er avril, un amendement visant à supprimer le régime des CJIP. Cela a entraîné de fortes réactions (presse généraliste, publications spécialisées, ou encore positionnements pour ou contre dans la société civile). C’est l’occasion de se pencher à nouveau sur les enjeux de cette forme particulière de justice
L’exposé sommaire de l’amendement voté par l’Assemblée nationale pour supprimer le régime des CJIP fait référence explicite aux Cumex Files, une affaire politiquement sensible, parfois présentée comme le « casse du siècle ». Le Parquet national financier, saisi dès 2018 sous l’angle de la fraude fiscale et du blanchiment de capitaux, a déjà signé deux CJIP dans cette affaire : la première avec le Crédit agricole fin 2025, et la deuxième avec HSBC tout début 2026. C’est cette deuxième convention qui est jugée excessivement favorable à la banque par les députés. Le montant de l’amende – environ 270 millions d’euros – est en effet relativement faible, si l’on considère que les amendes imposées peuvent être beaucoup plus lourdes lorsque la justice pénale traditionnelle s’intéresse à des banques dans des affaires de fraude fiscale.
Ce n’est pas la première fois qu’une telle critique est adressée aux CJIP. Cela avait déjà été le cas, suite à la fameuse affaire LVMH, critiquée notamment pour l’absence de prise en compte des intérêts des victimes. Cela avait aussi été le cas dans l’affaire Nestlé. Une commission d’enquête sénatoriale avait alors critiqué l’opportunité de la convention et surtout le faible montant de l’amende. Toutefois, cette commission n’avait préconisé que l’adoption de règles plus claires visant à encadrer les CJIP en matière environnementale, et non leur suppression.
Le reproche adressé aux CJIP par les députés est implicitement fondé sur l’idée que les sanctions encourues auraient été plus importantes si une procédure normale avait été suivie. Il faut toutefois nuancer et rappeler la finalité de ces conventions. Le recours aux CJIP est bien une faveur vis-à-vis des entreprises, mais il s’agit de les inciter à coopérer avec la justice, notamment en se dénonçant, et en mettant en œuvre des procédures effectives visant à détecter et prévenir les actes criminels en leur sein.
Le recours aux CJIP est ainsi conditionné (via circulaires et lignes directrices). Le parquet doit en principe constater l’absence d’antécédents de la personne morale, un certain degré de coopération de la part de l’entreprise et de ses dirigeants, et enfin la remise de manière proactive d’informations permettant d’identifier les personnes physiques responsables des infractions pénales en cause.
Si les faits sont graves ou si les entreprises ne coopèrent pas, c’est une autre voie qui doit être suivie, et donc éventuellement le renvoi vers un tribunal correctionnel. Dans l’affaire des Cumex Files, le recours à des CJIP et la faiblesse des amendes s’agissant du Crédit Agricole et de HSBC s’expliquent ainsi probablement par la plus grande coopération de ces banques par rapport aux autres banques impliquées dans cette affaire, qui pourraient, quant à elles, faire l’objet de sanctions plus lourdes.
Malgré cela, le parquet dispose de marges de manœuvre significatives pour décider d’avoir recours à une CJIP. Le juge chargé de valider a posteriori l’accord passé entre le parquet et l’entreprise ne met pas en œuvre un contrôle approfondi de l’opportunité de cette procédure, même s’il peut notamment contrôler « la proportionnalité des mesures prévues aux avantages tirés des manquements ». L’étendue de ce contrôle semble moindre que celle qui s’applique pour d’autres formes de justice négociée, et notamment la comparution sur reconnaissance préalable de culpabilité (CRPC), qui peut être rejetée notamment si les intérêts de la société justifient une « audience correctionnelle normale ».
Les CJIP avaient pour principal objectif de répondre aux critiques adressées à la France s’agissant du faible nombre de poursuites et de condamnations d’entreprises françaises pour corruption. Une réponse fondée sur des mécanismes négociés devait permettre aux entreprises françaises de trouver une solution en France plutôt que d’être inquiétées seulement aux États-Unis.
La portée dite extraterritoriale du droit pénal américain, adossée à un activisme important des autorités américaines, avait en effet conduit de nombreuses entreprises françaises ayant commis des faits de corruption d’agent public étrangers à être sanctionnées aux États-Unis et non en France. De ce point de vue, les CJIP sont un succès.
Les CJIP ont permis de sanctionner davantage d’entreprises. La CJIP signée dans l’affaire Airbus a aussi montré que les États-Unis n’étaient plus les seuls gendarmes du monde : l’entreprise a certes payé des amendes aux États-Unis mais, bénéficiant aussi d’une CJIP, l’essentiel de l’amende a été payé en France.
Ces succès ponctuels ne signifient pas que cette forme de justice négociée, et les sanctions qui vont avec, soient incontestablement les instruments les plus effectifs dans la lutte contre toutes les formes de criminalité économique. En droit américain aussi l’opportunité du recours à la justice négociée en matière de droit pénal des affaires est discutée.
À côté du montant des sanctions, d’autres enjeux sont importants. À l’étranger comme en France, l’articulation entre la responsabilité pénale de la personne morale et celle des personnes physiques pose notamment problème. Une autre question est celle de la prise en compte des tiers dans les négociations entre procureurs et entreprises. Ce n’est ainsi peut-être pas tant le principe de la justice négociée que les modalités de sa mise en œuvre qui posent problème.
Maxime Lassalle-Han ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
28.04.2026 à 15:49
Julia Le Noë, Chargé de recherches en Sciences de l'Environnement, Institut de recherche pour le développement (IRD)
Gilles Billen, Directeur de recherche CNRS émérite, biogéochimie territoriale, Sorbonne Université
Josette Garnier, Directrice de recherche CNRS, Systèmes agri-hydro-alimentaires, Sorbonne Université
Peut-on généraliser l’agroécologie sans perdre en productivité ? Des travaux menés depuis plus de dix ans permettent de répondre par l’affirmative. Ils identifient trois leviers garantissant des rendements suffisants sans engrais chimiques.
L’agriculture biologique est souvent critiquée pour ses rendements plus faibles que ceux de l’agriculture dite conventionnelle. Un irréductible écart de rendement d’environ 30 % en moyenne la condamnerait à n’être qu’une solution de niche pour classes aisées. Nos travaux depuis dix ans montrent que non. Pour comprendre pourquoi, un petit détour par le cycle de l’azote et son histoire s’impose.
L’azote est un élément indispensable à toute vie sur terre : il est, après l’eau et le carbone, l’élément le plus abondant dans les organismes vivants, particulièrement dans les protéines et le matériel génétique. Mais dans les sols et les environnements aquatiques (hors organismes vivants), on le trouve en beaucoup plus petites quantités, essentiellement sous forme de nitrate et d’ammonium, les deux formes directement utilisables par les plantes. La rareté de l’azote dans les sols explique que cet élément a longtemps été le principal facteur limitant de la croissance des plantes en agriculture.
Pourtant l’azote constitue 78 % de l’atmosphère, mais il s’y trouve sous forme de diazote, un gaz inerte et pratiquement inutilisable par les plantes à une exception notable : celles des légumineuses (lentilles, haricots, pois, luzerne, trèfle…) qui sont capables d’assimiler ce diazote atmosphérique et de le rendre ainsi disponible dans les sols pour les autres plantes qui leur succèdent.
Un détour historique : de la rareté structurante à l’abondance destructrice de l’azote
La limitation en azote a longtemps été contenue par un couplage étroit entre production et consommation. Ainsi, les urines et les excréments riches en azote du bétail et, dans une moindre mesure, des populations humaines ont permis d’apporter des engrais organiques aux sols sous forme de fumier et de lisier. En Europe, tout au long des 18e, 19e et début du XXe siècle, l’introduction des légumineuses dans les rotations de cultures a également permis une double intensification organique : ces plantes enrichissaient les sols en azote et produisait également du fourrage permettant ainsi une hausse de la densité de cheptel, et partant, des apports de fumier.
Au début du XXe siècle et plus encore après la Seconde Guerre mondiale, une invention vient révolutionner tout cela. C’est l’invention du procédé Haber-Bosch (1909/1913), qui permet de synthétiser des engrais minéraux (nitrate et ammonium) à partir du diazote de l’air. Ce procédé sert d’abord pour la fabrication d’explosifs pendant les deux guerres mondiales, puis pour faire des engrais industriels qui permettent de s’affranchir de la complémentarité entre élevage et culture. C’est ce qui advient dans les pays industriels du Nord et, plus récemment dans une partie des pays des Suds ayant connu la « révolution verte », qui ont ainsi pu massivement augmenter leur production alimentaire avec la généralisation des engrais chimiques.
Cette évolution a cependant plusieurs revers. Elle entraîne une perte d’efficience d’utilisation de l’azote car plus on apporte de l’azote, moins la fraction utilisée par les plantes est importante et plus les pertes vers l’environnement sont grandes. La production d’engrais est par ailleurs très gourmande en énergie et s’accompagne d’émissions de gaz à effet de serre.
Enfin, l’utilisation d’engrais permet le développement de systèmes d’élevage intensifs et de cultures découplés et spécialisés. À l’échelle globale, il en résulte que 40 % des terres arables cultivées (à l’exclusion des prairies naturelles, savanes, steppes et autres espaces agricoles semi-naturelles) sont consacrées à l’alimentation du bétail. De plus, les territoires ultraspécialisés dans l’élevage ou les grandes cultures engendrent des excédents structurels d’azote. Ces excédents de fumier et lisier contaminent les systèmes aquatiques en nitrate (problèmes de potabilisation de l’eau, de biodiversité, d’eutrophisation) et augmentent les émissions d’ammoniac (avec des effets néfastes sur le système respiratoire) et de protoxyde d’azote (puissant gaz à effet de serre, environ 300 fois plus actif que le dioxyde de carbone). L’agriculture à l’échelle globale est ainsi aujourd’hui à l’origine d’environ un tiers des émissions de gaz à effet de serre et constitue le premier facteur de perturbation des cycles biogéochimiques de l’azote et du phosphore.
C’est dans ce contexte que, depuis les années 1970, et plus encore depuis le début des années 2000, l’agriculture biologique est apparue comme contre-modèle à cette agriculture chimique, basée sur les énergies fossiles et l’industrialisation de l’agriculture.
Dans son cahier des charges, l’agriculture biologique bannit les fertilisants chimiques et les pesticides. Baisse des rendements et retour vers le passé donc ?
Loin s’en faut. Car l’agriculture biologique s’appuie sur une connaissance approfondie du fonctionnement des écosystèmes. Elle repose sur des rotations longues (en Europe elles durent en moyenne de cinq à huit ans pour un cycle complet), intégrant plusieurs légumineuses dans le cycle de culture. Plus encore, nos travaux ont montré que, pour des apports totaux d’azote équivalents, les systèmes agricoles biologiques produisent autant, à l’échelle de la rotation de culture, que les systèmes conventionnels. Cela montre donc que l’agriculture biologique peut être intensifiée écologiquement. Mais comment et dans quel contexte ?
Nos travaux de recherches ont identifié, testé et validé trois leviers principaux pour nourrir la population en 2050 à différentes échelles, sans augmenter la surface des terres cultivées. Tous sont liés de près ou de loin au cycle de l’azote. C’est là que la vision systémique de l’agroécologie peut être salutaire, en élargissant la réflexion à l’ensemble du système agro-alimentaire (Figure 2).
Le premier levier consiste en une diminution de 16 % des apports protéiques journaliers, en accord avec les recommandations de santé. Selon ces mêmes recommandations, une réduction de 50 % de la consommation de viande et de produits laitiers est explorée avec une augmentation de la part des produits végétaux. Nous avons parfois testé des options plus radicales, végan ou végétarienne à titre exploratoire.
Le deuxième levier réside dans la reconnexion des systèmes d’élevage et de culture, s’affranchissant de l’importation d’aliments pour animaux. Cette reconnexion facilite le recyclage des fumiers et effluents d’élevage vers les terres cultivées réduisant ainsi la dépendance aux engrais azotés de synthèse. Une option supplémentaire, explorée dans certains scénarios, concerne le recyclage des urines humaines, renforçant encore la circularité des flux de nutriments.
Enfin, le troisième levier implique des rotations longues intégrant des légumineuses fixatrices d’azote et l’absence de recours aux engrais azotés et des fertilisants phosphorés minéraux.
L’exploration de différentes combinaisons possibles des trois principaux leviers de changement que nous avons envisagés, met en évidence le rôle prépondérant du régime alimentaire comme condition de mise en œuvre et de succès des deux autres leviers.
Plus la demande en produits animaux est réduite plus les marges de manœuvre pour déployer des systèmes agroécologiques sont élevées. Les modifications de régime alimentaire permettent, en effet, de diminuer les besoins de la population humaine et surtout ceux du cheptel. La reconnexion de l’élevage et des cultures conduit à répondre localement aux besoins du cheptel. L’immense majorité des territoires en France et en Europe pourraient ainsi être auto-suffisants tant pour la consommation humaine qu’animale.
Dans tous les contextes où ces scénarios ont été développés, à l’échelle globale en Europe, en France, en Autriche, ou en Chine, nos résultats montrent une réduction de moitié des pollutions aquatiques et atmosphériques par l’azote, ainsi que des émissions de gaz à effet de serre.
Les effets de la généralisation de l’agroécologie seraient donc bénéfiques pour l’environnement. La diminution de la fertilisation azotée s’accompagne aussi d’une hausse marquée de l’efficience d’utilisation de l’azote, c’est-à-dire de la fraction des apports effectivement utile à la production, qui passe de 59 à 76 % dans le cas européen.
À l’échelle globale, nos scénarios montrent que ces leviers sont efficaces partout et que ces changement ne mettent pas en danger la sécurité alimentaire mondiale. Avec un régime alimentaire équitable, sans inégalités alimentaires entre pays du monde, l’introduction des légumineuses et la reconnexion de l’élevage et des cultures, la plupart des régions du monde resteraient excédentaires sans engrais chimiques et pourraient largement subvenir aux besoins des régions déficitaires comme le Maghreb, le Japon, et le Moyen-Orient.
Nos simulations montrent toutefois des points de vigilance concernant par exemple le stockage du carbone organique. En effet, la diminution du cheptel et de la fertilisation azotée totale pourraient entraîner une réduction des effluents d’élevage, de la production agricole et, par conséquent, des apports de résidus de culture (pailles, racines), ce qui diminue le stockage du carbone organique des sols. Des travaux expérimentaux menés à l’Inrae ont toutefois montré un stockage du carbone organique significativement plus élevé dans des sols cultivés en agriculture biologique versus conventionnelle, ce qui indique que nous avons pu sous-estimer certains apports de matière organique, notamment racinaires, dans nos exercices de modélisation. Il n’en demeure pas moins une réduction de moitié des émissions de gaz à effet de serre et des pertes d’azote vers les systèmes aquatiques.
Une autre interrogation concerne une possible carence en phosphore, s’il l’on se passe d’engrais phosphoré et s’il est apporté seulement via le recyclage des fumiers ? A minima pour le cas de la France à l’échelle de ses territoires, il existe des stocks de phosphore dans les sols qui permettrait de se passer de tout apport d’engrais phosphoré industriel pendant au moins 50 ans. En effet, l’agriculture française a fait un usage disproportionné des fertilisants minéraux en phosphore (essentiellement importé du Maghreb – Maroc et Tunisie en tête) entre les années 1960 et 1990 conduisant à un enrichissement considérable des sols en phosphore. Cet héritage colonial offre donc des réserves utilisables le temps de mettre en œuvre les changements.
Nos travaux montrent ainsi que les systèmes agro-écologiques ont le potentiel technique pour concilier production alimentaire et forte amélioration des performances environnementales dans des contextes très variés. Alors pourquoi la transition agroécologique n’a-t-elle pas déjà eu lieu ?
Sans doute le problème se trouve-t-il ailleurs, notamment dans la logique socioéconomique des chaînes amont-aval dans lesquelles l’agriculture se trouve insérée, dans les conditions de travail et la rémunération des agriculteurs et dans le poids politique sur l’action publique qu’ont acquis les acteurs qui contrôlent ces secteurs.
Toutefois, ce contexte socioéconomique est aussi une incitation supplémentaire à insuffler de nouveaux espoirs, a fortiori dans la situation actuelle de guerre énergétique et de flambée du prix des intrants. C’est tout le sens à donner à l’exploration des futurs possibles par des approches scientifiques, laissant à l’imagination toute la place qu’elle mérite d’avoir.
Julia Le Noë a reçu des financements des projets SLAM-B (ANR-22-PEXF-0003), PREFALIM (ANR-23-PEXF-0004) du PEPR exploratoire FairCarboN et a bénéficié d'une aide de l’État gérée par l'Agence Nationale de la Recherche au titre de France 2030 portant la référence ANR. Elle a également bénéficié des financements du projet MOBIDYC (ANR-23-ERCB-0006-0) gérée par l'Agence Nationale de la Recherche.
Gilles Billen a reçu des financements du programme PIREN-Seine, un programme public de recherche sur la qualité de l'eau et l'agriculture dans le Bassin de la Seine (https://www.piren-seine.fr/).
Josette Garnier a reçu des financements du programme interdisciplinaire PIREN-Seine (https://www.piren-seine.fr/)
28.04.2026 à 15:48
Elise Barandon, Doctorante en science politique, co-éditrice au Rubicon, Université Paris-Panthéon-Assas
La visite de James Marape, le premier ministre papouan-néo-guinéen, à Paris en mai 2026, marquée par la signature d’accords de sécurité et l’ouverture d’une ambassade, illustre le rapprochement stratégique, dans un contexte de recomposition géopolitique du Pacifique, de la France et de cet État océanien membre du Commonwealth et troisième territoire insulaire le plus grand du monde.
La visite du premier ministre papouan-néo-guinéen James Marape à Paris, prévue mi-mai 2026, pourrait passer inaperçue. Or, à Port Moresby comme à Paris, cet évènement n’a rien d’anodin : la signature attendue d’un accord de shipriding et l’officialisation de l’ouverture d’une ambassade papouane-néo-guinéenne à Paris comptent en témoigner. Cette visite s’inscrit plus largement dans un contexte de recomposition des équilibres géopolitiques dans le Pacifique insulaire, notamment marqué par la multiplication des accords de sécurité (en particulier avec l’Australie et les États-Unis, notamment face à l’influence chinoise dans le pays), et le renforcement des souverainismes.
À l’aune d’analyses des documents stratégiques et d’entretiens conduits à Port Moresby, plusieurs questions sous-tendent notre analyse : comment deux conceptions différenciées de la sécurité peuvent-elles produire une coopération mutuellement bénéfique ? Comment la France construit-elle une relation de sécurité différenciée avec un État mélanésien aux ambitions sécuritaires régionales ? Il s’agit ici d’appréhender la coopération de sécurité entre les deux États, tout en s’attachant à réinscrire les logiques insulaires au cœur des enjeux régionaux et internationaux qui les sous-tendent, afin que les dynamiques de compétition entre puissances n’occultent pas les voix et formes d’agentivité propres aux États du Pacifique insulaire.
Longtemps reléguée aux marges des analyses en relations internationales, la Papouasie-Nouvelle-Guinée (PNG) est pourtant le premier État insulaire de la région par sa population (environ 80 % des habitants du Pacifique insulaire) et son territoire (462 840 km2), lui permettant ainsi de s’imposer comme un acteur incontournable en Océanie.
La PNG, anciennement sous administration coloniale germano-britannique, puis australienne et indépendante depuis 1975, s’inscrit aujourd’hui dans une dynamique de montée en puissance progressive dans les domaines de la sécurité et de la défense, cherchant à affirmer plus nettement son influence et ses ambitions sur la scène régionale. Si, dans la continuité de l’héritage de ses pères fondateurs, elle s’est longtemps définie comme « amie de tous, ennemie de personne » (doctrine de l’universalisme), cette posture tend désormais à évoluer vers une stratégie plus sélective, fondée sur la consolidation de « partenariats stratégiques ». Dans ce contexte, la stratégie de la PNG est fréquemment interprétée comme relevant d’une logique de hedging.
Parallèlement, Port Moresby exprime sa volonté de s’affirmer à l’échelle régionale ; elle aspire à jouer un rôle plus actif, parfois qualifié de « grand frère », au sein du Pacifique insulaire. Ces inflexions ont mené à une prise de conscience accrue des limites capacitaires nationales, notamment en matière de sécurité intérieure et de défense. Les effectifs des forces armées (Force de défense de Papouasie-Nouvelle-Guinée, ou PNGDF) et de la police (RPNGC) demeurent en effet inférieurs aux standards généralement recommandés à l’échelle internationale. Le paysage sécuritaire national, quant à lui, se caractérise par une forte hybridité : dans les espaces urbains par exemple, les entreprises de sécurité privée jouent un rôle central – l’État n’ayant pas le monopole effectif de la sécurité. La PNGDF fait aussi l’objet d’un processus de transformation visant à accroître ses effectifs (10 000 personnels à l’horizon 2030, contre près de 4 000 aujourd’hui) et à faire évoluer son modèle organisationnel. Il s’agit notamment de passer d’une force historiquement structurée autour d’un « modèle de brigade » – à dominante « cérémonielle » – à une organisation plus « fonctionnelle » articulée autour de trois composantes (aérienne, maritime et terrestre).
Or, si l’attention stratégique portée à la Papouasie-Nouvelle-Guinée s’est accrue ces dernières années, et que les jalons des ambitions ont été posés, les priorités sécuritaires du pays restent encore largement sous-analysées. En effet, la PNG se caractérise par une diversité géographique et culturelle exceptionnelle (plus de 1 000 tribus) et une mosaïque de structures sociales organisées autour de clans, dont une grande partie vit dans des régions isolées. Les violences intertribales – parfois qualifiées de « terrorisme local » – côtoient des phénomènes de criminalité (raskoll) plus classiques. La porosité des frontières, tant terrestres que maritimes, favorise les trafics d’armes (notamment via la frontière indonésienne) et de stupéfiants, tandis que la pêche illégale constitue une menace persistante pour les ressources et la souveraineté économique du pays. À ces enjeux s’ajoutent des problématiques structurelles telles que les inégalités de développement, les tensions liées aux industries extractives, ainsi qu’une forte exposition aux catastrophes naturelles. Dans un tel environnement, la sécurité ne saurait être réduite à sa seule dimension militaire : elle s’inscrit dans un ensemble plus large de dynamiques politiques, économiques et sociales, qui appellent des réponses à la fois multidimensionnelles et adaptées aux réalités locales. Les enjeux dits de sécurité non traditionnelle occupent une place centrale dans les priorités exprimées localement et conditionnent, en grande partie, la stabilité à long terme du pays.
Si la coopération de sécurité entre la PNG et la France s’inscrit dans une longue temporalité, elle connaît, depuis le début des années 2020, un regain de dynamisme significatif. La signature d’un accord relatif au statut des forces (SOFA) en 2022 en a constitué une étape structurante. L’année suivante, à la faveur de la visite du président Emmanuel Macron dans la région, la relation entre Port Moresby et Paris a été revitalisée grâce au lancement de l’Académie du Pacifique, une initiative portée par les forces armées en Nouvelle-Calédonie et en Polynésie française. Le livre blanc de politique étrangère de la PNG précité inscrit d’ailleurs la France dans son « voisinage ».
Avec l’aide de la stratégie indopacifique française – réactualisée en 2025 – et de la National Security Policy 2025-2029 de la PNG, la coopération franco-papouane-néo-guinéenne a particulièrement augmenté en l’espace de quelques mois. Les escales, les patrouilles maritimes, et les transferts de capacités ciblées à l’image du don de drones de surveillance maritime DELAIR UX-11, en sont des exemples manifestes. La PNG prend également part à des exercices multilatéraux français (Croix du Sud) qui favorisent l’interopérabilité. En parallèle, des formations sont dispensées – de l’entraînement des forces spéciales au perfectionnement tactique (parachutisme, par exemple) –, contribuant à l’élévation du niveau opérationnel de la PNGDF. Enfin, la coopération s’inscrit également dans des cadres multilatéraux régionaux, tels que le South Pacific Defence Ministers’ Meeting (SPDMM) ou le Pacific Response Group.
Ces éléments opérationnels mettent en lumière une dimension stratégique singulière : celle d’une France perçue et décrite par nos interlocuteurs comme un partenaire de sécurité certes discret, mais crédible et souvent « sous-estimé ». Dans un environnement partenarial dense, la France pourrait être qualifiée de « puissance d’ajustement » pour la PNG. À rebours des approches plus structurantes de l’Australie, des États-Unis ou de la Chine – néanmoins parfois considérées comme « intrusives » voire « condescendantes » –, cette discrétion constitue une ressource. En proposant une approche complémentaire de celles existantes pour ne pas saturer le partenaire, la France contribue à certaines fonctions sécuritaires clés, souvent qualifiées de « niches » par les interlocuteurs, mais dont la plus-value est reconnue.
Les perspectives d’approfondissement de la coopération sécuritaire entre la France et la Papouasie-Nouvelle-Guinée apparaissent nombreuses. La revitalisation en cours de la composante aérienne de la PNGDF, et la rénovation de la base navale de Lombrum en parallèle de l’accord de shipriding (patrouiller dans les eaux territoriales et les zones économiques exclusives d’un État tiers, en embarquant un officier du pays concerné), ouvrent de nouveaux champs de coopération, susceptibles d’élargir le spectre des interactions opérationnelles. Des soutiens dans des secteurs émergents (cybersécurité, renseignement, opérations de maintien de la paix des Nations unies) sont également appelés à occuper une place croissante.
Ces perspectives prometteuses ne sauraient toutefois occulter un certain nombre de contraintes et de points de vigilance, voire de friction. Les cycles électoraux à venir dans les deux pays en 2027 sont susceptibles d’introduire des incertitudes dans la continuité des engagements, et certaines évolutions politiques internes appellent également à la prudence : la question de l’indépendance de Bougainville pourrait redessiner les équilibres régionaux et ouvrir de nouvelles configurations partenariales, tout en ravivant des tensions héritées d’un passé conflictuel.
Fondamentalement, une connaissance fine des réalités locales demeure indispensable : la PNG, en raison de sa grande diversité, ne peut être appréhendée comme un bloc monolithique, et toute approche standardisée comporte des risques d’inadéquation. Il convient en outre de rappeler que la coopération s’inscrit dans un contexte fragile : budgets serrés, défis en matière de professionnalisation, corruption, fragilités voire scandales institutionnels, et décalages des élites urbaines, constituent autant de facteurs susceptibles d’affecter la mise en œuvre des projets de coopération.
Enfin, la question de la saturation partenariale doit être prise en compte. Dans un pays où les offres de coopération se multiplient et où les ressources – humaines comme financières – sont limitées, l’enjeu n’est pas tant d’accumuler les initiatives que de les rationaliser. Si elle constitue un partenaire utile et apprécié, la France demeure structurellement un acteur secondaire dans l’écosystème sécuritaire de la PNG.
En définitive, la consolidation d’un partenariat durable repose sur des principes fondamentaux de réciprocité, d’écoute et de respect des priorités locales, faisant échos au wantok local. À cet égard, un proverbe en Tok Pisin (pidgin local) résume avec justesse l’esprit dans lequel cette relation peut se déployer : « Yu harim tok blo mi, bai mi harim tok blo yu » (« Si tu m’écoutes, je t’écouterai. »).
Elise Barandon est officier de réserve (Marine nationale) à la Direction générale des relations internationales et de la stratégie (DGRIS) et doctorante associée à l'Institut de recherche stratégique de l'Ecole militaire (IRSEM).
28.04.2026 à 12:51
Mickael Naassila, Professeur de physiologie, Directeur du Groupe de Recherche sur l'Alcool & les Pharmacodépendances GRAP - INSERM UMR 1247, Université de Picardie Jules Verne (UPJV)
Camille André, Assistante hospitalo-universitaire, CHU de Rennes, Institut de Recherches en Santé-Environnement-Travail - IRSET - UMR Inserm 1085
Naouras Bouajila, Chargée d'études, Société française d'alcoologie et d’addictologie - Doctorante, Groupe de Recherche sur l’Alcool & les Pharmacodépendances, UMR-S INSERM 1247, Université de Picardie Jules Verne (UPJV)
Anticoagulants, antihypertenseurs, diurétiques, anxiolytiques, antidépresseurs, antidiabétiques, anticancéreux… tous ces médicaments apparemment sans grand rapport les uns avec les autres ont pourtant un point commun : ils sont sensibles aux interactions avec l’alcool. Consommer une boisson alcoolisée alors que l’on est sous traitement entraîne potentiellement des effets variés, dont certains peuvent être graves.
Vous sortez de la pharmacie avec dans votre sac un traitement contre la douleur, l’anxiété, l’hypertension ou le diabète. Votre pharmacien vous a très certainement expliqué la dose de médicament à prendre, et sur quelle durée. Il s’est peut-être attardé sur les effets secondaires potentiels. Il est possible qu’il vous ait aussi demandé si vous fumiez. Mais souvent, une question reste absente de ce type d’échange : vous arrive-t-il de consommer de l’alcool ?
L’association entre consommation d’alcool et médicaments est pourtant l’une des situations les plus fréquentes du quotidien. Elle concerne des millions de personnes, souvent sans qu’elles en aient conscience. Or, l’alcool peut modifier l’efficacité d’un traitement, en augmenter la toxicité ou amplifier certains effets indésirables, parfois avec des médicaments très courants.
Derrière cette réalité se cachent des mécanismes biologiques complexes, mais dont les conséquences sont très concrètes : chute, malaise, saignement, hypoglycémie, surdosage, inefficacité du traitement, ou aggravation silencieuse d’une maladie chronique.
Et contrairement à une idée reçue, il ne s’agit pas seulement d’un problème lié aux somnifères ou aux « gros buveurs ».
L’association entre alcool et médicaments potentiellement susceptibles d’interagir avec cette substance est loin d’être marginale. Aux États-Unis, l’analyse de l’enquête nationale NHANES (1999–2010) a estimé que 42,8 % des adultes utilisaient au moins un médicament susceptible d’une telle interaction, une proportion qui dépasse 75 % après 65 ans. En Suisse, environ une personne de 55 ans ou plus sur cinq déclarait consommer souvent ou presque toujours de l’alcool en même temps que ses médicaments.
Chez les sujets les plus âgés qui prennent plusieurs sortes de médicaments, le risque devient encore plus marqué : certaines études rapportent que la grande majorité des patients sont exposés à au moins une interaction potentielle. Autrement dit, il ne s’agit pas d’une situation rare ou exceptionnelle, mais d’une réalité fréquente du quotidien, particulièrement chez les personnes âgées.
Lorsque l’on prend un médicament, celui-ci ne fait pas qu’« agir » dans notre organisme. Il est absorbé, distribué dans notre corps, transformé par le foie, puis éliminé. Toutes ces étapes constituent la pharmacocinétique du médicament. Et l’alcool peut interférer avec chacune d’elles.
Le foie joue ici un rôle central. En effet, c’est lui qui métabolise non seulement l’alcool, mais aussi une grande partie des médicaments. Or, lorsque deux substances empruntent les mêmes voies biologiques, elles peuvent se gêner mutuellement.
Deux situations doivent être distinguées, la consommation ponctuelle et la consommation régulière, car leurs effets sur les traitements ne sont pas les mêmes.
Consommation ponctuelle : quand le médicament s’accumule
Lors d’une prise aiguë d’alcool, un apéritif, un dîner arrosé, une soirée, l’organisme mobilise en priorité ses systèmes de dégradation de l’éthanol, notamment au niveau hépatique. Pour cela, le foie utilise diverses enzymes. Or, certains médicaments sont métabolisés par ces mêmes enzymes. Résultat : ceux-ci sont éliminés plus lentement. Leur concentration dans le sang augmente, ce qui augmente le risque d’effets indésirables ou de toxicité.
Ce phénomène peut être particulièrement problématique avec les médicaments dits « à marge thérapeutique étroite », c’est-à-dire ceux pour lesquels un faible écart de dose ou de concentration peut suffire à provoquer un effet excessif ou dangereux.
Autrement dit, un verre peut parfois faire « trop agir » un médicament.
Consommation régulière : quand le traitement devient moins efficace, ou plus toxique
À l’inverse, une consommation chronique d’alcool modifie durablement le fonctionnement du foie. Celui-ci augmente la production de certaines enzymes de biotransformation (notamment le cytochrome P450 2E1 ou CYP2E1). Ce phénomène est appelé « induction enzymatique ». Conséquence : certains médicaments sont dégradés plus rapidement qu’attendu. Ils restent moins longtemps à des concentrations efficaces, ce qui peut réduire leur effet thérapeutique.
Par ailleurs, cette adaptation a un revers. Elle favorise aussi la formation de métabolites réactifs, parfois toxiques. L’exemple le plus connu est celui du paracétamol. Après avoir été absorbé, une partie de ce médicament est transformée en un composé toxique pour le foie, la N-acétyl-p-benzoquinone imine (NAPQI). Normalement, ce métabolite est neutralisé par un composé appelé glutathion.
Cependant, chez les consommateurs chroniques d’alcool, la production de NAPQI peut augmenter, car le foie fabrique de plus grandes quantités de l’enzyme CYP2E1, qui transforme le paracétamol en métabolite toxique. Dans le même temps, les réserves de glutathion diminuent : elles sont davantage consommées pour neutraliser ce toxique, et souvent moins bien reconstituées en raison de l’alcool, de la dénutrition ou d’une maladie du foie. Cela majore le risque de lésions hépatiques, parfois même lorsque les médicaments sont pris à des doses usuelles.
L’alcool ne perturbe pas seulement le métabolisme.
La déshydratation qu’il favorise peut réduire le volume de distribution de certains médicaments hydrosolubles (solubles dans l’eau, ndlr) et augmenter leur concentration dans le plasma sanguin.
Les modifications de la composition corporelle observées chez certains consommateurs chroniques d’alcool, notamment une augmentation relative de la masse grasse, peuvent aussi favoriser l’accumulation de molécules lipophiles (qui présentent une « attirance » pour les tissus gras) et prolonger leur durée d’action.
Enfin, lorsqu’une consommation prolongée a altéré le foie ou les reins, les capacités d’élimination diminuent. Les médicaments s’accumulent alors plus facilement, exposant à un risque accru de surdosage ou d’effets indésirables prolongés.
Souvent invisibles pour le patient, ces mécanismes modifient profondément l’équilibre entre bénéfice et risque du traitement.
Soulignons que, lors du développement d’un médicament, certaines interactions pharmacocinétiques peuvent être étudiées, notamment si un risque est suspecté. Toutefois, les essais cliniques incluent souvent peu de buveurs importants. En outre, ils excluent les patients fragiles et évaluent mal les consommations réelles d’alcool (ponctuelles, chroniques ou variables).
Après la mise sur le marché, la pharmacovigilance peut détecter des signaux d’alerte, mais l’alcool est fréquemment sous-déclaré ou non recherché. Résultat : de nombreuses interactions avec l’alcool restent probablement sous-estimées et passent donc sous les radars.
L’alcool peut aussi interagir directement avec les effets des médicaments sur l’organisme. On parle alors d’« interactions pharmacodynamiques ».
Dans ce cas, l’alcool ne change pas forcément la concentration ou la distribution du médicament, mais la manière dont le corps y répond.
L’alcool agit principalement comme un dépresseur du système nerveux central (cerveau et moelle épinière). Il en renforce le principal système inhibiteur (la transmission GABAergique), tout en freinant le fonctionnement de structures moléculaires impliquées dans l’excitation neuronale (les récepteurs glutamatergiques NMDA).
Ce double effet entraîne sédation, ralentissement psychomoteur, troubles de la vigilance, altération des réflexes et baisse des performances cognitives. En d’autres termes, l’alcool ralentit l’activité générale du cerveau ainsi que le fonctionnement du corps et diminue le niveau d’éveil.
Lorsque des médicaments agissant sur ces mêmes voies sont associés à l’alcool, leurs effets ne s’additionnent pas simplement : ils se potentialisent. C’est le cas notamment :
des benzodiazépines (par exemple, l’alprazolam – nom commercial Xanax – ou le bromazépam – nom commercial Lexomil) ;
des hypnotiques (par exemple, le zolpidem – nom commercial Stilnox – ou la zopiclone – nom commercial Imovane) ;
des opioïdes (par exemple, la morphine, que l’on trouve notamment dans le médicament commercialisé sous le nom de Tramadol) ;
de certains antihistaminiques sédatifs (par exemple, l’hydrozine – nom commercial Atarax ou la dexchlophéniramine – nom commercial Polaramine) ;
de plusieurs psychotropes (par exemple, Tercian pour la cyamémazine, Largactil pour la chlorpromazine).
Sur le plan clinique, cela peut se traduire par une somnolence majeure, une confusion, des troubles de la coordination, des chutes, des accidents domestiques ou de la route.
Dans les cas les plus graves, en particulier avec les opioïdes ou certains anxiolytiques, la dépression du système nerveux central peut atteindre les centres respiratoires et devenir potentiellement fatale, les patients n’étant plus capables de respirer.
Certaines interactions sont plus spectaculaires encore. En temps normal, l’alcool est transformé en acétaldéhyde, puis rapidement converti en acétate grâce à une enzyme appelée aldéhyde déshydrogénase (ALDH).
Mais certains médicaments bloquent cette seconde étape. L’acétaldéhyde s’accumule alors dans l’organisme, provoquant une réaction dite de type « antabuse ».
Les symptômes peuvent apparaître rapidement : rougeur du visage, céphalées, nausées, vomissements, tachycardie, hypotension, malaise intense.
Ce mécanisme est utilisé volontairement avec le disulfirame dans la prise en charge de la dépendance à l’alcool. Le principe n’est pas de « guérir » directement l’addiction, mais de créer une forte dissuasion : si la personne boit, elle risque un malaise rapide et désagréable.
Si le disulfirame est bien un médicament (en médecine, un traitement peut agir soit en corrigeant un mécanisme biologique, soit en modifiant un comportement ou en prévenant une rechute), son utilisation soulève toutefois des questions éthiques : elle n’est acceptable que si le patient est clairement informé, volontaire et accompagné médicalement. Aujourd’hui, il est moins utilisé qu’autrefois, mais peut rester utile dans certaines situations bien encadrées.
Des réactions similaires peuvent aussi survenir avec d’autres médicaments, notamment certains antibiotiques, comme le métronidazole, ou certains antifongiques.
Il faut avoir à l’esprit que, parfois, de faibles quantités d’alcool suffisent, y compris celles contenues dans des sirops, des bains de bouche ou dans certaines préparations alimentaires…
Le sujet des interactions avec l’alcool dépasse largement les médicaments « à risque évident ». Certains médicaments utilisés couramment sont aussi concernés par cette problématique.
– Anticoagulants et antithrombotiques : la consommation chronique d’alcool peut augmenter le risque hémorragique. Elle favorise les lésions digestives (gastrites, ulcères, varices œsophagiennes), perturbe l’agrégation plaquettaire et peut altérer la coagulation via l’atteinte hépatique ;
– Antihypertenseurs : une consommation aiguë peut entraîner une vasodilatation (dilatation des vaisseaux sanguins), une chute tensionnelle, des vertiges ou une syncope. À l’inverse, une consommation chronique favorise l’hypertension et peut compliquer le contrôle du traitement ;
– Diurétiques et bêtabloquants : l’association peut majorer l’hypotension. Dans certains cas, l’alcool peut aussi aggraver bradycardie ou malaise ;
– Psychotropes, anxiolytiques, hypnotiques, antidépresseurs, antipsychotiques : l’alcool augmente souvent la sédation, la confusion, les troubles de la mémoire et le risque de chute ;
– Antidiabétiques : l’alcool inhibe la production de glucose (néoglucogenèse) au niveau du foie, ce qui peut favoriser des hypoglycémies parfois sévères, notamment chez les patients traités par insuline ou certains médicaments hypoglycémiants ;
– Traitements anticancéreux : l’alcool peut majorer la toxicité hépatique, aggraver fatigue, troubles digestifs ou atteintes cutanées et, parfois, interférer avec le métabolisme de certaines molécules.
Les personnes âgées constituent probablement la population la plus exposée aux interactions entre alcool et médicaments.
En effet, avec l’âge, la polymédication devient fréquente. Une part importante des plus de 75 ans prend plusieurs médicaments de façon concomitante, parfois jusqu’à cinq, voire davantage. Or, plus le nombre de traitements augmente, plus le risque d’interactions s’accroît.
S’ajoutent à cette situation des modifications physiologiques en lien avec la vieillesse, telle qu’une diminution de la masse hydrique (la quantité d’eau contenue dans le corps), qui favorise l’augmentation de la concentration sanguine d’alcool. L’augmentation relative de la masse grasse prolonge quant à elle l’action de certains médicaments lipophiles, tandis que la baisse des fonctions rénale et hépatique ralentit l’élimination des médicaments ainsi que, parfois, de leurs métabolites actifs ou toxiques, favorisant leur accumulation et augmentant le risque d’effets indésirables. Enfin, avec l’âge, le cerveau devient plus sensible aux substances sédatives.
Les interactions entre médicaments et alcool se traduisent souvent chez les personnes âgées par des chutes, des fractures, une confusion aiguë, des accidents médicamenteux qui entraînent hospitalisations et perte d’autonomie.
Soulignons que, dans ce contexte, même une consommation d’alcool jugée « modérée » peut produire des effets disproportionnés.
Plusieurs raisons peuvent expliquer le fait que la question des interactions entre médicaments et alcool soit si peu abordée : parce que l’alcool est culturellement banalisé ; parce qu’évoquer sa consommation peut paraître intrusif ; parce que le temps manque souvent au comptoir ou en consultation ; parce que ces interactions semblent moins inquiétantes que celles qui peuvent se produire avec d’autres médicaments, etc.
Mais ignorer la question ne la fait pas disparaître. L’alcool est une substance biologiquement active, capable d’interagir avec de nombreux traitements. À ce titre, il devrait faire partie du dialogue thérapeutique, de la même façon que les allergies, le tabac ou les autres médicaments pris en parallèle en font partie. Aujourd’hui, demander à un patient s’il fume est devenu un réflexe de prévention. Demander s’il boit de l’alcool devrait l’être tout autant.
Alors, la prochaine fois que votre médecin rédigera votre ordonnance, ou que vous irez retirer vos médicaments à la pharmacie, demandez simplement : « Y a-t-il une interaction possible avec la consommation d’alcool, même occasionnelle ? »
Cette question, si elle était plus souvent posée de part et d’autre du comptoir, pourrait éviter bien des accidents silencieux…
– La Société française d’alcoologie et d’addictologie (SF2A) réalise actuellement un guide à destination des professionnels de santé sur les interactions alcool et médicaments ;
– Sur le site de la SF2A, la page AlcoolConsoScience met à la disposition des professionnels de santé des informations scientifiquement validées sur l’impact de la consommation d’alcool sur la santé.
Mickael Naassila est membre sénior de l'Institut Universitaire de France IUF. Il est Président de la Société Française d'Alcoologie et d'Addictologie (SF2A) et de la Société Européenne de Recherche Biomédicale sur l'Alcoolisme (ESBRA); Vice-président de la Fédération Française d'Addictologie (FFA) et vice-président sénior de la Société Internationale de recherche Biomédicale sur l''Alcool et les Addictions (ISBRA). Il est membre de l'institut de Psychiatrie, co-responsable du GDR de Psychiatrie-Addictions et responsable du Réseau National de Recherche en Alcoologie REUNIRA et du projet AlcoolConsoScience. Il a reçu des financements de l'ANR, de l'IReSP/INCa Fonds de lutte contre les addictions.
Naouras Bouajila a reçu des financements du Fonds de lutte contre les addictions de la Caisse nationale de l’Assurance maladie.
Camille André ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.