LePartisan.info À propos Podcasts Fil web Écologie Blogs REVUES Médias
Souscrire à ce flux
L’expertise universitaire, l’exigence journalistique

ACCÈS LIBRE UNE Politique International Environnement Technologies Culture

▸ les 50 dernières parutions

14.04.2025 à 17:36

« Make Religion Great Again » : la place de la religion dans l’État trumpien

Laurie Boussaguet, Professeure des Universités en science politique, European University Institute, chercheure associée, Sciences Po

Florence Faucher, Professeure de sciences politiques (Centre d’études européennes), Sciences Po

Donald Trump a créé au sein de la Maison Blanche un « bureau de la foi ». Aussi surprenant que soit ce décret, il est passé inaperçu.
Texte intégral (2223 mots)
Photo postée par la Maison Blanche, le 8 février 2025, annonçant la création du Bureau de la foi, avec à sa tête la télévangéliste Paula White-Cain (en blanc, à droite). Compte X de la Maison Blanche

Le 7 février dernier, Donald Trump a créé au sein de la Maison Blanche un « bureau de la foi », chargé de renforcer la place de la religion aux États-Unis. Que signifie la création de cette nouvelle instance, et que dit-elle de l’administration Trump 2 ?


Depuis sa prise de fonctions, Donald Trump multiplie les annonces et signe des décrets à tour de bras. Lorsque le président des États-Unis prend des décisions, la mise en scène est toujours très soignée, comme le 20 mars dernier quand la Maison Blanche a été transformée en salle de classe pour la signature du décret visant à éliminer le ministère de l’éducation ou, début février, quand le chef de l’État s’est entouré de jeunes femmes et de fillettes au moment de promulguer le décret de « protection du sport féminin » contre les sportives transgenres. Autant de séances photos que les médias ne manquent jamais de relayer, soulignant la dimension « symbolique » des décisions du président.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Toutefois, et contrairement au sens commun qui assimile souvent le symbolique à une communication dépourvue d’effets concrets, ces politiques visent à transformer en profondeur l’État et la société. C’est tout particulièrement le cas en ce qui concerne la politique religieuse de la nouvelle administration, avec la création à la Maison Blanche d’un « bureau de la foi » (White House Faith Office (WHFO)), chargé de faire des recommandations au président et de consulter sur diverses questions des leaders religieux, qui a autorité sur l’octroi de subventions publiques aux institutions religieuses développant des activités sociales d’aide aux plus démunis.

Or, ces mesures sont passées quasi inaperçues dans les grands médias. À qui cette politique religieuse s’adresse-t-elle exactement ? Et pourquoi n’en a-t-on que très peu entendu parler ?

Deux discours fondateurs

Les 6 et 7 février 2025, deux semaines à peine après son retour à la Maison Blanche, Trump enchaîne les discours sur des thèmes religieux, accordant une grande place au christianisme conservateur, à ses chantres et à sa vision du monde. Le nouveau président mobilise à cette occasion de nombreux symboles (gestes, images, récits, citations des textes sacrés) facilement reconnaissables par une société états-unienne qui fréquente assidûment les églises.

La séquence s’ouvre, le 6 février 2025, par un premier discours de Trump lors du National Prayer Breakfast, qui se tient tous les ans au Capitole. Proclamant que « l’Amérique est et sera toujours une nation sous le regard de Dieu », il multiplie les références à des figures historiques des États-Unis n’ayant pas eu peur d’affirmer leur foi, notamment George Washington, « qui appelait souvent les Américains à se rassembler pour prier », et le « grand Roger Williams, qui a créé l’État de Rhode Island et nommé sa capitale Providence, et qui a construit la première église baptiste en Amérique ».

Répétant à plusieurs reprises la formule « Bring religion back » (« Faire revenir la religion »), Trump se présente en restaurateur de la tradition religieuse historique spécifique aux États-Unis.

Enfin, en écho à son discours d’investiture du 20 janvier 2025, quand il déclarait avoir été « sauvé par Dieu », lors de la tentative d’assassinat dont il avait été la cible le 13 juillet dernier, il annonce que cet épisode a été pour lui une épiphanie :

« Ça a changé quelque chose en moi… quelque chose s’est produit. »

Un tel récit fait écho aux récits de « renaissance », caractéristiques de l’imaginaire religieux des chrétiens évangéliques, et rapproche Trump des communautés conservatrices qui sont attentives à toute déclaration d’un renouvellement de la foi ; il se présente ainsi comme l’un d’eux, et non plus seulement comme un de leurs alliés politiques.

Le même jour, Trump prononce un second discours, lors d’un National Prayer Breakfast alternatif, organisé à l’hôtel Hilton de Washington. Il s’agit en fait du lieu originel où se tenait le NPB, mais il a été décidé en 2023 de déplacer l’événement au Capitole pour contester la trop grande emprise des chrétiens conservateurs sur la Maison Blanche et le Congrès.

L’organisation conservatrice à l’origine de cette tradition continue toutefois de maintenir l’événement au Hilton. Face à ce public très conservateur, Trump adopte un ton plus partisan : il se félicite d’avoir « éliminé le wokisme » au cours des deux semaines écoulées et annonce la prochaine création d’un « bureau de la foi » à la Maison Blanche.

Le décret instituant le Bureau de la foi : texte et image

Quelques heures plus tard, il signe un décret qui crée un groupe de travail visant à mettre fin aux mesures « antichrétiennes » de l’administration Biden, telles que les poursuites pénales par le ministère de la justice visant des personnes ayant bloqué l’accès aux cliniques pratiquant des avortements.

Ce décret, qui évoque implicitement la persécution des chrétiens sous l’Empire romain, introduit une équivalence entre leur sort et l’expérience vécue par les communautés évangéliques aux États-Unis. Ce narratif puissant construit une image déformée de la réalité, selon laquelle les chrétiens seraient une minorité opprimée, alors que près des deux tiers des habitants des États-Unis se réclament du christianisme et que des décennies de politiques publiques ont visé à limiter les discriminations à l’égard d’autres groupes sociaux.

Le lendemain, 7 février 2025, est signé le décret présidentiel qui instaure le Bureau de la foi de la Maison Blanche (acronyme en anglais, WHFO). Les gestes symboliques accompagnant cette décision sont nombreux, à commencer par le choix de la dénomination de cette nouvelle structure. Alors que ses versions précédentes s’appelaient « Bureau des initiatives confessionnelles et communautaires » (sous G. W. Bush, au moment de sa création) ou « Bureau des partenariats confessionnels et de quartier » (sous Obama), le bureau est désormais exclusivement celui de la foi. Or, la foi est caractéristique du christianisme alors que d’autres religions parlent simplement de croyances et insistent sur la pratique religieuse ou l’appartenance à une communauté.

Par ailleurs, si l’octroi de subventions publiques à des institutions privées, notamment religieuses, n’est pas nouveau, l’élimination de la référence aux communautés ou aux quartiers l’est, ce qui focalise l’attention sur la seule dimension religieuse. Ce nouveau bureau est également investi d’une mission de conseil auprès de la Maison Blanche, donnant aux chrétiens conservateurs une voie d’accès privilégiée au président et à son équipe.

La désignation des membres du nouveau WHFO est en outre significative : c’est la télévangéliste Paula White-Cain qui le dirige. Conseillère spirituelle de Trump de longue date et fervente opposante des politiques antidiscriminatoires, elle a œuvré dès son premier mandat au rapprochement de la Maison Blanche avec de nombreux groupes confessionnels évangéliques.

Enfin, la photo officielle accompagnant l’annonce de la signature de ce nouveau décret sur les réseaux sociaux de la Maison Blanche (voir en tête du présent article) peut être lue comme une image religieuse de facture très classique.

On y voit Trump au centre, assis à son bureau et entouré de plusieurs personnes en train de prier. Les figurants sont des pasteurs et prédicateurs évangéliques, dont des conseillers de son premier mandat. Certains ont apposé leurs mains sur le président ou les étendent dans sa direction, d’autres les ouvrent vers le ciel, d’autres encore les tiennent dans un geste de recueillement, et tous ont le regard et la tête baissés. La mise en scène est efficace et le message explicite : Trump est le héros qui va permettre le retour de la foi chrétienne au cœur de l’État.

On ne peut pas douter des intentions de Trump, martelées tout au long de la campagne présidentielle. Il affirmait devoir « sauver la religion dans ce pays » et n’hésitait pas à dépeindre l’élection comme une guerre sainte opposant la figure de proue de la chrétienté (lui-même) à la supposément antichrétienne Kamala Harris, qui est pourtant baptiste.

Bien sûr, la création du WHFO, en sa qualité de décision fédérale, concerne l’ensemble du pays. Mais elle répond plus particulièrement aux attentes des communautés religieuses qui ont largement voté pour Trump – 72 % des chrétiens blancs lui ont en effet donné leur voix, et le taux s’élève à 81 % chez les électeurs évangéliques et pentecôtistes. Rien de surprenant donc à ce qu’il adopte le point de vue et le programme de ces chrétiens qui l’ont porté au pouvoir. Sa politique religieuse est une récompense à leur soutien.

Une mesure insuffisamment remarquée

Le relatif désintérêt que l’instauration du Bureau de la foi de la Maison Blanche a suscité dans le débat public est frappant. Si les médias confessionnels ont relayé l’information, peu de médias généralistes s’en sont saisis, comme si cette information, noyée dans le flot d’annonces spectaculaires de la nouvelle administration, n’était finalement qu’un signal adressé à son électorat, une mesure « symbolique » aux effets négligeables.

Or, cette politique est significative et transformatrice. Elle institutionnalise la présence des religieux conservateurs au sein du gouvernement fédéral. Elle s’appuie sur des pratiques symboliques empruntées au répertoire évangélique. Elle remet en question la séparation de l’Église et de l’État aux États-Unis. Et elle révèle que le pouvoir entend désormais tirer sa légitimité du soutien privilégié d’une communauté identifiée, plutôt que des procédures démocratiques.

En somme, elle modifie le régime politique, à commencer par la neutralité confessionnelle, et impose des représentations collectives sur les pratiques appropriées à adopter, qui ne seront pas sans impact sur la vie quotidienne des citoyens américains.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

14.04.2025 à 17:35

Quel serait le « bon moment » pour changer de Constitution ?

Carolina Cerda-Guzman, Maîtresse de conférences en droit public, Université de Bordeaux

En France, tous les changements de Constitution eurent lieu après des crises majeures : guerres, révolutions ou coups d’État. Mais sommes-nous condamnés à réécrire le texte constitutionnel dans le tumulte ?
Texte intégral (2295 mots)

En France, depuis 1789, tous les changements de Constitution eurent lieu après des crises majeures : guerres, révolutions ou coups d’État. Mais sommes-nous condamnés à réécrire le texte constitutionnel dans le tumulte ? L’exemple du Chili, qui a mené un processus constituant entre 2019 et 2023, permet de dépasser certaines idées reçues.


Depuis la dissolution de l’Assemblée nationale, le 9 juin 2024, la Ve République française traverse une période de forte instabilité. En 2024, quatre premiers ministres différents se sont succédé : Élisabeth Borne, Gabriel Attal, Michel Barnier, puis François Bayrou. Une première depuis 1958. Pourtant, cette République est fondée sur une Constitution que l’on présente souvent comme le cadre idéal pour garantir la stabilité du pouvoir exécutif. Si le texte qui fonde les institutions n’est plus à même d’assurer cette stabilité, se pose alors une question redoutable : faut-il envisager un changement de Constitution, et ce, dès maintenant ? Plusieurs éléments rationnels plaident pour ce changement et des modalités concrètes pour y procéder ont été formulées.

Face à cette hypothèse un argument revient pourtant de manière récurrente : le moment du changement n’est pas encore là, car les Constitutions sont des textes que l’on ne change qu’en cas de crise grave, lorsqu’il n’y a pas d’autre issue, lorsque les institutions sont paralysées. Ainsi, le « bon moment » pour changer de Constitution serait nécessairement une période troublée. Sommes-nous vraiment condamnés à écrire des Constitutions dans le tumulte ?

Les biais de l’histoire constitutionnelle française

Cette tendance à associer chaos et rédaction d’une nouvelle Constitution résulte en grande partie de l’histoire constitutionnelle de la France. Il faut reconnaître que sur ce point la France dispose d’une expérience particulièrement riche. Depuis la Révolution, il y a eu au moins 15 textes constitutionnels différents (16 si l’on ajoute les actes constitutionnels adoptés sous Vichy entre le 11 juillet 1940 et le 26 novembre 1942). En comparaison, les États-Unis d’Amérique n’en ont connu qu’une : celle rédigée par la Convention de Philadelphie en 1787. Certes, ce texte a été enrichi de 27 amendements, mais la Constitution française, née en 1958, en est déjà à sa 25ᵉ révision (la dernière en date étant celle du 8 mars 2024, relative à la liberté de recourir à l’interruption volontaire de grossesse).


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Or, que nous apprend cette foisonnante histoire constitutionnelle française ? Que les changements de Constitution arrivent généralement dans trois hypothèses majeures : soit en cas de révolution (les Constitutions de 1791, 1793, 1795, 1830 ou 1848 en sont des exemples), soit en cas de coups d’État (les Constitutions de 1799 ou de 1852 en attestent), soit après une défaite militaire et après la Libération (les Constitutions de 1814, 1875, de Vichy, puis celle du gouvernement provisoire de 1945 sont nées de ces contextes). L’actuelle Constitution est, quant à elle, née après un putsch militaire à Alger en mai 1958.

Ainsi, on tend à considérer que toute bascule constitutionnelle ne peut s’opérer que dans le cadre d’une crise majeure et existentielle, qui conduit à réassigner la source du pouvoir. C’est lorsque le pouvoir passe du monarque au peuple ou du peuple à un nouvel homme (plus ou moins providentiel) que l’on rédige une nouvelle Constitution. Le passé constitutionnel français empêche d’imaginer un changement constitutionnel apaisé, respectueux du cadre démocratique et du droit, où régneraient le dialogue et la concorde.

Les leçons issues des expériences étrangères

Si l’on prend l’Histoire comme une loi implacable, vouée à se répéter éternellement, cela impliquerait que, si un jour, l’on devait changer de Constitution, ceci ne pourrait se faire qu’au prix d’une rupture avec le droit en place. Dit autrement, la naissance d’une VIe République supposerait une violation du cadre établi par la Ve République. Or, il y a quelque chose de perturbant à se dire que, pour aboutir à un meilleur régime démocratique, l’on soit obligé de passer par un non-respect du droit existant. Non seulement, c’est problématique lorsque l’on est attaché au respect du droit et à la démocratie, mais c’est aussi fâcheux sur un plan plus utilitariste. L’illégalité de la naissance peut entacher durablement le texte, et donc constituer un handicap pour sa légitimité. Mais, en réalité, le plus gênant est qu’il n’existe nullement une telle fatalité en droit constitutionnel.

Toute constitution ne naît pas nécessairement du viol de la constitution qui l’a précédée et il est tout à fait possible de penser un changement constitutionnel respectueux du droit existant. De fait, il existe des pays où le texte constitutionnel anticipe déjà le processus à suivre. En effet, il arrive que des textes constitutionnels mentionnent les étapes à respecter pour un changement complet de Constitution et distinguent ainsi une révision partielle (changement de certains articles) d’une révision totale (changement complet du texte) de la Constitution. C’est le cas, par exemple, de la Suisse (articles 193 et 194), de l’Espagne (article 168) ou de l’Autriche (article 44). Ainsi, selon ces textes, il n’est pas nécessaire d’attendre que les institutions s’effondrent pour les rebâtir.

Ce que nous enseigne l’exemple chilien

Le raffinement des techniques d’élaboration des Constitutions tout au long du XXe siècle permet d’envisager un dépassement de l’histoire constitutionnelle française et de rejeter l’idée que les changements constitutionnels ne peuvent naître que dans des moments de crise existentielle.

Toutefois, il est certain que, pour que la bascule s’opère, une force favorable au changement constitutionnel est nécessaire. Il faut que cette force prenne corps et s’exprime à l’occasion d’un événement social, politique ou économique. Ainsi, si le changement de Constitution n’exige pas un effondrement du système, un événement nécessairement perturbateur doit le déclencher. Celui-ci peut être grave et destructeur, mais il peut être aussi plus minime.

Dans son essai Sortir de la Ve. Pour une fabrique citoyenne de la constitution, (éditions du Détour, décembre 2024), la juriste Carolina Cerda-Guzman propose des pistes pour une nouvelle Constitution plus inclusive et plus démocratique. CC BY

Pour ne prendre qu’un exemple, le Chili, celui-ci a connu un processus constituant entre 2019 et 2023. Ce processus débute par l’annonce d’une nouvelle hausse du prix du ticket dans la capitale. Très rapidement, les rues de Santiago se sont noircies de manifestants. Au moment où la demande d’un changement de Constitution est exprimée par la rue, les institutions chiliennes n’étaient ni bloquées ni paralysées. Il n’y avait même pas de crise politique majeure à cet instant. La hausse du prix du ticket de métro a été en réalité une étincelle, qui a constitué un point de focalisation d’un mécontentement plus profond, et a mis en mouvement une force favorable au changement constitutionnel.

Les manifestants se sont alors spontanément assemblés en « cabildos », qui est le nom donné au Chili à toute réunion de citoyennes et de citoyens traitant de questions d’intérêt commun. La reprise en main par la citoyenneté de la discussion constitutionnelle a contraint les partis politiques, puis l’exécutif, à enclencher un processus de changement de constitution participatif. Pour ce faire, une procédure en forme de sablier a été mise en place. L’idée étant que la participation populaire soit la plus large possible en début et en fin de processus mais qu’au milieu, donc lors de la rédaction du texte à proprement parler, la tâche soit confiée à un groupe plus restreint d’individus.

Ainsi, le processus a officiellement débuté par un référendum invitant le corps électoral à confirmer son souhait de changer de Constitution. Puis, une Assemblée constituante a été élue, composée à égalité de femmes et d’hommes (une première dans l’histoire mondiale), chargée de rédiger le projet de Constitution.

Enfin, ce texte fut soumis à un référendum pour approbation. Dans la mesure où le processus chilien s’est soldé, le 4 septembre 2022, par un rejet du texte, il ne peut être un exemple à suivre à la lettre. Pour autant, il prouve que la discussion constitutionnelle peut surgir à tout moment.

En France, nul ne sait quel sera cet élément déclencheur ni quand il adviendra. Il peut avoir lieu demain, dans quelques mois voire des années. Pour autant, plusieurs événements (la crise des gilets jaunes en 2018, les mouvements sociaux contre la réforme des retraites en 2019‑2020 puis en 2023, les émeutes et violences urbaines de juin 2023, le mouvement des agriculteurs en janvier 2024, ou même, avant eux, Nuit debout en 2016 ou le mouvement des bonnets rouges en 2013) laissent à penser qu’il peut survenir à tout moment. Si chercher à l’anticiper est vain, il est tout aussi faux de penser qu’il existe un « bon moment » pour changer de Constitution.

Le « moment constituant » n’est jamais bon ou mauvais en soi, il advient ou n’advient pas. Surtout, il ne naît pas nécessairement de la volonté d’un homme providentiel ou à la suite de l’effondrement d’un système, il peut naître de la demande, certes contestataire, mais raisonnée de citoyennes et de citoyens.

The Conversation

CERDA-GUZMAN Carolina est membre du conseil d'administration de l'Association française de droit constitutionnel.

14.04.2025 à 17:35

Pollution, environnement : la résilience de nos cellules menacée, un risque de mauvaise santé

Christian Neri, Directeur de Recherches INSERM, Inserm

Divers mécanismes protègent nos cellules des stress variés qu’elles subissent, nous prémunissant des maladies. Toutefois, divers indices semblent indiquer que ces capacités de résistance pourraient être menacées.
Texte intégral (2444 mots)

Divers mécanismes protègent nos cellules des stress variés qu’elles subissent, nous prémunissant des maladies. Toutefois, divers indices semblent indiquer que ces capacités de résistance pourraient être menacées.


Toutes les cellules des êtres vivants sont dotées de mécanismes de compensation qui leur permettent de s’adapter au stress. Ce dernier peut être soit inhérent au fonctionnement normal des organismes vivants (en fonctionnant, les cellules peuvent produire des substances délétères pour elles-mêmes), soit induit par l’exposition à des facteurs environnementaux (stress aigus résultant de traumas ou d’infections, stress chroniques dus à la pollution, aux températures extrêmes, à des relations sociales délétères…).

Cette compensation cellulaire, en garantissant la résilience des tissus, constitue l’assurance de notre capacité à nous prémunir des maladies. Le vieillissement se traduit par une érosion des capacités de compensation et de résilience de nos cellules.

Or, notre environnement, lorsqu’il est dégradé par les pratiques industrielles, atteint l’intégrité de ce mécanisme au même titre que le vieillissement, ce qui peut nous fragiliser avant l’heure. Cet amoindrissement est un danger de vie en mauvaise santé. Se saisir du problème passe par la conscientisation du mécanisme qui est à la racine de cet amoindrissement.

Qu’est-ce que la résilience ?

Le concept de résilience recouvre les capacités à surmonter les altérations provoquées par des éléments perturbateurs dans des situations variées.

Une forme bien connue de résilience concerne la récupération après un stress particulièrement agressif, comme la résilience psychologique mise en lumière par le neuropsychiatre Boris Cyrulnik. Issu de la physique, le concept de résilience traverse désormais de nombreuses disciplines, de l’économie à la psychologie en passant par l’écologie ou l’informatique. On parle aujourd’hui de la résilience des systèmes logistiques (eau, énergie, transport) ou des systèmes de santé.

Mais la résilience ne concerne pas que « l’après-crise », c’est aussi les capacités à surmonter le stress qui affecte un système ou un individu de manière discrète, voire silencieuse, avant la survenue du pire.

Stress et résilience du vivant

Le vivant est en permanence confronté au stress cellulaire. La réponse au stress cellulaire (notamment lors du développement et de la reproduction) est un garant d’adaptation et d’expansion d’une population donnée.

Un stress faible peut stimuler la longévité des cellules. Cependant, un stress excessif, par exemple sous l’effet de facteurs environnementaux, peut éroder les capacités de résilience cellulaire. Or, l’érosion de ces capacités est au centre du vieillissement des tissus. C’est un risque « corps entier », car les organes communiquent entre eux. Par exemple, le microbiote intestinal communique avec le cerveau et son altération peut être préjudiciable au cerveau. C’est un risque « vie entière », car la réussite de la réponse au stress cellulaire traite des phases critiques de l’existence comme la reproduction (taux de natalité), la grossesse (santé du fœtus) ou le développement de l’enfant.

Penser la résilience du corps sous l’angle de la récupération, une fois le pire survenu, c’est sous-estimer le préjudice que les pratiques industrielles et les pollutions air-sol-eau-aliments font encourir à notre santé. C’est enfermer toujours plus d’individus dans la perspective d’une mauvaise santé dont l’échéance est incertaine, mais qui surviendra trop tôt et trop fort.

En revanche, penser la résilience du corps comme un mécanisme toujours à l’œuvre, c’est pouvoir lutter contre ce qui empêche nos tissus d’être résilients, c’est pouvoir améliorer la précaution et la prévention.

Les mécanismes de résilience cellulaire

Ces mécanismes ne sont pas seulement ceux qui nous protègent contre les infections (comme l’immunité, par exemple).

Il s’agit aussi des mécanismes d’intégrité cellulaire, par exemple la réparation de l’ADN – dont l’altération présente un risque de division anarchique des cellules et de cancer, d’élimination des protéines présentant des défauts de fabrication ou abîmées par l’oxydation naturelle des tissus –, ou bien il peut s’agir de la production d’énergie nécessaire au fonctionnement des cellules, par exemple dans les mitochondries.

Ces mécanismes sont cruciaux dans les cellules qui ne se renouvellent pas, ou peu, comme les neurones du cerveau et du système nerveux central. Leur échec va sans doute de pair avec la transition des stades légers à sévères des maladies. Par exemple, la progression de la maladie de Huntington est marquée par la transition d’une phase de « compensation fonctionnelle » vers une phase de « décompensation », avec des mécanismes de résilience cellulaire qui ne parviennent plus à compenser les dommages neuronaux, un modèle qui vaudrait aussi pour la maladie d’Alzheimer.

Mais ce n’est pas tout : les mécanismes de résilience cellulaire sont au centre du vieillissement des tissus.

Au cours des trente dernières années, au moins douze caractéristiques du vieillissement ont été identifiées, dont certaines traitent directement des mécanismes de résilience cellulaire, comme la réduction de la fonction des mitochondries ou de l’autophagie (élimination des déchets intracellulaires), l’altération de l’intégrité de l’ADN et des protéines, et l’augmentation de la sénescence cellulaire, dans un modèle où le vieillissement serait principalement dû à une accumulation de mutations génétiques, accompagnée par une érosion épigénétique.

Il existe donc un solide faisceau de présomptions pour penser que ces mécanismes s’opposent aux effets du vieillissement et à la survenue des maladies chroniques.

La résilience cellulaire mise en péril

L’affaiblissement avant l’heure de la compensation cellulaire s’oppose aux bénéfices que l’on s’attend à voir découler de l’adoption d’une « bonne » hygiène de vie visant à réduire la charge de morbidité en agissant sur des facteurs de risques dits « modifiables », tels que l’alimentation, la sédentarité, les addictions, les lieux de vie, l’hygiène au travail, ou encore l’isolement social.

À ce titre, toute perturbation des mécanismes de résilience cellulaire par les polluants, directement (par exemple en altérant la réparation de l’ADN, l’autophagie), ou indirectement (par exemple en favorisant des mutations dans l’ADN est un risque de vie en mauvaise santé à plus ou moins brève échéance.

Au vu de l’étendue et de la gravité du problème (comme, par exemple, dans le cas des PFAS en Europe et aux États-Unis), il s’agit aussi d’un risque de « manque à gagner » systémique pour la société.

Dans un tel contexte, éviter que les pratiques industrielles érodent toujours plus nos capacités de résilience cellulaire est une responsabilité qui oblige tous les acteurs concernés, et cette responsabilité est proportionnelle à la puissance des acteurs. Mais comment prendre en compte ce risque majeur ?

Mesurer la résilience

À l’heure actuelle, on estime la résilience individuelle contre la survenue ou la progression d’une maladie à partir du poids, plus ou moins important selon les personnes, des facteurs de susceptibilité. Ceux-ci ne sont pas biologiques stricto sensu, mais souvent comportementaux (tabagisme, alcoolisme), conjoncturels (proximité d’une usine, solitude) ou socioprofessionnels (revenus, mobilité). Cependant, l’absence d’un facteur de susceptibilité ne signifie pas forcément que l’on soit résilient.

Intégrer les facteurs de résilience cellulaire en plus des facteurs de susceptibilité lorsqu’il s’agit d’évaluer le risque de vie en mauvaise santé pourrait fournir des modèles de prédiction plus robustes. Mais il faut pour cela disposer de marqueurs fiables de la résistance cellulaire, ce qui n’est pas chose aisée.

Les marqueurs les plus précis sont souvent des marqueurs biologiques (biomarqueurs). Idéalement, ils sont simples à mesurer (par exemple dans le sang ou les urines). Un biomarqueur de résilience doit rendre compte de l’état d’un mécanisme de compensation ou de l’intégrité d’un élément essentiel des cellules.

Il en existe relativement peu à ce jour, et la mise au point d’un nouveau biomarqueur est coûteuse. Elle repose notamment sur des données collectées sur le temps long, grâce à des cohortes de grande taille, comme par exemple Inchianti, Constances ou le UK Brains Bank Network.

Actuellement, l’oxydation de l’ADN, un marqueur indirect de l’intégrité de cette molécule essentielle,est l’un des biomarqueurs potentiels à l’étude. Dans ce contexte, de nouveaux outils sont explorés, par exemple les horloges épigénétiques, dont un pionnier est le chercheur Steve Horvath aux États-Unis.

Cet outil détecte certaines modifications chimiques de l’ADN (les méthylations, autrement dit l’ajout d’un groupement méthyle sur certaines parties de la molécule d’ADN) pour mesurer un « âge épigénétique ». Celui-ci, qui témoigne du vieillissement des tissus, est en quelque sorte un âge « biologique », et peut différer de l’âge chronologique.

Il est important de souligner que cet outil ne permet pas encore de mesurer l’âge biologique de tout le monde : il n’est pas validé pour cela, étant encore au stade des recherches.

Changer de paradigme

L’enjeu, aujourd’hui, est de réduire les maladies chroniques de façon globale, et de sortir des réponses ponctuelles. Or, le modèle actuel, focalisé sur les « maladies avérées », limite la portée de la prévention et l’anticipation des coûts sociétaux. En effet, les coûts cachés sont sous-évalués, voire ignorés.

Mettre au centre des réflexions sur la prévention la mise en péril d’un mécanisme fondamental de vie en bonne santé (nos capacités cellulaires à nous prémunir des maladies) pourrait constituer un vecteur de transformation des politiques de santé publique.

Les données scientifiques qui justifient cette mutation s’accumulent, y compris des données épidémiologiques à forte granularité géographique (celles-ci ont notamment été mises en lumière ces dernières années par diverses enquêtes menées par certains journalistes d’investigation).

Cette nécessaire transformation est cependant entravée de diverses manières (monopoles, lobbying industriel, accords bilatéraux, désinformation, manipulations des études, relégation au second plan des questions de santé, priorités budgétaires, ou encore sous-dimensionnement des acteurs de la vigilance…). Ces obstacles limitent notre capacité à adopter une politique santé-responsable, alors même que le dépassement des capacités de résilience cellulaire pourrait s’inscrire dans un modèle de risques « en chaîne », les pollutions chimiques s’accompagnant d’une santé figée à un niveau médiocre, résultant en des coûts systémiques accrus.

The Conversation

Christian Neri a reçu des financements de l'ANR, de CNRS Innovation, et de fondations (FRM, Association Huntington France, Hereditary Disease Foundation, Fondation CHDI). Christian Neri est membre du bureau de sociétés savantes en France (Président de la FSEV) et à l'étranger (ISEV).

14.04.2025 à 17:34

Que sont les GPU, cette technologie à laquelle on doit l’essor des jeux vidéo et de l’IA ?

Jonathan Rouzaud-Cornabas, Maître de conférences au Laboratoire d'informatique en image et systèmes d'information, INSA Lyon – Université de Lyon

Les GPU ont permis l’explosion des jeux vidéo dans les années 1990 puis de l’IA depuis vingt ans. Ils permettent de faire certains calculs plus rapidement que les processeurs classiques.
Texte intégral (1939 mots)

Les GPU ont permis l’explosion des jeux vidéos dans les années 1990 puis de l’IA depuis vingt ans. Ils permettent de faire certains calculs plus rapidement que les processeurs classiques.


Les progrès massifs dans le domaine de l’intelligence artificielle doivent beaucoup à un type de composant informatique, les GPU, pour graphical processing unit – à tel point que l’on considère aujourd’hui Nvidia, le plus grand concepteur de GPU au monde, comme un acteur clef du marché de l’IA avec l’une des capitalisation boursière la plus élevée de tous les temps. Revers de la médaille, ses actions en bourse ont dévissé quand une entreprise chinoise, DeepSeek, a annoncé pouvoir faire des calculs avec moins de GPU que ses concurrents.

Les GPU ont émergé dans les années 80, avant d’exploser avec le marché des jeux vidéo. Si on trouve aujourd’hui un GPU dans de nombreux ordinateurs personnels et surtout dans les consoles de jeux, il faut des dizaines de milliers de GPU pour faire tourner les plus gros systèmes d’IA dans des fermes de calculs dédiées.

Le marché des GPU est très concentré, tant au niveau de la conception, de la fabrication et de la fourniture (le nombre de GPU produits étant très largement inférieur à la demande), qu’au niveau de l’hébergement (ces fermes nécessitant une expertise rare). Ils sont donc devenu un enjeu géostratégique – avec des investissements en centaines de milliards aussi bien aux USA qu’en France, mais aussi un conflit commercial majeur entre les États-Unis et la Chine.

Qu’est-ce qu’un GPU ?

Les GPU existent depuis le début des années 80 ; mais leurs principes fondamentaux datent des années 60, quand les « processeurs vectoriels » ont émergé. Ceux-ci ont été conçus pour traiter de grands tableaux de données (un tableau à une dimension s’appelle un vecteur, d’où le nom de « processeurs vectoriels ») et appliquer sur chaque élément du tableau la même opération, par exemple additionner les éléments d’un tableau deux à deux.

La puissance des processeurs vectoriels réside dans le fait qu’ils sont capables d’appliquer en même temps une opération sur plusieurs éléments, alors que les processeurs classiques de votre ordinateur, également appelés « processeurs scalaires », n’appliquent les opérations que sur un seul élément à la fois. Pour additionner deux tableaux de 32 cases, un processeur vectoriel traitera les 32 éléments en une seule fois, alors qu’un processeur scalaire classique un seul élément à la fois. Le nombre d’éléments qu’un processeur vectoriel peut traiter en parallèle est variable d’une génération de processeurs à l’autre.

Ceci étant, les problèmes que doivent résoudre les ordinateurs consistent rarement à effectuer la même opération sur tous les éléments d’un grand tableau, en dehors de cas bien particuliers… dont les jeux vidéos, et une grande partie des systèmes d’IA justement !


Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


GPU et jeux vidéos

Pour faire tourner un jeu vidéo moderne haut de gamme sur un ordinateur ou sur une console, il faut être capable d’afficher 60 images par seconde en haute résolution 4K. Une image 4K est un rectangle (une matrice) de 3840 pixels de haut par 2160 pixels de large. Pour chaque pixel, il faut 3 valeurs (rouge, vert et bleu) pour pouvoir représenter la palette de couleurs. Par conséquent, il faut calculer et mettre à jour 1 492 992 000 pixels par seconde. Pour faire tourner des jeux vidéo, les GPU ont donc repris les principes des processeurs vectoriels.

Dans le courant des années 1980 et 1990, la démocratisation de l’informatique et des jeux vidéos a fait exploser le marché des GPU. Avec leur démocratisation, leur coût a énormément baissé, à une époque où les gros ordinateurs (supercalculateurs) étaient très chers et complexes.

Par conséquent, les chercheurs ont cherché à détourner ces GPU conçu pour le jeu vidéo pour faire d’autres types d’opérations qui leur étaient utiles pour leur recherche. En effet, à performance égale, les GPU avaient (et ont toujours) un coût largement inférieur aux CPU.


À lire aussi : Prix Nobel de chimie 2024 : design des protéines et prédiction de leurs structures, deux facettes d’une même médaille


Un des premiers cas d’utilisation de ces GPU, en 2004, venait de la communauté d’algèbre linéaire, qui utilisait déjà du calcul vectoriel et a pu adapter ses méthodes à ce nouveau matériel. Il faut savoir que l’algèbre linéaire, qui est utilisée pour simplifier la résolution d’équations, est à la base de beaucoup de programmes simulant différents processus réels, depuis le Big Bang jusqu’à la météo ou aux infections de cellules par des virus.

Du jeu vidéo à l’IA

Nvidia a rapidement répondu aux besoins de la communauté académique en 2006. Puis, à partir de 2014, elle a aussi fourni des GPU, pour le développement de systèmes d’IA, notamment par les GAFAM.

Ainsi, après une longue période de réduction de budget pour l’intelligence artificielle, le potentiel de calcul des GPU a permis de rendre exploitables les approches de type apprentissage profond qui étaient bloquées depuis des années, qui se base sur des réseaux de neurones pour répondre à des tâches complexes. Pour implémenter ces approches, il faut pouvoir faire d’énormes quantités de calcul vectoriel sur de grands volumes de données.

Un réseau de neurones tel qu’utilisé par l’IA est une simplification extrême du fonctionnement d’un vrai réseau neuronal, mais il en reprend les grands principes. La représentation mathématique d’un réseau de neurones est faite sous la forme d’opérations sur des matrices et des vecteurs à grandes échelles. Plus le modèle est complexe, plus la taille des données stockées dans de grands tableaux est grande et plus le nombre d’opérations mathématiques est nombreux. C’est grâce à la collaboration entre communautés de l’IA et de l’algèbre linéaire que les capacités de calcul de l’IA ont explosé ces dernières années.

Vers la spécialisation des GPU pour l’IA

Devant l’explosion de l’utilisation dans le domaine de l’intelligence artificielle, les GPU évoluent de plus en plus vers des fonctionnalités spécialisées pour l’IA et moins pour le jeu vidéo. Par exemple, des opérations spéciales ont été introduites pour traiter des matrices et proposer des fonctions de plus haut niveau, comme les « transformers » utilisés dans les grands modèles de langage.

Mais le principal gain de calcul dans l’IA vient de la réduction de la précision des opérations mathématiques. Un ordinateur ne fait jamais un calcul exact sur des nombres à virgule : comme il stocke et calcule sur un nombre de bits prédéfini, avec une précision déterminée, il y a constamment des erreurs d’arrondi plus ou moins visibles et souvent suffisamment faibles pour être négligeables. Devant la quantité de calcul nécessaire au fonctionnement des systèmes d’IA, la précision a été grandement diminuée (par quatre ou plus) pour accélérer les calculs (par quatre ou plus). Les grands réseaux de neurones sont donc peu précis, mais, grâce à leur taille, ils peuvent répondre à des problèmes complexes.

Souveraineté et IA : le prisme des GPU

Derrière l’essor des systèmes d’IA et les GPU, il y a une guerre commerciale entre la Chine et les USA, les USA interdisant l’utilisation de leurs GPU haut de gamme par la Chine. En dehors de Nvidia, seuls AMD et Intel peuvent à la marge concevoir des GPU.

Mais Nvidia ne les produit pas elle-même : une entreprise taïwanaise, TSMC, est la seule à avoir la technologie et les usines pour graver les GPU sur du silicium, au niveau mondial. Pour pouvoir continuer à produire et à vendre des produits venant de sociétés américaines, TSMC s’est engagée à ne pas travailler avec la Chine. Comme Taïwan est par ailleurs menacée d’annexion par la Chine, on peut envisager un risque très important sur l’approvisionnement en GPU dans les années à venir.

Cela met aussi en avant le besoin de développer en Europe une souveraineté sur la conception et la production de processeurs classiques ou de GPU.

L’Union européenne travaille sur cette thématique depuis des années avec un investissement dans le hardware ou matériel ouvert, mais ne peut pas aujourd’hui rivaliser avec les USA ou la Chine. Si des usines de moyenne gamme existent en Allemagne et en France, la présence d’usine de production de processeurs haut de gamme n’est pas prévue.

Au-delà, des problématiques de souveraineté, il est nécessaire de se poser de la question de l’intérêt de consacrer une part de plus en plus importante de la production d’électricité aux technologies numériques. En effet, l’IA consomme énormément d’énergie et son utilisation provoque déjà des problèmes d’approvisionnement en électricité, mais aussi en eau (pour le refroidissement), voire de redémarrage d’usines à charbon, pour répondre aux besoins.

The Conversation

Jonathan Rouzaud-Cornabas a reçu des financements de l'ANR et Inria.

14.04.2025 à 12:27

Parier sur le noir : quelles leçons tirer du succès de la musique black metal norvégienne ?

Stoyan V. Sgourev, Professor of Management, EM Normandie

Condamné et vilipendé dans son pays, le black metal norvégien a connu un grand succès en dehors de ses frontières. Découvrez sa méthode.
Texte intégral (1408 mots)
Le groupe norvégien de black metal Gorgoroth en concert sur la scène du festival Inferno, le 14 avril 2017, à Oslo (Norvège). SpectralDesign/Shutterstock

Condamné et vilipendé dans son pays, le black metal norvégien a connu un grand succès en dehors de ses frontières. À l’origine de cette réussite se trouvent des intermédiaires qui ont transformé la source du problème en raison du succès.


Au milieu des années 1990, la scène musicale norvégienne du black metal a été de plus en plus ostracisée après que des musiciens du genre ont été [associés à des meurtres] et à des incendies d’églises.

La plupart des maisons de disques norvégiennes ont refusé de travailler avec des groupes de black metal, les représentations publiques ont été limitées. Ce genre a même été régulièrement critiqué, voire vilipendé, dans la presse.

Mais, par un remarquable revirement de situation, quelques années plus tard seulement, le black metal norvégien est devenu un phénomène global, avec des millions d’albums vendus dans le monde entier. Ce phénomène culturel a pris une telle ampleur qu’il est aujourd’hui célébré en Norvège et la principale exportation culturelle du pays et au point que l’on s’intéresse à l’image ou aux recettes produites par ce genre.

Réinterprétations

Dans notre article publié dans Academy of Management Discoveries, écrit avec Erik Aadland de la BI Norwegian Business School, nous attribuons, pour une grande part, ce revirement au travail fourni par les maisons de disques et par les entrepreneurs qui ont su capitaliser sur la stigmatisation du genre. Ces professionnels ont trouvé des moyens de réinterpréter et d’exporter ce type de musique en associant les aspects les plus noirs à des concepts moins scandaleux et donc plus attrayants, comme l’authenticité ou l’esprit de rébellion.


À lire aussi : Musique : du streaming à l’Auto-Tune, comment le numérique a tout changé


Nous voulions savoir ce qui pouvait permettre à des produits culturels réputés toxiques ou perçus de manière très négative de devenir culturellement importants. Le mécanisme social que nous appelons « arbitrage de valorisation » est un élément crucial de ce puzzle. Il consiste à exploiter les différences de préférence des publics, en vendant un produit, stigmatisé sur le marché A, sur un marché B, où il le sera moins.

Un « arbitre de valorisation » ne se contente pas d’acheter à bas prix et de vendre à prix plus élevé, en encaissant la différence. Il joue un rôle actif en cherchant à créer ce surplus de valeur sur un autre marché. Son profit est ainsi réalisé après avoir réussi à réinterpréter une caractéristique indésirable devenue attrayante. C’est la condition sine qua non pour pouvoir augmenter le prix de vente.

Authenticité de la musique

Le black metal norvégien comporte souvent des paroles contestataires, antichrétiennes et misanthropes. Pour réussir à les vendre hors de Norvège, les maisons de disques ont capitalisé sur les liens criminels des membres de certains groupes. Ils ont été utilisés pour convaincre les acheteurs que la musique de ces groupes reflétait authentiquement les véritables croyances de ses créateurs et qu’elle n’avait pas été conçue comme un produit commercial, ayant pour seule finalité de faire vendre.

Dans cette perspective, les actes de violence sont considérés comme cohérents avec la brutalité des paroles : la musique est réellement maléfique. L’idée que ceux qui se livrent à des activités criminelles « vivent » authentiquement les sentiments de la musique était cruciale pour convaincre un public international.

Un risque de réputation ?

Nos recherches nous ont permis de constater que, au milieu des années 1990, la grande majorité des maisons de disques ont pris leurs distances avec le black metal norvégien en raison des risques liés à l’investissement dans un produit stigmatisé. Ils craignaient non seulement que ces œuvres ne se vendent pas, mais aussi que le fait de s’associer au genre nuise à leur réputation et, par conséquent, au reste de leurs activités.

Cette situation a ouvert des possibilités pour les entrepreneurs et les propriétaires de petits labels qui avaient moins à perdre. Les « arbitres de valorisation » étaient conscients que s’ils parvenaient à commercialiser les groupes de manière appropriée et à surmonter les obstacles liés à la distribution, les bénéfices pourraient être considérables. L’espoir d’un très important retour sur investissement à haut risque aura été une motivation puissante pour oser afficher sa solidarité avec des artistes stigmatisés et vilipendés.

Motivations financières

La motivation pour soutenir un produit stigmatisé est financière plutôt qu’idéologique. Cela explique pourquoi le processus de stigmatisation, fondé sur des motifs idéologiques, peut commencer à s’atténuer, offrant des possibilités de gagner de l’argent en contournant la stigmatisation.


Abonnez-vous dès aujourd’hui !

Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).


Si un produit est stigmatisé sur un marché, vous pouvez littéralement aller sur un autre marché éloigné du marché central et essayer de développer le produit. On peut trouver des parallèles dans la diffusion d’autres formes d’art un temps stigmatisées, comme, par exemple, l’art impressionniste en France dans les années 1880, les débuts du jazz aux États-Unis, l’art moderne en Europe après la Seconde Guerre mondiale et le hip hop dans les années 1990…

Développements stratégiques

Nous pouvons identifier trois stratégies pour les managers lorsqu’ils envisagent des produits ou des pratiques stigmatisés :

  • La première est la passivité : ne rien faire, attendre que la tempête passe, observer ce que font les autres et agir quand la situation est sûre.

  • Atténuer les contraintes, en conservant une partie de l’originalité du produit, mais en l’enveloppant dans des éléments et des pratiques largement acceptés.

  • S’engager dans un arbitrage de valorisation, en conservant l’audace du produit, mais en lui attribuant une interprétation plus positive et en recherchant des opportunités de distribution sur des marchés ou dans des contextes plus tolérants ou plus éloignés.

La stigmatisation invite à évaluer la valeur dépréciée et à s’efforcer d’en tirer parti. Ceux qui agissent rapidement, qui identifient correctement les produits ayant un potentiel commercial et qui sont ensuite prêts à parier sur ce potentiel peuvent être largement récompensés lorsque les ventes finissent par reprendre.

The Conversation

Stoyan V. Sgourev ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

14.04.2025 à 12:27

La face cachée du vrac

Fanny Reniou, Maître de conférences HDR, Université de Rennes 1 - Université de Rennes

Elisa Robert-Monnot, Maître de conférences HDR, CY Cergy Paris Université

Sarah Lasri, Maître de Conférences, Responsable du Master 2 Distribution et Relation Client, Université Paris Dauphine – PSL

La vente de produits sans emballage peut devenir antiécologique et générer du gaspillage. Sans étiquette, les dates de péremption des produits s’oublient sans compter que jamais autant de contenants n’ont été achetés.
Texte intégral (1987 mots)
Les consommateurs de vrac de plus de 50 ans et CSP+ constituent 70 % de la clientèle de ce mode d’achat. DCStudio/Shutterstock

De façon contre-intuitive, la vente de produits sans emballage peut devenir antiécologique et générer du gaspillage. Sans étiquette, les dates de péremption des produits prennent le risque d’être oubliées. Sans éducation culinaire, les consommateurs sont livrés à eux-mêmes pour cuisiner. Sans compter qu’avec la mode de l’emballage sur mesure, jamais autant de contenants n’ont été achetés. Une priorité : accompagner les consommateurs.


Le modèle de distribution en vrac fait parler de lui ces derniers temps avec l’entrée dans les supermarchés de marques très connues, comme la Vache qui rit. Cet exemple est l’illustration des multiples nouveautés que les acteurs du vrac cherchent à insérer dans cet univers pour lui donner de l’ampleur et le démocratiser. Le modèle du vrac, un moyen simple pour consommer durablement ?

Il est décrit comme une pratique de consommation avec un moindre impact sur l’environnement, car il s’agit d’une vente de produits sans emballage, sans plastique, sans déchets superflus, mais dans des contenants réutilisables. Dans ce mode de distribution, on assiste à la disparition de l’emballage prédéterminé par l’industriel.

Distributeurs et consommateurs doivent donc assumer eux-mêmes la tâche d’emballer le produit et assurer la continuité des multiples fonctions, logistiques et marketing, que l’emballage remplit habituellement. N’étant pas habitués à ce nouveau rôle, les acteurs du vrac peuvent faire des erreurs ou bien agir à l’opposé des bénéfices écologiques a priori attendus pour ce type de pratique.

Contrairement aux discours habituellement plutôt positifs sur le vrac, notre recherche met également en avant les effets pervers et néfastes du vrac. Quand les acteurs du vrac doivent se « débrouiller » pour assurer cette tâche nouvelle de l’emballage des produits, le vrac rime-t-il toujours avec l’écologie ?

Assurer l’emballage autrement

L’emballage joue un rôle clé. Il assure en effet de multiples fonctions, essentielles pour rendre possibles la distribution et la consommation des produits :

  • Des fonctions logistiques de préservation, de protection et de stockage du produit. L’emballage peut permettre de limiter les chocs et les pertes, notamment lors du transport.

  • Des fonctions marketing de reconnaissance de la catégorie de produit ou de la marque. Elles s’illustrent par un choix de couleur spécifique ou une forme particulière, pour créer de l’attractivité en rayon. L’emballage assure également, du point de vue marketing, une fonction de positionnement en véhiculant visuellement un niveau de gamme particulier, mais aussi d’information, l’emballage servant de support pour communiquer un certain nombre d’éléments : composition, date limite de consommation, etc.

  • Des fonctions environnementales, liées au fait de limiter la taille de l’emballage et privilégiant certains types de matériaux, en particulier, recyclés et recyclables.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Dans la vente en vrac, ce sont les consommateurs et les distributeurs qui doivent remplir, à leur manière, ces différentes fonctions. Ils peuvent donc y accorder plus ou moins d’importance, en en privilégiant certaines par rapport à d’autres. Dans la mesure où l’industriel ne propose plus d’emballage prédéterminé pour ses produits, consommateurs et distributeurs doivent s’approprier cette tâche de manière conjointe.

Assimilation ou accommodation

Pour étudier la manière dont les consommateurs et les distributeurs s’approprient les fonctions de l’emballage, alors même que celui-ci n’est plus fourni par les industriels, nous avons utilisé une diversité de données : 54 entretiens avec des responsables de magasin et de rayon vrac, et des consommateurs, 190 posts sur le réseau social Instagram et 428 photos prises au domicile des individus et en magasin.

Notre étude montre qu’il existe deux modes d’appropriation des fonctions de l’emballage :

  • par assimilation : quand les individus trouvent des moyens pour imiter les emballages typiques et leurs attributs ;

  • ou par accommodation : quand ils imaginent de nouveaux emballages et nouvelles manières de faire.

Femme remplissant son contenant de lessive
Le vrac peut conduire à des problèmes d’hygiène si les consommateurs réutilisent un emballage en en changeant l’usage. GaldricPS/Shutterstock

Certains consommateurs réutilisent les emballages industriels, tels que les boîtes d’œufs et les bidons de lessive, car ils ont fait leurs preuves en matière de praticité. D’un autre côté, les emballages deviennent le reflet de l’identité de leurs propriétaires. Certains sont bricolés, d’autres sont choisis avec soin, en privilégiant certains matériaux, comme le wax, par exemple, un tissu populaire en Afrique de l’Ouest, utilisé pour les sachets réutilisables.

Quand l’emballage disparaît, les informations utiles disparaissent

L’appropriation des fonctions de l’emballage n’est pas toujours chose facile. Il existe une « face cachée » du vrac, avec des effets néfastes sur la santé, l’environnement ou l’exclusion sociale. Le vrac peut conduire par exemple à des problèmes d’hygiène ou de mésinformation, si les consommateurs n’étiquettent pas correctement leurs bocaux ou réutilisent un emballage pour un autre usage. Par exemple, utiliser une bouteille de jus de fruits en verre pour stocker de la lessive liquide peut être dangereux si tous les membres du foyer ne sont pas au courant de ce qu’elle contient.

Le vrac peut également être excluant pour des personnes moins éduquées sur le plan culinaire (les consommateurs de vrac de plus de 50 ans et CSP + constituent 70 % de la clientèle de ce mode d’achat). Quand l’emballage disparaît, les informations utiles disparaissent. Certains consommateurs en ont réellement besoin pour reconnaître, stocker et savoir comment cuisiner le produit. Dans ce cas le produit peut finalement finir à la poubelle !

Nous montrons également toute l’ambivalence de la fonction environnementale du vrac – l’idée initiale de cette pratique étant de réduire la quantité de déchets d’emballage – puisqu’elle n’est pas toujours satisfaite. Les consommateurs sont nombreux à acheter beaucoup de contenants et tout ce qui va avec pour les customiser – étiquettes et stylos pour faire du lettering, etc.

La priorité de certains consommateurs n’est pas tant de réutiliser d’anciens emballages, mais plutôt d’en acheter de nouveaux… fabriqués à l’autre bout du monde ! Il en résulte donc un gaspillage massif, au total opposé des finalités initiales du vrac.

Des consommateurs pas suffisamment accompagnés

Après une période de forte croissance, le vrac a connu une période difficile lors de la pandémie de Covid-19, conduisant à la fermeture de nombreux magasins spécialisés, selon le premier baromètre du vrac et du réemploi. En grande distribution, certaines enseignes ont investi pour rendre le rayon vrac attractif. Mais faute d’accompagnement, les consommateurs ne sont pas parvenus à se l’approprier. Le rayon du vrac est devenu un rayon parmi d’autres.

Il semble que les choses s’améliorent et les innovations se multiplient. 58 % des adhérents du réseau Vrac et réemploi notent une hausse de la fréquentation journalière sur janvier-mai 2023 par rapport à 2022. Les distributeurs doivent s’adapter à l’évolution de la réglementation.

Cette dernière stipule qu’à l’horizon 2030, les magasins de plus de 400 m2 devront consacrer 20 % de leur surface de vente de produits de grande consommation à la vente en vrac. La vente en vrac a d’ailleurs fait son entrée officielle dans la réglementation française avec la Loi relative à la lutte contre le gaspillage et à l’économie circulaire, parue au JORF no 0035, le 11 février 2020.

Dans ce contexte, il est plus que nécessaire et urgent d’accompagner les acteurs du vrac pour qu’ils s’approprient correctement la pratique.

The Conversation

Fanny Reniou et Elisa Robert-Monnot ont reçu des financements de Biocoop, dans le cadre d'un partenariat recherche.

Elisa Robert-Monnot a reçu des financements de Biocoop dans le cadre d'une collaboration de recherche

Sarah Lasri ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

14.04.2025 à 12:27

Discrimination en raison de l’origine sociale : quand la France respectera-t-elle les textes internationaux ?

Jean-François Amadieu, Professeur d'université, Université Paris 1 Panthéon-Sorbonne

L’origine sociale est considérée comme une source de discrimination. Pourtant, la France tarde à le reconnaître en dépit de preuves patentes. Jusqu’à quand ?
Texte intégral (1826 mots)

L’origine sociale est considérée comme une source de discrimination. Pourtant, la France tarde à le reconnaître en dépit de preuves patentes. Jusqu’à quand ?


L’origine sociale figure dans la liste des critères de discrimination dans plusieurs textes internationaux qui s’imposent à la France, notamment la Déclaration universelle des droits de l’homme du 10 décembre 1948, la Convention européenne de sauvegarde des droits de l’homme et des libertés fondamentales du 4 novembre 1950 et la Convention C111 de l’Organisation internationale du travail (OIT) de 1958. Ces textes prennent soin de mentionner l’origine nationale ou sociale.

Mais, dans la liste des critères de discrimination du Code du travail, du Code pénal et dans le statut de la fonction publique, on ne trouve que le terme « origine » sans plus de précision. Cet oubli rend invisibles les discriminations en raison de l’origine sociale et empêche les individus de faire valoir leurs droits.

Derrière ce qui peut sembler une simple imprécision dans la rédaction de nos lois se cache, en réalité, une volonté d’ignorer la dimension sociale des phénomènes de discrimination.

Des demandes sans réponses

L’OIT demande régulièrement à la France de respecter la convention C111 en incluant le terme « origine sociale » dans le Code du travail, sans succès à ce jour.

L’Assemblée parlementaire du Conseil de l’Europe a voté à l’unanimité en 2022 une résolution qui appelle les États membres « à clairement interdire cette forme de discrimination dans la législation ». Elle souligne que,

« dans toute l’Europe, l’origine sociale des personnes, les conditions de leur naissance ont une forte influence sur leur avenir, leur accès à l’éducation et à l’apprentissage tout au long de la vie, leurs perspectives d’emploi et leurs possibilités de mobilité sociale ».

Elle invite aussi à « recueillir des données relatives à l’origine sociale ».


À lire aussi : Devenir manager ne fait plus rêver… sauf les enfants issus d’un milieu populaire


Or, en France, l’Insee vient d’introduire une question dans le recensement concernant les origines « nationales » des parents, mais a refusé de le faire s’agissant de l’origine sociale (« la profession des parents ») en dépit des protestations. Le Conseil de l’Europe invite aussi à « obliger les entreprises publiques et privées à publier des données relatives à l’écart salarial entre les classes ».

Rien de tel n’existe en France en dehors d’expérimentations isolées. En Grande-Bretagne des dizaines de grandes entreprises y procèdent depuis plusieurs années grâce à un index de la mobilité sociale.

La position du défenseur des droits

L’origine sociale n’a jamais été mentionnée dans les présentations que le défenseur des droits donne des différentes discriminations pour informer les victimes sur leurs droits. En 2025, le mot « origine » est illustré par cet exemple : « Je n’ai pas été embauché à cause de mes origines maghrébines ». Il suffit de saisir l’expression « origine sociale » dans le moteur de recherche du défenseur des droits pour ne rien trouver en dehors de documents qui concernent les origines nationales.


Abonnez-vous dès aujourd’hui !

Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).


Pour savoir si les délégués du défenseur des droits dans les départements savent que l’origine peut aussi être « sociale », je leur ai envoyé en 2024 des courriers sous le nom de Kevin Marchand en posant par exemple cette question :

« En regardant le site du défenseur des droits, j’ai vu que l’origine est un critère de discrimination. Vous donnez l’exemple d’une personne qui serait d’origine maghrébine. Ce n’est pas mon cas, mais je suis mis de côté dans mon entreprise pour les promotions et suis souvent moqué en raison de mon origine sociale très modeste ou de mon prénom populaire. Sur votre site, vous dites que le nom est un critère de discrimination, mais qu’en est-il du prénom ? Est-ce que “l’origine sociale” ou bien le prénom sont des critères de discrimination ? »

La réponse explicite la plus fréquente est que ni le prénom en lui-même ni l’origine sociale en elle-même ne sont dans la liste des critères de discrimination. L’idée que les Kevin puissent être harcelés et discriminés au motif que leur prénom est un marqueur social ne saute pas aux yeux de délégués qui suivent ce qui est écrit dans notre droit et la doctrine du défenseur des droits.

Pas de problème d’origine sociale

Chaque année, un baromètre des discriminations est publié par le défenseur des droits dans lequel on propose aux interviewés une liste de critères de discrimination pour savoir s’ils sont témoins ou victimes de discriminations et sur quels critères. Or, dans cette liste, ne figure jamais l’origine sociale. De plus, chaque année, un focus spécifique est choisi et bien entendu l’origine sociale a été oubliée (nous en sommes au 17e baromètre).

L’Ined et l’Insee dans l’enquête « Trajectoire et origines » ne proposent pas non plus aux répondants l’origine sociale parmi les 12 motifs de traitement inégalitaire et de discrimination (genre, âge, orientation sexuelle…) et un des items regroupe « origine ou nationalité ». Il en résulte une vision réductrice des réalités vécues par les répondants.

La réalité des discriminations

Proposer ou ne pas proposer un critère de discrimination aux salariés change beaucoup la vision des discriminations réellement vécues. Dans le baromètre égalité du Medef, quand on demande aux salariés s’ils craignent d’être discriminés et pour quel motif, « l’origine sociale modeste » est le quatrième critère de discrimination le plus cité derrière l’âge, l’apparence physique et le genre. Et, chez les hommes, c’est même la troisième crainte de discrimination au travail. On apprend que 80 % des salariés estiment avoir une caractéristique potentiellement stigmatisante. La séniorité arrive en tête (19 %), suivie de l’origine sociale modeste (17 %).

En 2020, dans ce même baromètre, la question suivante était posée : « Parmi les caractéristiques suivantes, lesquelles vous qualifient le mieux ? », et l’origine sociale modeste était citée en premier.

Le Huff Post, 2023.

Et il ne s’agit pas seulement d’un ressenti. L’origine sociale pèse sur les chances d’obtenir des diplômes, mais aussi sur celles d’être recruté et de faire carrière par l’effet notamment du réseau familial.

France Stratégie a analysé précisément l’effet du milieu social sur les salaires :

« L’écart de salaire moyen entre deux personnes, dont la seule différence est l’origine migratoire, est de 150 euros. Somme qui est multipliée par dix entre un enfant de cadre et un enfant d’ouvrier non qualifié. Des caractéristiques étudiées, l’origine sociale s’avère la plus déterminante en termes de revenu d’activité. En moyenne, 1 100 euros nets par mois séparent le quart des personnes d’origine favorisée du quart des personnes d’origine modeste, à origines migratoire et territoriale comparables. C’est presque deux fois plus que l’écart entre hommes et femmes (600 euros). Si on tient compte du diplôme de l’individu et de son conjoint, un écart demeure entre les classes. »

Combien de temps faudra-t-il pour que le classisme soit reconnu au même titre que le racisme dans le droit de la discrimination ? La France a simplement intégré ce que l’on nomme le « racisme anti-pauvre » avec la « particulière vulnérabilité résultant de la situation économique », mais ce critère traite de la situation actuelle, pas du milieu social d’origine.

La France bat de loin le record mondial du nombre de critères de discrimination figurant dans notre droit (plusieurs dizaines dans le Code du travail), parfois sans que le défenseur du droit puisse même expliquer en quoi consiste un critère (« Capacité à s’exprimer dans une langue autre que le français »). Dans ces conditions, il est frappant que la situation socioéconomique des parents reste ignorée dans l’indifférence générale.

The Conversation

Jean-François Amadieu ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

14.04.2025 à 12:27

Cinq ans après la pandémie, le travail fait-il encore sens ?

Elodie Chevallier, Chercheuse sur le sens au travail, Université catholique de l’Ouest

Selon une étude, la pandémie de Covid-19 a eu un effet immédiat sur le sens au travail en France et au Canada. Cinq ans après, faute de changements durables, ce bouleversement perdure.
Texte intégral (2050 mots)
La France a fait état d’une hausse des démissions de 19,4 % en 2021. Opolja/Shutterstock

La pandémie de Covid-19 a agi comme un révélateur du sens accordé au travail. En France et au Canada, elle a provoqué une prise de conscience immédiate. Ses effets se prolongent aujourd’hui : « grande démission », stratégie d’autopréservation face à l’épuisement professionnel, baisse du sentiment d’utilité, aspiration à la reconnaissance des efforts et transitions professionnelles vers des métiers avec plus de sens. Cinq ans après, quelles leçons en avons-nous vraiment tirées ?


Nous nous souvenons tous et toutes de ce que nous faisions le jour où nous avons appris que nous allions être confinés pour quelques semaines… qui se sont transformées en quelques mois. Face à ce virus encore inconnu, nous étions décidés à nous mobiliser, à nous battre, à encourager les travailleuses et les travailleurs essentiels. Nous rêvions du monde d’après, celui où l’on retrouverait nos libertés, celui où l’on mettrait fin aux pratiques qui n’ont plus de sens. Cinq ans après, qu’en est-il de ce « monde d’après » ?

Nous avons mené une recherche pour mieux cerner les effets de la pandémie de Covid-19 sur le sens accordé au travail en France et au Canada. Une première étude qualitative par groupe de discussion s’est déroulée en plein cœur de la pandémie (janvier 2022) auprès de professionnels du conseil en orientation. Une seconde étude quantitative, réalisée à l’issue de la pandémie (janvier 2023), par questionnaire auprès de 166 travailleurs et travailleuses avec au moins cinq ans d’expérience, nous a permis de comprendre l’impact des modalités de travail imposées par la pandémie sur le sens au travail.

La pandémie a clairement eu un effet sur le sens accordé au travail, que ce soit en France ou au Canada, de manière positive ou négative, notamment en fonction des conditions de travail vécues.

La « Grande Démission »

Depuis 2020, plusieurs phénomènes témoignent d’un désengagement croissant ou d’une remise à distance du travail de la part des salariés, révélant un rapport à l’emploi en pleine évolution. Avant la pandémie, la notion de bullshit jobs faisait déjà débat. Depuis, de nouveaux concepts comme le quiet quitting, le « brown-out » ou encore le task masking ont émergé, illustrant une remise en question de l’engagement au travail.


Abonnez-vous dès aujourd’hui !

Chaque lundi, des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).


Parmi ces dynamiques, la « Grande Démission » (Great Resignation) a marqué les esprits. Aux États-Unis, de nombreux salariés ont changé d’emploi pour améliorer leurs conditions de travail. Dans d’autres pays, avec davantage d’encadrement social du travail, le phénomène a été plus mesuré.

Le Canada a connu une hausse des démissions de 14,6 % en 2021 tout en gardant un taux d’emploi plus élevé qu’en 2020.

La France a fait état d’une hausse des démissions de 19,4 % en 2021. Contrairement aux idées reçues, il ne s’agissait pas d’un rejet du travail. Après avoir démissionné, les actifs reprenaient rapidement un emploi. Leur volonté était d’accéder à de meilleures conditions d’emploi dans un marché favorable. Ce phénomène a déjà été observé lors de précédentes reprises économiques, notamment dans les années 2000 avec la bulle Internet, comme en a fait état La Dares.

« Quiet quitting » et autopréservation

Le « quiet quitting », autre buzz word entendu à la sortie de la pandémie, témoigne d’une désillusion croissante vis-à-vis de l’investissement professionnel. Il s’agit moins d’une démission silencieuse que d’une stratégie d’autopréservation face à un travail perçu comme épuisant et dénué de sens. On pourrait le rapprocher de la notion de freinage observée dans les organisations scientifiques du travail, où chaque acte était chronométré.


À lire aussi : « Quiet quitting » : au-delà du buzz, ce que révèlent les « démissions silencieuses »


Pourquoi ces tendances refont-elles surface ?

Si les mesures pour faire face à la pandémie ont permis d’apporter plus de flexibilité et d’autonomie dans le travail, force est de constater que le retour à la normale s’est accompagné de peu de changements structurels. Au contraire, les tendances préexistantes ont été exacerbées : fin du télétravail dans certaines entreprises, conditions de travail rendues encore plus difficiles dans certains métiers, retour dans l’ombre de populations de travailleurs applaudi et considéré comme essentiels lors des temps les plus difficiles de la pandémie de Covid-19.

Deux actifs sur dix s’interrogent davantage sur le sens de leur travail

Dans ces conditions, l’après-pandémie a fait l’effet d’une douche froide laissant un goût amer à de nombreux salariés. Cela s’est traduit par une attention beaucoup plus forte au fait d’occuper un travail qui a du sens. En 2022, deux actifs sur dix s’interrogent davantage sur le sens de leur travail depuis la crise, un phénomène particulièrement marqué chez les jeunes, les cadres et les employés du secteur public.

S’agit-il d’un phénomène purement français ? Pas forcément si l’on regarde de l’autre côté de l’atlantique. Au Canada on note également une quête de sens accrue depuis la pandémie. Il semblerait donc que l’on ait affaire à un phénomène global. Alors, cinq années après le début de la pandémie de Covid-19, il est intéressant de se demander quel a été l’effet de la pandémie sur ce phénomène.

Transition professionnelle

Les évènements, qu’ils soient prévus ou non, influencent notre rapport au travail et nos choix de carrière. La pandémie de Covid-19, en particulier, a été un bouleversement majeur, parfois qualifié de choc de carrière en raison de ses effets sur les trajectoires professionnelles. Chez certaines personnes, cela peut influencer le sens qui est accordé au travail, car l’évènement vient changer l’ordre des valeurs et des priorités.

Cet évènement s’est accompagné de mesures de confinement qui nous ont poussés à changer nos habitudes de vie et de travail. Moins de temps dans les transports, plus de temps en famille, chez certaines personnes cela a créé les conditions pour revoir leurs priorités de vie. La conciliation travail-famille et la recherche d’un équilibre de vie ont été parmi les arguments les plus entendus par les professionnels de l’orientation qui recevaient des personnes amorçant une transition professionnelle. Certaines personnes ont saisi cette occasion pour aller vers un travail davantage porteur de sens à leurs yeux. D’autres personnes ont plutôt vécu cette période comme un évènement qui a participé à dégrader un sens qui n’était pas toujours très fort.

Baisse du sentiment d’utilité

Le travail à distance qui s’est imposé de manière spontanée, ainsi que l’arrêt de certaines activités, a créé un sentiment de perte de sens. Nos résultats montrent que les télétravailleurs à temps plein ont plus souvent connu une baisse de leur sentiment d’utilité et d’autonomie, en particulier dans les métiers considérés comme « non essentiels ».

De même, les personnes qui ont connu une période prolongée d’inactivité – plus de six mois – ont plus souvent exprimé une perte de sens, due notamment à l’absence des relations professionnelles et à la diminution de leurs responsabilités.

Aussi, l’étiquetage de certains métiers comme « non essentiels » a conduit les travailleurs concernés à remettre en question leur utilité sociétale et donc leur engagement professionnel. À l’inverse, ceux occupant des emplois essentiels ont souvent ressenti une plus grande fierté, mais aussi une surcharge et un manque de reconnaissance qui se sont fait sentir un peu plus tard.

Efforts non reconnus

La pandémie a montré qu’une nouvelle manière de considérer le travail était possible, en laissant plus d’autonomie aux salariés, en valorisant certaines professions dénigrées et pourtant essentielles. Mais ces avancées ont été temporaires. Les travailleurs ont fait un énorme effort d’adaptation pour faire face à la pandémie, et ils constatent aujourd’hui que cet effort n’a pas été reconnu. La revalorisation des métiers essentiels s’est souvent limitée à des primes ponctuelles, sans réelle refonte des conditions de travail. La flexibilité et l’autonomie, expérimentées à grande échelle avec le télétravail, ont été freinées par le retour forcé au bureau dans certaines organisations.

Beaucoup de travailleurs ont eu le sentiment d’avoir été floués. Et c’est cela qui a eu l’effet le plus néfaste sur le sens accordé au travail, lorsque les actes ne suivent pas les paroles.

La revalorisation du travail doit dépasser les simples déclarations pour se traduire par des actions concrètes. Il est nécessaire de repenser l’équilibre entre la contribution des salariés et la rétribution qu’ils reçoivent, d’offrir plus d’autonomie à ces derniers et de rapprocher les décisions du terrain. Le sens du travail ne peut être imposé de manière abstraite. Il repose sur la reconnaissance authentique et tangible de l’apport de chaque individu au bon fonctionnement de l’organisation, et cette reconnaissance doit aller au-delà des mots pour être réellement vécue au quotidien.

The Conversation

Elodie Chevallier est chercheuse associée au Centre de recherche sur le travail et le développement et membre du comité scientifique du CERIC.

14.04.2025 à 12:27

Pour sortir de la kakistocratie -le management par les nuls- il suffit d’affronter l’incompétence !

Isabelle Barth, Secrétaire général, The Conversation France, Université de Strasbourg

Être dirigé par des incompétents, ça n’arrive pas qu’aux autres. Et quand cette incompétence se propage, on est en kakistocratie. Pour en sortir, des actions concrètes sont possibles.
Texte intégral (1930 mots)

Devoir travailler pour (ou être dirigé par) des incompétents, c’est le cauchemar de nombreux salariés ! Ça n’arrive pas qu’aux autres. Et quand cette incompétence se propage dans toute l’organisation, on bascule dans la kakistocratie. S’il n’existe pas de solution magique pour en sortir, des actions concrètes sont possibles pour la prévenir ou en limiter les effets.


La kakistocratie au travail ? C’est la direction par des incompétents ! Et si toutes les organisations ne sont pas des kakistocraties (heureusement !), la kakistocratie se retrouve dans tous les secteurs d’activités.

Spontanément, elle est souvent associée aux grosses structures, à l’administration, au secteur public. En réalité, la taille ne joue aucun rôle et on retrouve aussi des personnes incompétentes à la tête de PME, d’ETI et même de start-up. C’est dire que tout le monde peut être, un jour ou l’autre, concerné. Or la kakistocratie nous interpelle vivement, car elle constitue l’inverse exact de ce qui nous est enseigné dès le plus jeune âge, cette idée selon laquelle « il faut être compétent pour réussir » !

Des conséquences négatives

Mon enquête sur le sujet montre que cette situation produit de nombreux effets, tous négatifs. Parmi ceux cités, citons la perte de performance, la dégradation de l’image de l’entreprise, l’absentéisme, un climat délétère, voire de la souffrance au travail…

Or, voir des incompétents recrutés, puis obtenir des promotions, pallier l’incompétence de son manager au prix de son temps et de son énergie, comprendre qu’un dirigeant notoirement incompétent restera en poste pour de nombreuses années, constituent des pertes de repères et produisent de la souffrance. Comment sortir de cette situation ?

Différentes formes d’incompétence

Face à une kakistocratie, de nombreuses personnes adoptent le comportement qui leur semble le plus adapté de leur point de vue : le désengagement. Cela peut prendre différentes formes, allant de la démission à l’absence. Sans oublier le « quiet quitting » qui consiste à faire le minimum demandé. Certains individus vont plus loin, jusqu’à dénoncer la situation, mais être un lanceur d’alerte est loin d’être simple ! D’autres encore adoptent la posture consistant à affronter la question de l’incompétence. Comment ?


À lire aussi : Victime d’un manager incompétent ? Bienvenue en « kakistocratie » !


Il faut tout d’abord distinguer l’incompétence métier de l’incompétence managériale. La première concerne les hard skills. Si elle est bien repérée, une formation ad hoc permet d’y remédier assez rapidement en général. L’incompétence managériale est plus complexe à gérer. D’abord, parce qu’elle est moins facile à objectiver et souvent diffuse dans l’organisation. En outre, ce type d’incompétence concerne… les dirigeants, ce qui rend plus difficile sa remise en cause. Pourtant, des actions concrètes et mobilisables pour éviter la propagation de ces insuffisances professionnelles sont possibles.

Tout commence dès le recrutement

Commençons par les méthodes les plus évidentes pour éviter que l’incompétence prenne sa place dans l’organisation et se développe au point de devenir une kakistocratie, et ce, dès le recrutement. Les concours qui confondent bagage de connaissances et passeport de compétences doivent être proscrits à tout prix. On le sait, une tête peut être bien remplie et bien faite, mais complètement à côté des attentes inhérentes au poste.

De même, il ne faut pas confondre les compétences d’expertise et de management. Pas plus que le meilleur joueur de football ne fait, le plus souvent, un bon entraîneur, le meilleur vendeur ne sera pas mécaniquement un bon chef des ventes. Ni le meilleur ouvrier un bon chef d’atelier… Éviter ce biais assez courant suppose de ne pas faire du management la seule voie de promotion. Car cette attitude amène des personnes à accepter un poste de manager pour des raisons aussi mauvaises que compréhensibles (l’augmentation de salaire, les avantages, la capacité à prendre des décisions, le pouvoir de faire…).

Le syndrome du fils du patron

La lutte contre toutes les formes de clanisme a aussi un rôle central à jouer, au moment du recrutement ou d’une promotion. Le critère pour l’un ou l’autre doit être les compétences du candidat, et non un lien familial, ou une proximité de formation – un candidat n’est pas bon parce qu’il a fait les mêmes études. Le fameux syndrome du « fils du patron » et toutes les formes de corporatisme doivent être combattus avec une volonté affirmée.

La lutte contre l’incompétence passe aussi par des actions de formation, à commencer par l’évaluation de la vraie compétence. Trop souvent apparences et compétences sont confondues, attribuant des qualités et un potentiel à des personnes sûres d’elles et sachant se mettre en avant. Prendre conscience de ces biais cognitifs pour mieux les combattre est une nécessité.

De même, une formation au management responsable a un rôle majeur. Dans cette optique, un salarié compétent apte à progresser dans l’entreprise ne doit pas être appréhendé comme un futur concurrent, auquel il convient de barrer la route. Au contraire, un bon manager sait faire grandir ses équipes et accepter que certains deviennent meilleurs que lui !


Abonnez-vous dès aujourd’hui !

Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).


Une question d’organisation

Par ailleurs, l’action contre la kakistocratie ne peut pas faire l’économie d’une réflexion sur l’organisation et sur les usages. Quatre voies principales sont à privilégier.

  • Mieux vaut privilégier les compétences internes que de recourir à des consultants externes. Chaque fois qu’une entreprise fait appel à des expertises extérieures (qui peuvent avoir leur utilité), elle envoie aussi un signal négatif à ses équipes qui ne chercheront plus à monter en compétences.

  • Une seconde voie à privilégier consiste à ralentir sur les changements d’organisation, la mobilité des personnes. Trop fréquentes, ces réorganisations permanentes ou presque font perdre toute possibilité de capitaliser sur ses compétences. La compétence a toujours un « coût d’entrée » et le retour sur investissement de cette acquisition n’est jamais instantané.

  • Il importe aussi de donner des marges de manœuvre aux personnes, sans les contraindre à suivre des scripts et des procédures rigides. Les premiers et les seconds ont pour effet de faire perdre toute initiative.

  • Enfin, être vigilant sur les routines qui s’installent et qui sont le nid des « compétences spécialisées » est essentiel. Il faut avoir en tête qu’il existe un moment critique dans le parcours des individus. Le moment où la remise en cause d’un diagnostic ou d’une marche à suivre n’est plus possible, car le salarié est persuadé de son hypercompétence, est critique.

L’incompétence, ça se pense aussi

Faire de l’incompétence un atout ! Un oxymore ? Non, mais il faut accepter de passer par plusieurs étapes. Ainsi, l’incompétence est à la fois une obsession managériale et un impensé. L’incompétence n’est vue que comme le contraire de la compétence. Dans la réalité, les choses sont plus complexes : la compétence et l’incompétence sont indéniablement liées.

Il faut rappeler quelques définitions. L’incompétence (comme la compétence) n’existe qu’en « action » et elle se définit par l’adéquation avec un poste, une fonction, une mission à un moment donné dans un contexte donné. On peut être un manager évalué très compétent dans une entreprise et ne plus l’être dans une autre.

On n’est jamais compétent ou incompétent « en soi ». Ce point est très important : trop souvent, l’incompétence dans un poste débouche sur un diagnostic d’incompétence d’une personne en général.

TED X Clermont-Ferrand 2023.

Nous sommes tous des incompétents

Accepter (en commençant par soi) qu’on soit tous incompétents en quelque chose ou pour quelqu’un. Ce qui amène à :

  • avoir une posture d’apprentissage permanent, aussi bien pour les hard skills que pour les soft skills ;

  • accepter de se faire aider, aller vers les autres (et pas seulement les sachants) et sortir de son silo professionnel pour apprendre ;

  • voir dans ses collaborateurs (et éventuellement son manager) un potentiel qui peut évoluer ;

  • accepter les erreurs et les voir comme des occasions d’apprendre (à condition qu’elles ne se répètent pas à l’identique), de façon à permettre des initiatives qui ne voient le jour qu’avec la confiance en soi. C’est d’ailleurs une des compétences managériales les plus importantes : savoir instaurer la « sécurité psychologique ». Il s’agit de remettre les personnes dans leur zone de compétences et de leur faire confiance.

Faire de l’incompétence une source d’inspiration

Une ouverture plus disruptive est de regarder faire ceux et celles qu’on a enfermés dans leur statut d’incompétents, car leurs « bricolages » (au sens de Lévi-Strauss) peuvent être des sources d’inspiration. Ils proposent d’autres chemins, d’autres façons de faire qui peuvent être inspirantes, et performantes !

L’incompétence, pensée, acceptée, peut alors devenir une source d’innovation et de créativité. Sortir de la kakistocratie passe donc par le management de l’incompétence. Pour cela, il faut l’apprivoiser afin qu’elle ne reste pas une obsession ni, encore moins, une condamnation.

The Conversation

Isabelle Barth ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

14.04.2025 à 12:27

Transformer le management : la démarche Grand 8

Thierry Nadisic, Professeur en Comportement Organisationnel, EM Lyon Business School

Thomas Misslin, Doctorant, Sciences de Gestion, Dauphine-PSL - Chef de projet, Executive Education, EM Lyon Business School

Voici les extraits de « Transformer le management : la démarche Grand 8 », un livre qui présente une démarche de transformation managériale à la fois fondée sur les recherches et validée par la pratique.
Texte intégral (1920 mots)
Nous avons nommé la démarche que nous vous présentons dans ce livre, « le Grand 8 ». De même que l’attraction foraine du même nom, elle vise à faire vivre aux managers d’une entreprise une expérience immersive et mémorable. Metamorworks/Shutterstock
Fourni par l'auteur

Dans des environnements chahutés, les entreprises cherchent à évoluer afin de répondre aux besoins économiques, sociétaux et environnementaux de l’ensemble de leurs parties prenantes. L’un de leurs leviers clés est leur transformation managériale. Celle-ci prépare l’encadrement à aider les collaborateurs à trouver plus de sens, de lien social, de compétence, d’autonomie et d’engagement dans leur travail. Voici les extraits de « Transformer le management : la démarche Grand 8 ». Ce livre présente une démarche d’accompagnement à ce type de transformation à la fois fondée sur les recherches et validée par la pratique.*


Nous consacrons une grande partie du temps et de l’énergie de nos vies à travailler dans des organisations, en particulier les entreprises. Nous le faisons car nous pensons que cela en vaut la peine : nous participons ainsi à mettre à la disposition de toute la société des biens et des services qui répondent à ses besoins, qu’il s’agisse de biens comme des plantes pour son jardin ou de services comme l’emprunt qui financera l’achat d’un nouveau chez soi. Ce sens collectif de notre action est l’un des avantages que nous retirons de notre collaboration, en plus du revenu de notre travail et du plaisir que nous ressentons dans la relation aux autres, nos collègues en particulier.

Depuis l’avènement de la nouvelle révolution industrielle fondée sur les technologies de l’information, le contexte stratégique est devenu plus incertain pour les organisations. Il faut s’adapter aux réseaux sociaux, à la digitalisation, à l’intelligence artificielle. Les entreprises doivent aussi se positionner de façon innovante pour continuer à répondre aux demandes changeantes de leurs clients. Plus largement faire face aux bouleversements des sociétés et des économies dus à la mondialisation, à l’arrivée de nouvelles générations sur le marché du travail, aux menaces sur notre environnement naturel. À ces bouleversements systémiques viennent s’ajouter des crises, qu’elles soient sanitaires ou liées à un sentiment d’insécurité géopolitique. Ces changements entraînent des transformations pour ce qui est de la manière de manager dans les organisations. Celles-ci réagiront en effet mieux face à un environnement incertain si elles aident leurs membres à développer une capacité de prise de décision plus autonome et une coopération plus fluide.


Abonnez-vous dès aujourd’hui ! Chaque lundi, des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).


C’est aux managers d’organiser ces nouvelles formes de prise de décision et de coopération en trouvant d’autres façons de faire que le traditionnel style directif. Cela implique de leur part une transformation comportementale afin de maîtriser de nouvelles compétences de management. Celles-ci peuvent consister à organiser le travail de façon plus transversale, à déléguer le pouvoir de décider et d’agir aux collaborateurs (approche souvent appelée empowerment) ou à mieux partager la vision de l’organisation avec leurs équipes. Ces compétences sont traditionnellement acquises par des formations. Ce que nous vous proposons avec ce livre, c’est la présentation d’une approche plus profonde qui vise à accompagner une véritable transformation des comportements managériaux, au service à la fois du projet de l’entreprise et des buts de chaque personne concernée.

Les comportements managériaux cibles peuvent être regroupés dans ce que l’on appelle « le modèle managérial cible de l’entreprise ». Ils impliquent en parallèle une transformation de son organisation et de ses processus de gestion. Par exemple des procédures fondées sur un contrôle hiérarchique étroit a priori de toute action seraient rapidement contradictoires avec le développement de l’empowerment des collaborateurs. Les changements comportementaux réalisés ne pourront être inscrits dans la durée que s’ils trouvent une organisation, une structure et des processus qui les soutiennent.

Dans ce livre, nous définissons le management comme l’activité consistant à coordonner l’action de plusieurs personnes au service d’un but commun. Quant au leadership, il désigne le processus d’influence entre le responsable d’un collectif et les membres de celui-ci […] Nous avons nommé la démarche que nous vous présentons dans ce livre « le Grand 8 ». De même que l’attraction foraine du même nom, elle vise à faire vivre aux managers d’une entreprise une expérience immersive et mémorable. Plus fondamentalement, elle se fonde sur « trois huit » : huit principes actifs qui sont les moteurs de l’acquisition de nouveaux comportements (par exemple le principe de co-construction) ; huit axes pédagogiques qui constituent le parcours que suivra tout participant (dont notamment le rodage des nouveaux comportements avec un groupe de pairs) ; et huit leviers de coopération qui permettent à tous les acteurs du Grand 8 d’avancer en bonne intelligence. Ces trois huit seront détaillés tout au long de chacune des trois parties de ce livre […]

[Si on détaille] la seconde partie du livre, [celle-ci] est composée des huit axes pédagogiques opérationnels du Grand 8 : le lancement, l’observation de l’état des comportements managériaux des participants et la fixation d’objectifs de développement, les séances dites synchrones (c’est-à-dire des moments où les participants sont réunis en même temps en groupes de session, que ce soit en présentiel ou en distanciel) pour acquérir de nouveaux comportements, le travail à distance, la coopération en groupes de pairs, l’utilisation d’un carnet de bord, la mise en œuvre de projets et la convention d’envol du parcours. Un lecteur qui voudrait avoir une vue complète de la démarche en action lira d’abord cette partie […] Le Grand 8 est une recette de cuisine : pour que le plat réussisse, il faut suivre des étapes, mais le plus important est la manière dont les ingrédients se mélangent. Nous rappellerons donc régulièrement dans cette deuxième partie qu’il convient de penser l’action des huit axes pédagogiques comme un système plutôt que comme une séquence.

Ce livre est le résultat d’expériences pratiques. Les auteurs ont pu, en tant que professionnels au sein de l’école de management EM Lyon Business School, accompagner les communautés de 80 à 850 managers au sein d’entreprises partenaires dans les secteurs de la banque, de la logistique, des services informatiques ou de la santé. L’évolution des comportements managériaux qui en a résulté a amené les équipes de ces managers à plus d’envie de s’engager, à des initiatives innovantes et à mieux coopérer. Les entreprises accompagnées ont pu mieux réaliser leurs objectifs stratégiques et leurs managers ont grandi et su favoriser le bien-être au travail de leurs collaborateurs. […] L’épilogue [du livre] montre les résultats concrets obtenus au travers d’une série de mesures, individuelles et collectives, de l’appropriation et de la mise en pratique au quotidien des comportements visés.

Enfin, le Grand 8 est fondé sur les dernières études en neurosciences, psychologie comportementale, pédagogie, théorie des organisations, management et accompagnement. Cette ouverture sur la recherche nous a amenés à le concevoir comme un système ouvert et évolutif. Nous vous donnons ici toutes les clés pour que vous puissiez le mettre en place à votre tour, que ce soit en tant que dirigeant, directeur des ressources humaines ou de la transformation ou responsable de la formation dans votre organisation ou en tant que professeur, consultant, coach ou formateur dans une entreprise partenaire.


Cet article a été écrit avec la participation de Claire Moreau, coach et directrice de programmes chez Humans Matter, et de Gilles Basset, consultant indépendant en Executive Education.

The Conversation

Thomas Misslin est chef de projet de programmes de développement managérial sur mesure dans le département executive education d'emlyon business school

Thierry Nadisic ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

14.04.2025 à 09:28

Google, antitrust enforcement and the future of European digital sovereignty

Anne C. Witt, Professor of Law, Augmented Law Institute, EDHEC Business School

Google’s antitrust worries are piling up in the US and in Europe. But the Trump administration isn’t pleased with EU regulatory efforts.
Texte intégral (1954 mots)
Google’s logo is visible at the company’s site in Cupertino, California, US. NorthSky Films / Shutterstock

Since its beginnings as a humble student start-up in 1998, Google has pulled off a meteoric rise. In 2025, its parent company, Alphabet, is a vast multinational technology conglomerate and one of the world’s most valuable companies. While much of Alphabet’s growth was internal, it also added to its empire through shrewd acquisitions, including of Android, DoubleClick and YouTube. Since 1998, it has acquired at least 267 companies.

Alphabet is a key player in many digital markets, including general search, browsers, online advertising, mobile operating systems and intermediation. Google Search, for example, is now the most widely used general search engine in the world. Globally, its market share has been at least 78% for the past 10 years.

Unsurprisingly, antitrust agencies, whose task is to protect competition, have been taking a close look at Google’s conduct and that of other tech giants. While having market power is not illegal if it is the result of a superior product, protecting such a position by means that are not meritorious is.


A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!


Google’s conduct under scrutiny

In recent years, there has been growing concern that Google may be using anticompetitive means to protect and extend dominant positions in core digital markets. In 2017, 2018 and 2019, the European Commission fined Google over €8 billion for abusing dominant positions in key markets – more than any other Big Tech company to date. A fourth investigation into Google’s behaviour in the advertising technology market, in which the European Commission is likely to request structural changes to Google’s advertising business, is nearing completion. The national competition agencies of the EU member states have also actively enforced EU and national abuse-of-dominance rules. Private antitrust class actions for damages are adding to Google’s woes.

In 2022, the EU enacted the Digital Markets Act (DMA) to create an additional tool for intervening against entrenched market power in core platform markets. The DMA regulates the behaviour of so-called gatekeeper companies, aiming to make markets more contestable for competitors and fairer for users. In September 2023, the European Commission designated Alphabet as a gatekeeper in no fewer than eight platform markets for the following services: Google Search, Google Maps, Google Play, Google Shopping, Google Ads, Chrome, YouTube and Google Android.

Within days of the DMA’s conduct rules becoming binding on Alphabet in March 2024, the European Commission opened the first noncompliance investigation to assess whether Google Search was continuing to treat Alphabet’s own services more favourably than its rivals’, and whether Google Play prevented app developers from steering consumers to other channels for better offers.

For the Trump administration, EU rules amount to non-tariff restrictions

The territorial scope of these rules is limited to services offered in Europe. They do not regulate how Google operates in the United States – this is subject to US antitrust law. Nonetheless, the European Commission’s enforcement actions have provoked the ire of the current US administration. In February 2025, the White House issued a memorandum titled “Defending American Companies and Innovators From Overseas Extortion and Unfair Fines and Penalties” that takes issue with European antitrust and regulatory measures against US companies. According to the Trump administration, the EU’s rules amount to non-tariff restrictions and unfair exploitation of US companies, and they interfere with American sovereignty. The memorandum stresses that Washington will not hesitate to impose tariffs and other actions necessary to mitigate the harm to the United States.

According to the European Union, such actions would amount to economic coercion and interfere with its legislative sovereignty to decide under what conditions services are offered on European soil. In 2022, likely with the possibility of a second Trump presidency in mind, it enacted the so-called Anti-Coercion Instrument, which allows the European Commission to impose a wide range of “response measures”, including tariffs and restrictions on imports, exports, intellectual property rights, foreign direct investment, and access to public procurement. Such response measures could be imposed on US digital services.

Potential for escalation

The situation has the potential to further escalate the risk of a trade war between Europe and the United States. However, the dispute over tech regulation does not appear to be about substantive antitrust principles per se.

In 2020, the US House of Representatives issued a bipartisan report stressing the need for the United States to address the lack of competition in digital markets and the monopoly power of dominant platforms like Amazon, Apple, Facebook and Google. The Federal Trade Commission and the Department of Justice subsequently brought antitrust lawsuits against all four companies, most of which are still pending.

The Department of Justice filed two separate antitrust suits against Google in 2020 and in 2023. In the first case, a Washington DC district court in August 2024 found Google guilty of violating section 2 of the Sherman Antitrust Act, and established that Google had attempted to protect its monopoly power in the market for general search through anticompetitive means. Judge Amit P. Mehta is now determining appropriate remedies, and the Department of Justice recently reiterated its request that the judge break up Google.

The second US case against Google is still pending. The accusations in it are similar to those underlying the European Commission’s ongoing investigation into Google’s behaviour in the market for advertising technology. While the case was initiated during the Biden administration, it has not (yet) been shut down since Trump returned to power. It’s also worth noting that the new head of the Federal Trade Commission has stressed that Big Tech is a main priority of his agency. There seems to be concern on both sides of the Atlantic that Google has been restricting competition. The crux of the discord, most likely, is that European regulators are telling US companies what to do – even if on European territory.

Europe lacks equivalents to Big Tech

The European Commission appears determined to keep enforcing its antitrust rules and the DMA. On March 19, 2025, it informed Alphabet that its preliminary assessment had shown that Google’s behaviour in search and in the Google Play Store was incompatible with the DMA. Also, the first noncompliance decisions against Apple and Meta under the DMA are expected shortly – even though the fines may well stay below the maximum 10% of a company’s global annual turnover allowed by the act, in view of its novelty.

Europe is not an insignificant market for Google and other US tech companies. In 2024, Google reportedly generated 29% of its global revenue, or $100 billion, in Europe, the Middle East and Africa. Europe has no equivalents to Google or other Big Tech companies, and the EU today imports 80% of its digital technology. In September 2024, the Draghi Report issued a stark warning to bloc leaders, highlighting waning geopolitical stability and the need for Europe to focus on closing the innovation gap with the US and China in advanced technologies. Less than five months later, the European Commission published the Competitiveness Compass, a roadmap to restoring Europe’s dynamism and boosting economic growth. Strong measures from the White House in retaliation for European antitrust and regulatory enforcement might just give this process additional impetus. President Trump cannot make European tech great again, because it never was great. But his policies may unintentionally help make it so.

The Conversation

Anne C. Witt ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

13.04.2025 à 13:07

L’effondrement des traités de limitation des armements met l’humanité entière en danger

Julien Pomarède, Associate professor in International Politics, Promoter of the WEAPONS Project (FNRS - 2025-2028) (Université de Liège) - Research Fellow REPI ULB. Promoter « WEAPONS » Research Project (FNRS - 2025-2028), Université de Liège

Tout l’édifice normatif construit depuis plus de soixante ans pour limiter ou interdire certains armements, notamment nucléaires, est en train de disparaître.
Texte intégral (3080 mots)

Ces dernières années, on observe un rapide délitement des conventions internationales interdisant ou encadrant les armements, nucléaires ou non. Exacerbé par les conflits récents, en particulier par la guerre d’Ukraine, ce processus, que les États justifient par leurs impératifs de sécurité immédiate, met en danger l’avenir de la sécurité internationale et, au-delà, rien de moins que l’habitabilité de notre planète.


Depuis la Seconde Guerre mondiale, les conventions internationales sur la limitation des armements ont joué un rôle clé dans la régulation des arsenaux militaires mondiaux. Certes, elles n’ont pas permis une abolition complète des armements particulièrement létaux et peu discriminants pour les civils. De même, les adhésions des États à ces conventions sont variables et leur transgression a été, et reste, régulière. Mais ces textes fournissent un cadre institutionnel, normatif, efficace et raisonnable dans les contraintes qu’ils font peser sur la marge de manœuvre des États à s’armer et à se défendre – un cadre qui subit aujourd’hui un délitement rapide.

Du TNP à New START, des décennies d’efforts de limitation des armements

Certaines des plus importantes de ces conventions ont été adoptées lors de la guerre froide, période historique inégalée en termes de prolifération des moyens physiques de destruction.

Sur le nucléaire, rappelons deux textes piliers : le Traité de non-prolifération des armes nucléaires (TNP, 1968), et le Traité sur les forces nucléaires à portée intermédiaire (INF, 1987), accord majeur passé entre les États-Unis et l’Union soviétique (puis la Russie).

En limitant la prolifération des armes nucléaires et en visant l’élimination des missiles à portée intermédiaire en Europe, ces accords ont permis de créer un environnement de contrôle et de réassurance entre les grandes puissances.

Les textes relatifs au contrôle des armes nucléaires ont également connu des évolutions significatives après la guerre froide, avec l’adoption du Traité sur l’interdiction des essais nucléaires (1996) et le New START (Start signifiant Strategic Arms Reduction Treaty, littéralement « traité de réduction des armes stratégiques »), signé en 2010 entre les États-Unis et la Russie, qui a pour objectif de limiter les arsenaux nucléaires stratégiques de chaque pays, en plafonnant surtout le nombre de têtes nucléaires déployées.

L’effet combiné de ces traités, dont ceux évoqués ne sont que des exemples d’un ensemble normatif plus vaste, a permis une réduction importante des stocks d’armes nucléaires, lesquels sont passés – pour le cumulé seul États-Unis/URSS puis Russie – d’un pic d’environ 63 000 au milieu des années 1980 à environ 11 130 en 2023.

Des efforts de désarmement dans d’autres secteurs ont été poursuivis après la fin de la guerre froide, comme la Convention d’Ottawa sur les mines anti-personnel (1997) et celle d’Oslo sur les bombes à sous-munitions (2008). Ces régimes se sont développés en raison surtout des pertes civiles causées par ces armements et de leur « violence lente ». Susceptibles de ne pas exploser au moment de leur utilisation, ces mines et munitions restent enterrées et actives après la période de guerre, ce qui tue et mutile des civils, pollue les souterrains, constitue un fardeau financier pour le déminage et freine voire empêche les activités socio-économiques (par exemple l’agriculture).

Une dégradation inquiétante

Le problème est que, dernièrement, tout cet édifice normatif construit ces soixante dernières années s’effrite et se trouve menacé de disparition.

En 2019-2020, les États-Unis se retirent des traités INF et Open Skies. Le traité Open Skies, signé en 1992, permet aux États membres d’effectuer des vols de surveillance non armés sur le territoire des autres signataires pour promouvoir la transparence militaire et renforcer la confiance mutuelle. En 2020-2021, la Russie rétorque en faisant de même.

Le New START a également connu une trajectoire accidentée. Lors de sa première présidence, Trump avait refusé à la Russie d’étendre la durée de validité de l’accord, le jugeant trop désavantageux pour les États-Unis. S’il fut ensuite étendu sous l’administration de Joe Biden, la participation de la Russie fait l’objet d’une suspension depuis février 2023, ce qui implique par exemple l’impossibilité d’effectuer des contrôles dans les installations russes (une des mesures de confiance prévues par le Traité). Au vu de la situation actuelle, le renouvellement de New START, prévu pour 2026, ne semble pas acquis.

Les effets de cette érosion normative ne sont pas moins inquiétants parmi les autres États dotés. Prenant acte de ces désengagements et en réaction aux livraisons d’armes des États-Unis à Taïwan, la Chine a fait savoir en juillet 2024 qu’elle suspendait ses pourparlers sur la non-prolifération nucléaire et a entamé une politique d’augmentation de ses arsenaux. Plus récemment encore, Emmanuel Macron a annoncé qu’une augmentation du volume des Forces aériennes stratégiques françaises serait à prévoir.

Le troisième âge nucléaire

Ces décisions ouvrent la voie à ce que certains qualifient de « troisième âge nucléaire ». Cette nouvelle ère, caractérisée par un effritement marqué de la confiance mutuelle, est d’ores et déjà marquée par une nouvelle course aux armements, qui allie politique de modernisation et augmentations quantitatives des arsenaux.

La reprise de la course aux armements ne fait qu’ajouter une couche d’incertitude supplémentaire et de tensions potentielles. Certaines de ces tensions, d’une ampleur plus vue depuis la fin de la guerre froide, se manifestent déjà ces dernières années : en 2017, les États-Unis et la Corée du Nord se sont mutuellement menacés de destruction nucléaire. Et depuis février 2022, la Russie a à multiples reprises brandi la menace d’un usage de la bombe nucléaire afin de dissuader les pays occidentaux de soutenir militairement l’Ukraine.

Dernier danger, non des moindres et qui se trouve décuplé par la reprise de la course aux armements : l’humanité n’est jamais à l’abri d’une défaillance technique des appareils de gestion et de contrôle de l’arme nucléaire.

On l’aura compris : agglomérés, ces facteurs nous font vivre dans une période particulièrement dangereuse. Et cela, d’autant plus que les évolutions concernant les autres types d’armements ne sont pas moins inquiétantes, en particulier dans le contexte des tensions entre la Russie et ses voisins directs liés à l’invasion de l’Ukraine. Certains pays ont quitté (Lituanie) et annoncé vouloir quitter (Pologne et les trois pays baltes) les conventions interdisant l’usage des mines anti-personnel et des bombes à sous-munitions. Même si, comme la Russie, les États-Unis n’ont pas adhéré à la convention d’Oslo, la livraison des bombes à sous-munitions à l’Ukraine consolide cette érosion normative globale en participant au déploiement de ces munitions sur les champs de bataille contemporains.

Un effondrement normatif injustifié à tous points de vue

Pour justifier le retrait ou la transgression des conventions internationales sur la limitation des armements (et des pratiques guerrières illégales plus généralement), l’argument principalement avancé est le suivant : cela permet de mieux dissuader et de mener la guerre plus efficacement.

Autrement dit, pourquoi prendre le risque de se mettre en position d’infériorité stratégique en s’astreignant à des limites que des pays qui nous sont hostiles ne se donnent pas la peine de respecter ? Pourquoi ne pas augmenter son seuil de brutalité, partant de l’idée que, dès lors, on aura plus de chances 1) de dissuader l’ennemi de nous déclarer la guerre et 2) si la dissuasion échoue, de sortir vainqueur du conflit ?

Cette réflexion, qui peut sembler cohérente au premier abord, repose en réalité sur une lecture simpliste des rapports politiques et des dynamiques guerrières. C’est une idée infondée et lourde de conséquences, à la fois pour la stabilité internationale, pour l’avenir de l’humanité et pour l’état environnemental de notre planète. Trois raisons permettent de donner corps à ce constat.

Tout d’abord, le fondement rationnel du démantèlement de cet appareil normatif est questionnable. Le nucléaire est un exemple frappant, à commencer par le Traité INF. Rappelons que, selon les estimations, l’usage de « quelques » centaines de bombes nucléaires suffirait à mettre en péril la quasi-entièreté de la vie sur Terre, par la combinaison de l’effet explosif et du cataclysme climatique qui s’en suivrait. En d’autres termes, les stocks post-guerre froide, même réduits à environ 13 000 aujourd’hui à l’échelle planétaire, sont déjà absurdes dans leur potentiel de destruction. Les augmenter l’est encore plus.

C’est pourquoi nombre d’experts estiment que la décision de Trump de retirer les États-Unis du Traité INF présente bien plus d’inconvénients que d’avantages, au premier rang desquels la reprise (devenue réalité) d’une course aux armements qui n’a pour conséquence que de dépenser inutilement des sommes astronomiques dans des arsenaux nucléaires (qui, rappelons-le, présentent la tragique ironie d’être produits pour ne jamais être utilisés) et de replonger l’humanité dans l’incertitude quant à sa propre survie.

Ajoutons à cela que l’on peut sérieusement douter de la capacité des États à gérer les effets d’une guerre nucléaire sur leurs populations. À cet égard, la comparaison avec l’épidémie de Covid-19 est instructive. Quand on voit que les gouvernements ont été incapables de contenir une pandémie infectieuse, en raison notamment des politiques de restriction budgétaire en matière de santé et de services publics plus généralement, on peine à croire qu’ils pourraient gérer la catastrophe sanitaire et médicale consécutive à des frappes nucléaires.

Passons maintenant au champ de bataille lui-même et à la remise en cause récente des accords sur les mines et les bombes à sous-munitions. S’affranchir de tels régimes n’a guère plus de sens, pour la simple raison que conduire la guerre plus « salement » n’a pas de lien avec une efficacité plus grande dans l’action militaire.

Les exemples historiques abondent, à commencer par les guerres récentes des grandes puissances. En Ukraine, l’armée russe est responsable d’un nombre incommensurable de crimes de guerre et utilise massivement des mines et des bombes à sous-munitions. Pourtant, cette litanie d’atrocités n’a pas amené plus de succès. La Russie s’est embourbée, sacrifie des soldats par dizaines de milliers, et du matériel en masse, pour des gains territoriaux qui restent limités au vu de la consommation en vies humaines et en ressources.

Le bilan de la guerre contre le terrorisme des États-Unis et de leurs alliés dans les années 2000-2010 n’est pas plus reluisant. Sans même compter le volume considérable de ressources allouées aux campagnes du contre-terrorisme militaire, la pratique étendue de la torture, les assassinats ciblés (par drones ou forces spéciales), le développement d’un archipel de centres de détention extra-légaux (type Guantanamo ou Black Sites (prisons secrètes) de la CIA), l’usage de munitions incendiaires en zone urbaine (bombes au phosphore blanc en Irak), tout ce déluge de violence n’a pas suffi à faire de la guerre contre la terreur autre chose qu’un échec cuisant aux conséquences encore aujourd’hui désastreuses.

En somme, effriter le régime d’interdiction des armes non discriminantes ne rend pas la guerre plus efficace mais la rend, pour sûr, plus meurtrière, plus atroce et étend ses effets létaux davantage au-delà de la guerre elle-même en blessant et en tuant encore plus de civils.

Enfin, la destruction de ces régimes de régulation engendrera des conséquences démesurées pour deux autres batailles bien plus essentielles à mener : le maintien de nos démocraties et de l’habitabilité de notre planète.

Éroder ces traités revient à s’aligner sur les pratiques sanglantes des régimes autoritaires, à commencer par la Russie ou même encore la Syrie qui, du temps de Bachar al-Assad et de la guerre civile, avait aussi fait un usage généralisé de mines et d’autres armes visées par ces conventions d’interdiction. Alors que la crédibilité internationale de nos normes démocratiques est déjà significativement écornée du fait de livraisons et soutiens militaires à des pays responsables de massacres, détruire ces régimes de régulation ne ferait qu’encourager plus largement le recours à ces types d’armes par tous les régimes, démocratiques ou non.

Se ressaisir avant qu’il ne soit trop tard

Enfin, et c’est au fond l’enjeu majeur, ces dynamiques augmentent l’inhospitalité de notre planète pour la vie humaine. Si les grandes puissances prenaient un tant soit peu au sérieux l’urgence climatique à laquelle nous sommes tous confrontés, un encadrement bien plus strict des activités militaires existerait dans le domaine.

Les institutions militaires sont responsables d’une pollution considérable et de destructions d’écosystèmes entiers, en raison des destructions environnementales provoquées par les armes/munitions elles-mêmes, de la consommation démesurée d’hydrocarbures et des activités entourant les armes nucléaires (extractions minières, tests, gestion des déchets). La remilitarisation qui s’annonce et l’effritement des traités de limitation des armements ne font qu’accélérer la catastrophe écologique vers laquelle on se dirige. À quoi bon continuer à militariser à outrance une planète qui tolère de moins en moins notre présence ?


À lire aussi : Guerre en Ukraine et destruction de l’environnement : que peut le droit international ?


Pour résumer, les conventions adoptées au cours des décennies passées ont permis de poser quelques limites raisonnables à une destruction humaine et environnementale de masse qui n’a fait que grossir, s’étendre et se normaliser depuis la seconde moitié du XIXe siècle.

Détruire ces régimes de régulation – sous le futile prétexte qu’on ne devrait pas s’imposer des limites que les autres ne se posent pas – ne présente que des désavantages.

Ce détricotage normatif va au-delà de la question seule des armements ; il reflète le mépris grandissant pour nos standards démocratiques et, au-delà, pour le vivant dans son ensemble.

The Conversation

Julien Pomarède a reçu des financements du Fonds National de la Recherche Scientifique (FNRS - Belgique).

13.04.2025 à 13:05

La semi-liberté, solution pour désengorger les prisons et réinsérer les détenus ?

Marion Vannier, Chercheuse en criminologie, Université Grenoble Alpes (UGA)

Le doublement des places en semi-liberté annoncé par Gérald Darmanin, ministre de la justice, interroge. Une politique de réinsertion sera-t-elle menée, ou s’agit-il uniquement de désengorger des prisons surpeuplées ?
Texte intégral (1835 mots)

Alors que la surpopulation carcérale pousse le gouvernement à élargir les dispositifs alternatifs, le doublement des places en semi-liberté annoncé en janvier 2025 interroge. Cette annonce sera-t-elle accompagnée de moyens humains, sociaux et territoriaux indispensables à la réinsertion des détenus ?


Le 23 janvier 2025, lors d’un déplacement à l’École nationale de l’administration pénitentiaire (Enap) à Agen, le garde des sceaux, Gérald Darmanin, a dévoilé deux mesures majeures. La première concerne l’ouverture, prévue pour le 31 juillet 2025, d’un établissement pénitentiaire de haute sécurité spécialement réservé aux narcotrafiquants. En parallèle, il a annoncé le doublement des places en semi-liberté d’ici à 2027, pour atteindre 3 000 places au total. Tandis que la première mesure répond à une logique sécuritaire de contrôle et d’isolement, la seconde est présentée comme une réponse pragmatique à la crise de la surpopulation carcérale. Ensemble, ces annonces traduisent une volonté politique de concilier fermeté pénale et ouverture limitée à la réinsertion.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Comment réduire la surpopulation carcérale ?

L’étude des politiques pénales états-unienne a permis d’identifier trois approches principales pour résoudre la surpopulation carcérale : la construction de nouvelles prisons, la libération anticipée des détenus et la modification des lois pour réduire le recours à l’incarcération.

Un exemple récent de cette logique se trouve au Royaume-Uni, avec le programme Standard Determinate Sentences, dit SDS40, qui permettait la libération anticipée de certains détenus après 40 % de leur peine. Les infractions graves, comme le meurtre ou le harcèlement criminel, sont exclues du dispositif. Ce phénomène, qualifié de « bifurcation », vise à concilier des objectifs contradictoires et offrir ainsi un compromis politique, où la volonté de réduire l’emprisonnement pour certains s’accompagne du maintien strict de l’incarcération pour d’autres.

La situation actuelle en France reflète ce mécanisme, à ceci près que l’élément prétendument progressiste, à savoir le doublement des places en semi-liberté, mérite un examen critique. Plutôt que de traduire un véritable engagement structurel en faveur de la réinsertion, le doublement des places en semi-liberté annoncé par Gérald Darmanin semble relever d’un ajustement ponctuel face à la crise carcérale.

Certes, le ministre évoque des moyens supplémentaires, mais les détails concrets sur l’accompagnement social, éducatif ou médical restent flous. En l’absence d’une réforme profonde des conditions de mise en œuvre de la semi-liberté, cette mesure s’apparente davantage à une réponse pragmatique court-termiste qu’à une stratégie cohérente de réintégration et de justice sociale.

Qu’est-ce que la semi-liberté ?

La semi-liberté est un aménagement de peine permettant aux condamnés de quitter un centre de détention à des horaires définis pour exercer des activités extérieures (travail, formation, soins, vie familiale, etc.). Elle est accordée par le juge de l’application des peines] sous certaines conditions, et constitue souvent une phase probatoire avant une libération conditionnelle. Toutefois, la personne demeure en prison : toute absence non autorisée est considérée comme une évasion. Cette procédure a démontré son efficacité en termes de prévention de la récidive.

Les places en semi-liberté se répartissent entre 9 centres de semi-liberté (CSL, établissements autonomes) et 22 quartiers de semi-liberté (QSL, rattachés à un établissement pénitentiaire) soit 1 635 places disponibles en France, d’après la direction de l’administration pénitentiaire (2025).

Selon cette dernière, au 1er janvier 2025, le taux d’occupation était de 88 %, en forte augmentation par rapport à 2021 (68,8 %), ce qui illustre l’essor de ce dispositif. Cependant, la répartition de ces établissements est inégale. Certains se situent en zone rurale, mal desservie par les transports, limitant ainsi les opportunités de réinsertion. D’autres, comme celui de Grenoble bénéficient d’un ancrage urbain facilitant la transition vers la vie civile.

L’octroi d’une mesure de semi-liberté repose sur l’implication active du condamné dans un parcours d’insertion, incluant la recherche de soins, la réparation des dommages, la recherche d’emploi ou la participation à une formation et le maintien des liens familiaux. Cependant, ces efforts individuels ne suffisent pas. Il apparaît évident que l’efficacité de la semi-liberté dépend avant tout d’un accompagnement structuré pour reconstruire une trajectoire stable.

Des services d’insertion et de probation sous-dotés

Cependant, les services pénitentiaires d’insertion et de probation (Spip) en France sont confrontés à une charge de travail excessive et à des ressources financières limitées, ce qui entrave leur capacité à accompagner efficacement les personnes en semi-liberté, comme le montre un rapport du Sénat). Selon les chiffres communiqués par la direction de l’administration pénitentiaire pour 2024, il manque 327 conseillers pénitentiaires d’insertion et de probation, 61 directeurs pénitentiaires d’insertion et de probation, 51 psychologues, 45 coordinateurs d’activités culturelles et 36 assistants de service social.

Bien que le budget de l’administration pénitentiaire ait connu des augmentations, une part significative de ces fonds est allouée à la construction de nouvelles places de prison. Par exemple, en 2023, plus de 680 millions d’euros ont été consacrés à la construction de 15 000 places supplémentaires, avec un coût total estimé à 4,5 milliards d’euros d’ici 2027. Le projet de loi de finances pour 2024 prévoyait une augmentation de 3,9 % des dépenses de fonctionnement des Spip, en lien avec la création de 1 500 emplois, entre 2018 et 2022. Mais le projet de loi des finances 2025, adopté le 14 février, prévoit une diminution du budget alloué aux Spip, passant de 123,2 millions d’euros en 2024 à 121,8 millions d’euros en 2025, suscitant nombre d’inquiétudes quant au fonctionnement des aménagements de peine et de la réinsertion efficace des personnes détenues.

Repenser les parcours de réinsertion

Par ailleurs, il est impératif d’assurer un ancrage local des structures et un accès facilité aux transports, en les implantant stratégiquement selon les opportunités d’emploi. La localisation des centres de semi-liberté ne doit donc pas être aléatoire, mais pensée pour maximiser l’insertion professionnelle et sociale. L’implication des collectivités et des citoyens] est aussi un facteur clé, car elle permet de commencer à tisser des liens qui perdureront entre les personnes détenues et la communauté qu’ils cherchent à réintégrer. La réussite de la semi-liberté repose sur la collaboration entre l’administration pénitentiaire, les acteurs sociaux et les entreprises locales.

Il est enfin crucial que cette collaboration soit conçue de manière à reconnaître les détenus non seulement comme des individus à réhabiliter, à reformer, mais aussi comme des acteurs capables d’autonomie et dotés d’expériences uniques, comme j’ai tenté de le montrer dans l’ouvrage Prisoner Leaders : Leadership as Experience and Institution.

Le débat sur la semi-liberté et le phénomène de bifurcation observé invitent à une réflexion plus large sur le format carcéral. Certaines initiatives internationales, telles que Rescaled et Working in Small Detention Houses (Wish), inspirées des modèles nordiques, montrent l’intérêt de structures spécialisées et intégrées localement. Ces approches favorisent un accompagnement plus personnalisé et une transition progressive vers la liberté.

En France, le programme pilote Inserre suit cette logique en prévoyant la création d’une nouvelle catégorie d’établissement pénitentiaire, axée sur la réinsertion par le travail. La première structure de ce type verra le jour à Arras, en 2026], et illustre une volonté d’adapter les infrastructures carcérales aux défis de la réinsertion.

S’il est essentiel de repenser la place de la réinsertion dans les politiques pénales, en évitant une approche purement punitive, il est crucial d’imaginer la prison non pas comme un espace géographiquement et symboliquement isolé, mais comme une institution intégrée à la communauté, favorisant des liens continus entre les personnes détenues et les acteurs sociaux tout au long de leur peine, et non uniquement à sa fin. Cette nouvelle conceptualisation est fondamentale pour une réinsertion efficace, pour la prévention de la récidive et pour le maintien de la cohésion sociale.


Article écrit avec la collaboration de Céline Bertetto, Patrick Malle, Marie-Odile Théoleyre, Bénédicte Fischer, et Jean-Charles Froment.

The Conversation

Marion Vannier a reçu des financements du fond 'UK Research & Innovation'.

13.04.2025 à 13:05

La flexibilité électrique, ou comment décaler nos usages pour optimiser la charge du réseau

Etienne Latimier, Ingénieur énergies renouvelables électriques et réseaux F/H, Ademe (Agence de la transition écologique)

La hausse à venir de notre consommation électrique ainsi que le développement des énergies renouvelables impliquent d’optimiser davantage l’équilibre entre offre et demande.
Texte intégral (1407 mots)

La « flexibilité électrique », c’est-à-dire la capacité à ajuster production, distribution et consommation sur le réseau électrique pour répondre aux fluctuations de la demande, n’est pas un enjeu nouveau. Ce concept revêt une importance nouvelle face à l’impératif de décarbonation de l’économie. Cela permet par exemple d’éviter que la charge de tous les véhicules électriques au même moment de la journée ne mette en péril la stabilité du réseau.


Les débats sur l’énergie en France voient monter en puissance, depuis quelques mois, la notion de flexibilité électrique. De plus en plus d’entreprises françaises développent des outils dédiés à mieux piloter la demande en électricité.

Comprendre pourquoi cette notion, pourtant ancienne, prend aujourd’hui une ampleur nouvelle, implique d’observer les deux grandes tendances qui dessinent l’avenir du système énergétique français : la décarbonation et le déploiement des énergies renouvelables.

D’un côté, la France poursuit son effort de décarbonation de l’économie dans le but d’atteindre au plus vite ses objectifs de réduction des émissions de gaz à effet de serre. La Stratégie nationale bas carbone (SNBC) vise la neutralité carbone à l’horizon 2050. Cet enjeu requiert d’électrifier un maximum d’usages qui utilisaient des énergies thermiques. En premier lieu la mobilité, en encourageant le passage des véhicules thermiques aux électriques, mais aussi l’industrie, qui s’appuie encore beaucoup sur les fossiles à des fins de production de chaleur, et enfin le chauffage, pour lequel le gaz concerne encore 15 millions de foyers en France.

Malgré des mesures d’efficacité énergétique permises par la rénovation et des gains de rendement menés en parallèle, les nouveaux usages liés à la décarbonation commencent à engendrer une progression globale de la consommation électrique du pays.

De l’autre côté, pour répondre à ces besoins, la France incite au développement rapide des énergies renouvelables, avantageuses sur les plans économique et environnemental.

La Programmation pluriannuelle de l’énergie (PPE), actuellement en consultation, table sur une évolution de la part des énergies renouvelables dans le mix de production électrique française qui passerait de 25 % en 2022 à 45 % environ en 2050.

Piloter l’offre et la demande

Ces énergies se caractérisent par une production plus variable. En ce qui concerne le photovoltaïque et l’éolien, ils ne produisent d’électricité que lorsqu’il y a du soleil ou du vent. L’électricité étant difficile à stocker, la marge de manœuvre pour répondre à cette variabilité temporelle consiste à agir sur l’offre et la demande.

Jusqu’ici, c’est surtout par l’offre que le pilotage s’opérait, en s’appuyant le volume de production nucléaire et en réalisant simplement un petit ajustement à l’aide des tarifs heures pleines/heures creuses. Désormais, l’enjeu est de piloter l’offre différemment et d’actionner davantage le levier de la demande.

D’où l’utilité de la flexibilité électrique, par lequel le consommateur jouera un rôle plus important par ses pratiques de consommation.

Décaler nos usages

Comme évoqué précédemment, la seule alternative à la flexibilité électrique est le stockage de l’électricité. Or cette méthode est moins vertueuse. Elle présente un coût économique élevé même si le prix des batteries a diminué. En effet leur production engendre, par la pollution qu’elle génère, un coût environnemental peu cohérent avec la démarche de décarbonation menée en parallèle. Sans parler des risques à venir en matière d’approvisionnement, certains des métaux intégrés aux batteries étant considérés comme critiques.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Privilégier la flexibilité la majorité du temps – et garder la possibilité du stockage pour pallier les variations de production intersaisonnières – apparaît donc comme l’option la plus pertinente. L’idée est d’adapter la consommation à l’offre, en évitant de faire transiter l’électricité par des intermédiaires de stockage. Concrètement, cela consiste à viser, lors du suivi, un équilibre constant entre l’offre et la demande, en incitant les usagers à consommer davantage lorsque la production est importante. En particulier, dans le cas du solaire, en pleine journée.

En effet, la production solaire atteint aujourd’hui en France un niveau significatif en journée, même en hiver. Celle-ci est même supérieure à nos besoins au milieu de certaines journées d’été. Le surplus est, dans la mesure du possible, envoyé à l’étranger, mais cela ne suffit pas toujours pour l’utiliser dans sa totalité. Pour résoudre ce problème, la flexibilité électrique consiste à développer la logique des heures pleines heures creuses, en créant d’autres périodes tarifaires qui intègrent de nouvelles heures creuses en cœur de journée. C’est ce que la Commission de régulation de l’énergie commence à mettre en place.

Il s’agit par exemple d’inciter les consommateurs à décaler la recharge du million de véhicules électriques déjà en circulation en France – 18 millions attendus en 2035 – pendant les périodes de production solaire. Dans l’édition 2023 de son bilan prévisionnel, RTE estime que la consommation annuelle des véhicules électriques s’élèvera en 2035 à 35 TWH, contre 1,3 TWh en 2023. Il faudra donc éviter que toutes les voitures se retrouvent à charger en même temps au retour de la journée de travail.

Inciter le consommateur à décaler ses consommations

Encourager de tels comportements implique une incitation économique qui peut passer par des offres de fourniture électrique. Tout comme le tarif heures pleines/heures creuses qui existe déjà, mais dont les horaires vont être petit à petit modifiés.

D’autres offres plus dynamiques, proposant des plages horaires plus précises encore, différenciées au sein de la semaine, de la journée et de l’année, commencent aussi à émerger. L’offre EDF Tempo, par exemple, permet de payer plus cher son électricité pendant une période qui concerne les heures pleines de 20 journées rouges dans l’année, tandis que le reste du temps est plus avantageux financièrement.

La flexibilité électrique existe depuis les années 1980 mais elle peine encore à se développer. En effet, les citoyens sont davantage sensibles à la maîtrise de leur consommation. Les deux sont pourtant complémentaires : il s’agit non seulement de consommer moins mais aussi mieux. Pour cela, il est crucial de rendre ce type d’offres disponibles et surtout le plus lisibles possible pour les consommateurs en montrant leur facilité d’utilisation, même si certaines resteront orientées vers un public plus averti que d’autres.

Pour le consommateur cela implique de prendre certaines habitudes, mais ce décalage partiel de nos usages – lorsque c’est possible – ne concerne pas l’année entière. Surtout, il permet de contribuer à éviter le gaspillage d’électricité tout en réalisant des économies.

The Conversation

Etienne Latimier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

13.04.2025 à 13:03

African Credit Rating Agency : l’Afrique cherche à s’émanciper des agences de notation occidentales

Oussama Ben Hmiden, Professeur de finance, HDR, ESSCA School of Management

L’African Credit Rating Agency (Afcra) devient en 2025 la première agence africaine de notation financière. Une alternative aux grandes institutions comme Standard & Poor’s, Moody’s et Fitch ?
Texte intégral (2076 mots)
L’idée de l’Africa Credit Rating Agency (Afcra) est de construire une grille d’analyse qui épouse les réalités du continent, ses défis, mais aussi ses atouts souvent invisibilisés. StudioProX/Shutterstock

L’African Credit Rating Agency (Afcra), portée par l’Union africaine, devient en 2025 la première agence africaine de notation financière. Une alternative aux grandes institutions comme Standard & Poor’s, Moody’s et Fitch ?


L’année 2025 marque un tournant pour la finance africaine, avec le lancement attendu de l’African Credit Rating Agency (Afcra), portée par l’Union africaine. Prévue au second semestre, cette agence de notation continentale ambitionne de proposer des analyses de crédit sur mesure, alignées sur les réalités économiques du continent.

La notation de crédit est une évaluation de la capacité d’un émetteur – que ce soit une entreprise, une institution financière ou un État – à rembourser ses dettes. Elle constitue un instrument utile quant à la prise de décision de la part des fournisseurs de capitaux. Elle équivaut à un passeport pour le crédit offrant la possibilité d’accès à des capitaux étrangers. Dans le contexte d’une économie mondialisée, cet élargissement de l’accès au marché s’accompagne le plus souvent d’une diminution des coûts de financement, notamment au profit des émetteurs qui bénéficient d’une notation élevée.

Pourtant, le débat reste vif. Depuis des années, les notations des agences internationales Moody’s, Standard & Poor’s (S&P) ou Fitch, qui influencent directement le coût des emprunts des États africains, sont au cœur des polémiques. Alors que le continent cherche à attirer davantage d’investisseurs, une question s’impose : ces évaluations conçues à des milliers de kilomètres sont-elles vraiment adaptées aux défis et aux atouts uniques de l’Afrique ?

Oligopole mondial de la notation de crédit

Dans les années 1990, le paysage financier africain était marqué par une asymétrie frappante : seule l’Afrique du Sud arborait une notation souveraine. Quinze ans plus tard, en 2006, près de la moitié des 55 pays du continent – 28 États – restaient encore invisibles sur la carte des agences de notation. Si ces dernières présentent leurs analyses comme de simples opinions, leur impact est tangible : leurs notes influencent directement les décisions d’investissement et les taux d’intérêt appliqués aux États africains.

Leur domination oligopolistique soulève des critiques. Les notations, censées réduire l’asymétrie d’information entre investisseurs et États, sont jugées trop génériques. De nombreux experts et dirigeants africains critiquent des méthodologies de notation jugées inadaptées, car elles peinent à saisir les spécificités des économies locales. Fortement axées sur des données quantitatives, parfois biaisées, elles ne rendent pas toujours justice aux réalités africaines. Le manque de données locales fiables renforce cette limite, laissant place à une subjectivité accrue et à des évaluations menées par des experts souvent éloignés du contexte régional.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Prime de risque africaine

Sur le continent, une frustration grandit : celle d’une « prime de risque africaine ». Exagérée, imposée par des notations jugées trop sévères, elle ne refléterait pas les progrès économiques et structurels réalisés. Une étude du Programme des Nations unies pour le développement (Pnud) estime que cette surévaluation du risque entraînerait des surcoûts d’emprunt de plusieurs milliards de dollars par an pour les pays africains.

D’après ce rapport, la sous-évaluation des notations souveraines par les agences (S&P, Moody’s, Fitch) engendre un surcoût annuel estimé à 74,5 milliards de dollars pour les pays africains, dont, notamment, 14,2 milliards en surcoûts d’intérêts sur les dettes domestiques, 30,9 milliards en opportunités de financement manquées pour ces mêmes dettes et 28,3 milliards supplémentaires pour les eurobonds – des obligations ou titres de créance émis par un pays dans une monnaie différente de la sienne.

Variation entre les trois grandes agences de notation et les scores de la plate-forme Trading Economics
Variation entre les trois grandes agences de notation et les scores de la plateforme Trading Economics. UNDP

Les critiques portent sur deux aspects :

  • Les biais quantitatifs : les modèles standardisés ne reflètent pas toujours les réalités locales, en particulier l’impact des économies informelles. Ils sous-estiment le rôle essentiel des diasporas dans le financement des États. En 2024, selon un rapport de la Banque mondiale, les Africains vivant à l’étranger ont envoyé 100 milliards de dollars vers le continent, soit l’équivalent de 6 % du PIB africain.

  • Les lacunes qualitatives : le manque de données contextuelles conduit à des évaluations subjectives. En 2023, le Ghana a ainsi rejeté sa notation de Fitch, la qualifiant de « déconnectée des réformes en cours ». Plusieurs pays africains ont publiquement rejeté les notations qui leur ont été attribuées au cours des dix dernières années.

L’alternative : Africa Credit Rating Agency (Afcra)

Face à ces limites, une réponse Made in Africa a germé : la création de l’Africa Credit Rating Agency (Afcra), une agence de notation pensée par des Africains, pour des Africains. Portée par l’Union africaine, cette initiative ambitionne de réécrire les règles du jeu.

L’idée est de construire une grille d’analyse qui épouse les réalités du continent, ses défis, mais aussi ses atouts souvent invisibilisés. Au cœur du projet : des méthodes transparentes, nourries par des données locales et des indicateurs taillés sur mesure. Les indicateurs sur mesure pourraient inclure la valorisation des actifs naturels, la prise en compte du secteur informel et des mesures du risque africain réel plutôt que perçu. L’objectif est d’obtenir des notations plus complètes grâce à cette sensibilité contextuelle.

Asymétrie d’information

Les agences de notation se présentent traditionnellement comme des actrices clés pour atténuer les déséquilibres informationnels sur les marchés. Leur promesse est d’éclairer les investisseurs en évaluant les risques de crédit, permettant ainsi des décisions mieux informées. Cette légitimité, acquise au fil des décennies, repose sur un double pilier : l’innovation constante dans leurs méthodes d’analyse et une réputation forgée par leur influence historique sur les marchés.

Un paradoxe persiste. Le modèle économique dominant – où les émetteurs financent eux-mêmes leur notation – alimente des suspicions récurrentes de conflits d’intérêts.

Nos recherches interrogent cette tension à travers une analyse de l’évolution du secteur des agences de notation, des fondements théoriques de son existence et des risques liés à la concentration du pouvoir entre quelques acteurs.

Un constat émerge, l’opacité des critères méthodologiques et la technicité des modèles utilisés nourrissent autant la défiance que la dépendance des marchés. Les agences s’appuient sur des indicateurs quantitatifs – PIB, dette publique, inflation – et qualitatifs – risque politique, transparence gouvernementale –, dont les pondérations varient, aboutissant à des évaluations parfois incohérentes. Pour renforcer leur crédibilité, une exigence s’impose : rendre lisible l’invisible, en clarifiant les processus d’évaluation sans sacrifier leur nécessaire complexité.

Méthologies IA et ESG

Des recherches récentes explorent le potentiel des méthodologies d’intelligence artificielle (IA) et d’apprentissage automatique pour intégrer les facteurs ESG (environnementaux, sociaux et de gouvernance) dans l’évaluation du risque. Ces avancées visent à surpasser les limites des modèles traditionnels en capturant la complexité des relations entre les indicateurs ESG et le risque financier, avec pour objectif de renforcer la précision et la fiabilité des évaluations du risque pour favoriser une allocation du capital plus éclairée et durable.

Pour l’Afrique et l’Afcra, ces approches mettraient en lumière des atouts sous-estimés, comme la résilience du secteur informel ou certaines spécificités institutionnelles. Elles permettraient aussi de mieux comprendre les liens complexes entre les critères ESG et le risque financier propres au continent. L’objectif pour l’Afcra serait de créer des évaluations plus précises et adaptées, réduisant la « prime de risque africaine ».

L’essor d’agences régionales représente une avancée importante vers un système plus équilibré. Pour réussir, les gouvernements africains doivent coordonner leurs efforts, soutenir les initiatives locales et instaurer un dialogue constructif avec les agences internationales. L’Afrique est en marche vers une meilleure souveraineté financière. L’Afcra saura-t-elle relever le défi ?

The Conversation

Oussama Ben Hmiden ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

13.04.2025 à 13:03

Le retour de Murakami : « La Cité aux murs incertains », une plongée troublante entre deux mondes

Anne Bayard-Sakai, Professeure émérite de littératrue japonaise, Institut national des langues et civilisations orientales (Inalco)

Sept ans après son dernier roman, Haruki Murakami revient avec un nouvel ouvrage, « la Cité aux murs incertains ».
Texte intégral (1797 mots)
Dans son nouveau roman, Murakami traite un des motifs qui l’obsèdent : les vies parallèles. Alma Pratt/Unsplash, CC BY

Sept ans après son dernier roman, Haruki Murakami revient avec un nouvel ouvrage, la Cité aux murs incertains, travaillant les motifs du réel, de l’irréel et des vies parallèles que nous pourrions mener.

Cet article contient des spoilers.


« Il me serait très délicat d’expliquer à quelqu’un qui mène une vie ordinaire que j’ai vécu pendant un certain temps dans une cité fortifiée. La tâche serait trop complexe », fait dire Haruki Murakami à son narrateur dans son dernier roman, la Cité aux murs incertains, dont la traduction française vient de paraître, deux ans après l’original en japonais. Et pourtant, dans le mouvement même où le narrateur renonce à cette tâche impossible, l’auteur, lui, s’y attelle, pour le plus grand plaisir de lecteurs qui dans l’ensemble mènent, probablement, des vies ordinaires.

Passer d’un monde à un autre, y rester, en revenir, y retourner, disparaître… S’il fallait résumer ce dont il est question ici, ce serait peut-être à cette succession de verbes qu’il faudrait recourir. Les fidèles de cet auteur majeur de la littérature mondiale en ce XXIe siècle le savent : la coexistence de mondes parallèles est l’un des thèmes centraux de son univers, et ce roman en offre une nouvelle exploration. Mais nouvelle, vraiment ? Ces mêmes lecteurs auront peut-être éprouvé en le découvrant une impression de familiarité un peu déconcertante, quelque chose qui relèverait de l’inquiétante étrangeté, l’« Unheimlich », chère à Freud.

« Selon Jorge Luis Borges, il n’existe qu’un nombre limité d’histoires qu’un écrivain peut véritablement raconter avec sincérité au cours de sa vie. En quelque sorte, nous ne sommes capables de traiter ce nombre limité de motifs que sous différentes formes et avec les moyens limités dont nous disposons », précise l’auteur dans une postface destinée à éclairer la genèse du roman.

Précision indispensable, car l’histoire qui nous est racontée ici, Murakami l’a déjà traitée à deux reprises. D’abord en 1980, dans une nouvelle jamais republiée depuis, qui porte le même titre que le roman de 2023 (à une virgule près, comme il l’indique). Puis en 1985, dans une œuvre particulièrement ambitieuse, la Fin des temps.

Abandonner sa propre ombre

Que partagent ces trois textes ? Un lieu hors du temps, une cité ceinte de hauts murs, à laquelle on ne peut accéder qu’en abandonnant sa propre ombre, et où le narrateur occupe la fonction de liseur de rêves. Mais cette matrice romanesque est prise dans des réseaux narratifs très différents, d’une complexité croissante. Si la nouvelle de 1980 est centrée sur la Cité, le roman de 1985 est construit sur deux lignes romanesques distinctes qui se développent dans des chapitres alternés et qui s’ancrent chacune dans un univers singulier dont l’un seulement correspond à la Cité entourée de remparts – toute la question étant de savoir comment ces lignes vont finir par se croiser.

Dans cette amplification ne se joue donc pas seulement une complexification du dispositif : c’est le lien même entre des univers différents qui s’affiche désormais au cœur du dispositif avec, en 2023, ce qui apparaît comme une intériorisation d’univers pluriels et comme introjectés.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Le roman débute avec un amour entre deux adolescents. Celui-ci se noue autour du récit qu’avant de disparaître, la jeune fille fait d’une « cité entourée de hauts murs », dans laquelle vit son être véritable tandis que seule son ombre est présente devant le jeune homme. Pour rejoindre celle qu’il a perdue, celui-ci va donc passer dans la Cité, en acceptant de se séparer de son ombre. Mais il n’y restera finalement pas, revient dans le monde (où il devient directeur d’une bibliothèque – et on sait l’importance et la récurrence de ces lieux dans l’œuvre de l’auteur), jusqu’au moment où, de nouveau, il franchira le mur d’enceinte de la Cité, avant d’en repartir…

Le narrateur est ainsi toujours pris lui-même dans une incertitude, où sa propre identité est remise en question, où la réalité s’effrite : est-il lui-même ou son ombre ? Y a-t-il un monde plus réel que l’autre ? Le narrateur dit :

« Dans ma tête se déroulait un conflit acharné entre le réel et l’irréel. Je me trouvais enserré entre ces deux mondes, à l’interface subtile entre le conscient et le non-conscient. Il me fallait décider à quel monde je voulais appartenir. »

Comme toujours dans les romans de Murakami, il n’y a pas de choix, les personnages ne sont pas maîtres de leur destin, ils sont mis dans l’incapacité de trancher.

« C’est comme si nous nous contentions d’empiler les hypothèses les unes sur les autres jusqu’à ce que, à la fin, nous ne soyons plus capables de séparer les hypothèses des faits »,

dit, à un moment donné, l’ombre et le narrateur, plus loin, d’enchérir :

« Tandis que j’étais là, seul dans la neige blanche, que je contemplais au-dessus de moi le ciel d’un bleu profond, j’avais parfois l’impression de ne plus rien comprendre. À quel monde est-ce que j’appartenais, à présent ? »

cite aux murs incertains Murakami

La question se pose à lui avec d’autant plus d’insistance que cette Cité est une ville racontée, par la jeune fille, par le narrateur, par l’auteur lui-même, que son existence est d’abord celle d’un discours, d’une production imaginaire, d’une fiction.

Mais la vie du narrateur hors de la Cité est, elle aussi, une fiction, celle inventée par l’auteur, d’où, pourrait-on dire, une indétermination sur la teneur en réalité de chacun des mondes, indétermination qui sape les certitudes du lecteur tout autant que celles du narrateur : quel est, en somme, l’univers de référence ? Murakami se garde bien de le dire.

Dans une interview, donnée à plusieurs journaux nationaux à l’occasion de la sortie du roman, Murakami explique :

« Il y a de multiples bifurcations dans la vie. Souvent je me demande ce que je serais devenu si j’avais pris à tel moment tel autre chemin. Dans un autre univers, je serais peut-être toujours patron d’une boîte de jazz. Je ne peux pas m’empêcher de penser que le monde dans lequel je suis, là maintenant, et un autre, qui n’est pas celui-là, sont intimement liés. »

Et il ajoute :

« Conscient et inconscient. Le présent qui est là, et un autre présent. Aller et venir entre ces deux mondes, voilà ce qui est au cœur des histoires que j’écris, et qui ressurgit toujours. Écrire des romans, pour moi, c’est sortir de ma conscience actuelle pour entrer dans une autre conscience, si bien que l’acte d’écrire et le contenu de que j’écris ne font qu’un. »

Si la Cité aux murs incertains occupe une place si cruciale dans son imaginaire qu’il ne cesse d’y revenir, c’est bien en définitive parce qu’elle est l’incarnation même – la mise en mots – de cet ailleurs, du temps, de l’espace, de la conscience, qui est au fondement de sa vision du monde et de son projet d’écriture.

The Conversation

Anne Bayard-Sakai ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

12.04.2025 à 16:57

Le déficit commercial entre les États-Unis et l’Union européenne : un déséquilibre plus structurel qu’il n’y paraît

Charlie Joyez, Maitre de Conférence en économie, Université Côte d’Azur

Quelle est la réalité du déficit entre les États-Unis et l’Union européenne ? Quels biens sont concernés ? Y a-t-il des évolutions alarmantes ? Nos réponses en six graphiques.
Texte intégral (1698 mots)

Pour justifier sa politique unilatérale de droits de douane, le président des États-Unis Donald Trump mobilise le déficit commercial de son pays, notamment vis-à-vis de la « méchante » Union européenne. Quelle est la réalité de ce déficit ? Quels biens sont concernés ? Y a-t-il des évolutions alarmantes ?


L’aversion proclamée de Donald Trump pour les déficits commerciaux l’a rapidement poussé, dès le début de son second mandat, à dénoncer un déficit excessif (bien qu’exagéré) des États-Unis envers l’Union européenne (UE). Le taux historique de 20 % de droits de douane imposé aux importations européennes, annoncé en avril 2025 et suspendu depuis, vise tout d’abord à réduire ce déficit bilatéral. Malgré cette pause dans la politique des droits de douane, il convient d'étudier en détail la composition des causes du déficit entre les États-Unis et l'Union européenne.

Ce déséquilibre commercial entre les États-Unis et l’UE s’est en effet largement et rapidement dégradé ces dernières années, jusqu’à atteindre 169 milliards de dollars en 2023 (données de la base pour l’analyse du commerce international (Baci)), soit environ 0,6 % du PIB des États-Unis cette année-là.

Mais, au-delà de cette dégradation, il est possible de voir des changements structurels à l’œuvre qui sont inquiétants pour les États-Unis et pour leur compétitivité vis-à-vis du partenaire européen.

Aggravation récente du déficit

Le déficit commercial des États-Unis envers l’Union européenne n’est pas récent, et existe dès la création de l’UE au milieu des années 1990. Toutefois, il s’est largement aggravé ces dix dernières années, comme le montre la figure 1 ci-dessous. Cette détérioration s’explique facilement : la demande outre-Atlantique était stimulée par une croissance bien plus forte qu’en Europe.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


En effet, depuis 2008, la croissance cumulée des États-Unis atteint 27 % contre seulement 16 % dans l’UE. Une seconde raison est l’appréciation relative du dollar (inférieur à 0,8 € jusqu’en 2014, autour de 0,9 € depuis), rendant les biens européens moins chers pour le consommateur américain. Réciproquement, cet écart de taux de change limite la compétitivité des biens « Made in USA » sur le marché européen.

Cependant, cette évolution est également structurelle. Cela est visible si l’on regarde la composition des exportations de chacun, comme le reporte la figure 2, ci-dessous.

Les exportations européennes vers les États-Unis ne changent pas beaucoup sur la période, on remarque seulement une augmentation de la part de la section VI de la classification « Harmonized System » correspondant aux industries chimiques (et pharmaceutiques), de 20 % à 30 % du total. Les exportations européennes sont donc surtout concentrées sur les sections VI, XVI (machines et appareils) et XVII (matériel de transport) qui représentent, à elles seules, deux tiers des exportations européennes vers les États-Unis.

Fortes exportations de pétrole

À l’inverse, dans les exportations américaines vers l’UE, la part de l’industrie chimique se maintient (légèrement supérieure à 20 %), mais les autres points forts traditionnels (qui étaient, comme l’Europe, les sections XVI et XVII) diminuent assez sensiblement au profit des exportations de la section V (minéraux) et, tout particulièrement, de pétrole, depuis 2022.


À lire aussi : Décrochage de croissance entre la France, l’UE et les États-Unis : l’urgence d’un choc de productivité


Les exportations états-uniennes deviennent dès lors nettement plus concentrées que les exportations européennes, même si la tendance est notable dès 2020.

Cette concentration des exportations de chaque bloc dans leurs domaines respectifs va de pair avec une diminution du commerce intrabranche, c’est-à-dire de flux croisés (importations et exportations) de biens similaires, comme le montre l’indice de Grubel et Llyod :

Déficit en termes de valeur ajoutée

L’analyse ci-dessus, malgré son intérêt, reste profondément biaisée pour identifier ce qu’il y a d’« états-uniens » qui est consommé en Europe, et inversement. En effet, dans l’économie globalisée actuelle, les biens exportés des États-Unis vers l’UE ne sont pas forcément fabriqués aux États-Unis. À vrai dire, une part non négligeable de la valeur ajoutée de chaque exportation provient de l’étranger, et parfois même du pays « importateur ».

Ainsi une vision plus correcte des déficits bilatéraux consiste à regarder le déficit commercial non plus en valeur brute, mais en valeur ajoutée. C’est toute l’ambition du programme Trade in Value Added (Tiva) de l’OCDE. D’après ces données, qui s’arrêtent en 2020, le solde commercial en valeur ajoutée est encore plus à l’avantage de l’Union européenne à 27 que le solde commercial brut.

Ainsi, le solde commercial en valeur ajoutée diverge de plus en plus du solde commercial brut qui est au centre des discussions. En 2020, le déficit en valeur ajoutée est 1,79 fois supérieur au déficit observé en valeur brute, contre un rapport de 1,06 en 2000 !

Les consommateurs américains consomment donc de plus en plus de la valeur ajoutée créée en Europe – à travers la hausse des importations de l’UE, mais pas seulement. Et si la réciproque est vraie pour les consommateurs européens, jusqu’en 2019, la tendance est nettement moins marquée.

Complexité des biens échangés

Enfin, une dernière dimension à étudier est la qualité des exportations de chaque partenaire dans cette relation bilatérale. En effet, les spécialisations commerciales sont plus ou moins bénéfiques dans le sens qu’elles peuvent favoriser le pays exportateur ou, au contraire, se révéler perdantes pour lui.

Par exemple, un pays dont l’économie s’enferme dans une trop forte spécialisation en biens primaires risque de voir le déclin de l’industrie et à terme de la croissance, comme l’illustre l’exemple du « mal Hollandais » ou les « malédictions des ressources naturelles ».

Ce potentiel bénéfique des paniers de spécialisation a été labellisé « complexité économique ». Il se calcule à la fois pour chaque bien (un bien est-il plus ou moins « complexe » à produire ?), mais aussi au niveau des États (un pays exporte-t-il des biens complexes ou non ?).

Si, au début de la période observée, les scores de complexité des deux partenaires étaient similaires, et ce jusqu’en 2017 (voire supérieurs pour les États-Unis avant 2010), la complexité des biens exportés de l’UE vers les États-Unis augmente tendanciellement depuis 2015, quand elle baisse drastiquement depuis 2017 aux États-Unis. La forte spécialisation des États-Unis dans les combustibles fossiles et l’abandon relatif de la spécialisation dans l’industrie pèse donc sur la complexité des biens échangés.

Et les services ?

Les États-Unis voient donc leur déficit commercial avec l’Union européenne se dégrader fortement depuis dix ans. Cependant, ce déficit apparent est encore moins marqué que le décrochage du commerce en valeur ajoutée entre les deux blocs. Cela va de pair avec une réorientation structurelle des exportations américaines vers une plus grande part de ressources naturelles, qui explique une concentration des exportations, une plus faible part des échanges intrabranches dans le total et un décrochage de la complexité des exportations américaines, qui pourrait à terme profiter à l’Union européenne.

France 24, 2025.

Toutefois, il convient de noter que toutes ces observations ne prennent en compte que le solde du commerce en biens et ignorent la dimension du commerce de services.

On sait déjà que la prise en compte de ce commerce de services réduit des deux tiers le déficit commercial bilatéral des États-Unis avec l’Union européenne, grâce à leurs monopoles dans les nouvelles technologies.

Cependant, cela ne change pas notre conclusion principale, à savoir que ce décrochage dans le solde commercial des biens démontre un changement structurel profond des exportations américaines vers l’UE, qui abandonnent l’industrie de pointe pour se concentrer sur les deux autres extrémités du spectre : les ressources naturelles et les services numériques.

The Conversation

Charlie Joyez ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

12.04.2025 à 16:55

Pour lutter contre la désinformation sur les réseaux, tirer des leçons de la régulation audiovisuelle

Winston Maxwell, Directeur d'Etudes, droit et numérique, Télécom Paris – Institut Mines-Télécom

Nicolas Curien, Professeur émérite honoraire du CNAM, Académie des technologies

L’asymétrie entre la régulation des chaînes de télé et de radio et les réseaux sociaux est de moins en moins justifiée. La régulation pourrait être adaptée pour les algorithmes.
Texte intégral (2054 mots)

Les députés socialiste Thierry Sother et écologiste Jérémie Iordanoff tirent la sonnette d’alarme : l’outil principal de l’Union européenne pour lutter contre la désinformation sur les réseaux, le règlement sur les services numériques (DSA), est une « digue fragilisée ».

De la même façon, Viginum, le service de vigilance et protection contre les ingérences numériques étrangères, décrit la facilité avec laquelle l’algorithme de TikTok a pu être manipulé pour torpiller les élections roumaines et souligne que le même phénomène pourrait se produire en France, à travers TikTok ou d’autres grands réseaux.


La dérive désinformationnelle aujourd’hui observée sur les réseaux sociaux, et en particulier sur X, constitue un sérieux motif d’inquiétude, selon les députés Thierry Sother et Jérémie Iordanoff, qui appellent à mieux mobiliser les armes disponibles, voire à en créer de nouvelles. Le Brésil par exemple n’a pas hésité à interdire X sur son territoire jusqu’à ce que le réseau se conforme aux exigences d’un juge.

À la recherche de nouveaux outils réglementaires, la régulation de la radio et de la télévision, médias depuis longtemps confrontés au problème de désinformation, peut être une source d’inspiration.

Une telle approche nécessiterait d’être adaptée au fonctionnement des réseaux sociaux, en particulier en l’appliquant aux algorithmes de recommandation, qui sont à la source des bulles d’informations qui piègent les internautes.

Une asymétrie réglementaire entre réseaux sociaux et audiovisuel

Comme rappelé dans le rapport parlementaire, le règlement européen sur les services numériques (ou DSA) impose aux grands réseaux sociaux de déployer des outils pour enrayer la désinformation. Le DSA ne les oblige certes pas à vérifier chaque contenu posté par les utilisateurs, mais à mettre en place des mesures techniques appropriées pour réduire l’impact des contenus préjudiciables. Ceci représente une avancée majeure par rapport à la situation antérieure, en établissant un équilibre entre, d’un côté, la liberté d’expression sur les réseaux et, de l’autre, la protection des institutions et des citoyens européens contre des attaques perpétrées par l’intermédiaire de ces mêmes réseaux.

Au titre du DSA, la Commission européenne a entamé des procédures d’enquête et de sanction mais, selon les députés, les effets « tardent à se faire sentir et les investigations tendent à repousser l’action » : de fait, aucune sanction n’a été infligée à ce jour.

Ainsi que l’explique un récent rapport de l’Académie des technologies auquel les auteurs de cet article ont contribué, la désinformation est un phénomène ancien, que les règles de pluralisme ont su endiguer dans les médias audiovisuels, tout en préservant la liberté d’expression.

Dès lors, pourquoi ne pas appliquer ces mêmes règles aux grands réseaux sociaux ? Contrairement à ces derniers, les services audiovisuels sont strictement encadrés : selon le Conseil d’État, l’Arcom doit veiller à ce que les chaînes assurent une expression pluraliste des courants de pensée et d’opinion. Cette autorité a ainsi suspendu, en mars 2022 puis mars 2025, la diffusion de plusieurs chaînes de télévision russes, en raison de manquements manifestes à l’honnêteté de l’information.

Si TikTok était un service audiovisuel, il aurait sans doute déjà encouru de lourdes sanctions, voire des interdictions d’émettre. Pourquoi une telle différence de traitement ?


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Asymétrie de moins en moins justifiée

Trois principales raisons sont invoquées.

Tout d’abord, les réseaux sociaux ne choisissent pas les contenus postés par les utilisateurs, ils ne font que les héberger ; ils ne poussent pas un programme vers des téléspectateurs, les internautes venant chercher les contenus comme dans une bibliothèque. Aujourd’hui, ce motif de non-régulation semble beaucoup moins pertinent qu’au début des années 2000. En effet, les algorithmes de recommandation sélectionnent la plupart des contenus et les dirigent de manière ciblée vers les utilisateurs afin que ceux-ci restent connectés, avec, pour résultat, l’augmentation des recettes publicitaires des plateformes.

Ensuite, les réseaux sociaux n’exercent pas le même impact que la télévision. En 2013, la CEDH a ainsi rejeté l’idée que les réseaux sociaux auraient une influence équivalente à celle de la télévision, en estimant que

« les choix inhérents à l’utilisation d’Internet et des médias sociaux impliquent que les informations qui en sont issues n’ont pas la même simultanéité ni le même impact que celles qui sont diffusées à la télévision ou à la radio ».

Ce raisonnement, recevable au début des années 2010, ne l’est clairement plus aujourd’hui, alors que 53 % des jeunes de 15 à 30 ans s’informent principalement à travers les réseaux sociaux, l’incidence relative de la télévision s’étant significativement réduite.

Enfin, les canaux hertziens de la télévision constituent une ressource rare, propriété de l’État. Les chaînes qui exploitent ce spectre radioélectrique, ce qui n’est pas le cas des services numériques, doivent en retour respecter des obligations de service public, comme le pluralisme. Cet argument perd de sa force aujourd’hui, car l’évolution des marchés numériques a spontanément créé une rareté de choix pour les internautes, en plaçant quelques grandes plateformes en position oligopolistique de gate keepers dans l’accès à l’information.

Si la diversité des contenus disponibles en ligne est théoriquement quasi infinie, leur accessibilité effective est quant à elle régie par le petit nombre des algorithmes des plus grandes plateformes. Le pouvoir né de cette concentration sur le marché de l’accès à l’information justifie pleinement une régulation.

Vers des algorithmes pluralistes…

À l’évidence, la « matière » régulée ne serait pas les contenus postés sur les plateformes par les utilisateurs, mais l’algorithme de recommandation qui organise les flux et capte l’attention des visiteurs. Cet algorithme devrait être considéré comme un service de télévision et se voir imposer des règles de pluralisme, à savoir l’obligation de mettre en avant des informations impartiales et exactes et de promouvoir la diversité des opinions exprimées dans les commentaires.

Si l’idée d’un « algorithme pluraliste » apparaît séduisante, la complexité de sa mise en œuvre ne peut être ignorée. Considérons un individu qu’un algorithme a piégé à l’intérieur d’une bulle informationnelle et qui se trouve donc privé de pluralisme. S’il s’agissait d’un service de télévision, il conviendrait d’inclure dans le flux les points de vue de personnes en désaccord avec les contenus prioritairement mis en avant. Une approche difficile à appliquer à un algorithme, car elle exigerait que celui-ci soit capable d’identifier, en temps réel, les messages ou personnes à insérer dans le flux pour crever la bulle sans perdre l’attention de l’internaute.

Une approche alternative consisterait à accorder une priorité croissante à la diffusion d’informations issues de tiers de confiance (fact-checkers), au fur et à mesure que l’utilisateur s’enfonce dans un puits de désinformation. Ce dispositif s’approche de celui des community notes utilisé par X ; des chercheurs ont néanmoins montré qu’il n’est pas assez rapide pour être efficace.

Selon une troisième approche, les messages provenant de sources identifiées comme problématiques seraient coupés. Ce procédé radical a notamment été utilisé par Twitter en 2021, pour suspendre le compte de Donald Trump ; son emploi est problématique, car la coupure est une procédure extrême pouvant s’apparenter à la censure en l’absence d’une décision de justice.

Mesurer le degré d’artificialité, une approche qui fait ses preuves

Une dernière approche envisageable s’inspire des instruments multifactoriels utilisés par les banques dans la lutte contre le blanchiment de capitaux. Les contenus seraient marqués d’un score de risque de désinformation et les scores élevés « dépriorisés » dans le système de recommandation, tandis que seraient rehaussés les poids des informations issues de sources journalistiques plus fiables.

Le score de risque serait calculé à partir d’au moins deux critères : le degré d’artificialité dans la diffusion du message, indiquant la vraisemblance du recours à des bots ; et le degré d’artificialité dans la création du contenu, indiquant la vraisemblance d’une génération par l’IA. Un tel indicateur double est proposé par l’Académie des technologies dans son rapport. Des outils d’IA vertueux pourraient par ailleurs aider au calcul du score, ou encore à l’identification d’informations de confiance, permettant de contrer les messages litigieux.

Les plateformes objecteront qu’une obligation de pluralisme violerait la liberté d’expression. C’est en réalité tout le contraire : selon la Cour européenne des droits de l’homme, le pluralisme préserve la liberté d’expression et le débat démocratique, en prévenant la manipulation de l’opinion.

Le pluralisme a fait ses preuves dans l’audiovisuel, il est temps désormais de l’appliquer aux grands réseaux sociaux, même si les modalités techniques restent à définir.

The Conversation

Winston Maxwell fait partie du groupe de travail sur l'IA Générative et la mésinformation de l'Académie des Technologies. Il a reçu des financements de l'Agence nationale de Recherche (ANR).

Nicolas Curien est membre fondateur de l'Académie des technologies, où il a piloté en 2023-2024 le groupe de travail "IA générative et mésinformation". Il a été membre du Collège du CSA (devenu Arcom), de 2015 à 2021, et membre du Collège de l'Arcep, de 2005 à 2011.

50 / 50
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Lava
La revue des médias
Le Grand Continent
Le Monde Diplo
Le Nouvel Obs
Lundi Matin
Mouais
Multitudes
Politis
Regards
Smolny
Socialter
The Conversation
UPMagazine
Usbek & Rica
Le Zéphyr
 
  CULTURE / IDÉES 1/2
Accattone
Contretemps
A Contretemps
Alter-éditions
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  IDÉES 2/2
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
Philo Mag
Terrestres
Vie des Idées
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
 
   FIABILITÉ FAIBLE
Contre-Attaque
Issues
Korii
Positivr
Regain
Slate
Ulyces
🌓