LePartisan.info À propos Podcasts Fil web Écologie Blogs REVUES Médias
Souscrire à ce flux
L’expertise universitaire, l’exigence journalistique

ACCÈS LIBRE UNE Politique International Environnement Technologies Culture

▸ les 50 dernières parutions

15.04.2025 à 17:37

Plongée dans le quotidien des humains de la Préhistoire, il y a 40 000 ans

Nicolas Teyssandier, Directeur de recherche au CNRS, Préhistorien, Université Toulouse – Jean Jaurès

Loin du cliché d’individus errant au hasard, les « Homo sapiens » ont constitué des sociétés complexes, faites de réseaux de relations à grandes distances, d’outils et d’art.
Texte intégral (2926 mots)

Ces dernières années, de fulgurantes avancées technologiques et méthodologiques ont permis de profondément renouveler la connaissance du quotidien des Homo sapiens du Paléolithique. Nomades, vivant en groupe, capables de créer outils et peintures et dotés du même cerveau que nous, les humains de l’époque étaient déjà des êtres complexes qui vivaient au sein de sociétés connectées.


Combien de visions caricaturales parsèment les représentations sur la Préhistoire ? Des groupes errant au gré du hasard, poursuivis par des hordes d’animaux tous plus dangereux les uns que les autres ; un climat hostile et des territoires inhospitaliers au sein desquels se déplaceraient des humains pas vraiment adaptés, vaguement recouverts de morceaux de peaux informes et que l’on voit parfois marcher les pieds nus dans la neige… Et que dire encore de leurs onomatopées si éloignées d’un véritable langage ? Une véritable survie en terre hostile !

Ces représentations sont à des années-lumière de ce que la communauté des sciences du passé construit patiemment depuis des décennies. Science jeune, la préhistoire s’est construite depuis la fin du XIXᵉ siècle, moment où est entérinée l’ancienneté de l’être humain, de ses outils, mais aussi, déjà ! de sa pensée puisqu’on lui attribue alors, après moult controverses, la réalisation de représentations graphiques figuratives sur les parois des cavernes.

Depuis, d’autres tournants ont eu lieu ; notamment dans les années 1950, avec la mise au point révolutionnaire de la méthode de datation par carbone 14 permettant enfin de situer dans le temps des phénomènes. Et que dire des fulgurantes avancées technologiques et méthodologiques qui scandent les sciences ce dernier quart de siècle et qui ont transformé en profondeur ma discipline ?

Aujourd’hui, le scientifique préhistorien est comme le chef d’orchestre d’une vaste enquête policière, mettant en rythme et en musique toute la gamme des spécialités, construisant instrument après instrument les savoirs sur les sociétés du passé. Car, désormais, on séquence l’ADN de Néandertal et de Sapiens et on réfléchit à la façon dont ces humains si dissemblables anatomiquement se sont métissés et ont laissé une descendance féconde ; on reconstruit les saisons de chasse et les environnements au sein desquels chasseurs et proies se rencontrent ; les instruments microscopiques ont de longue date remplacé l’œil nu pour identifier la fonction des outils en pierre, en os ou en ivoire. Enfin, car la liste est trop longue pour être énumérée ici, on utilise toutes les technologies d’imagerie 3D pour inventorier dans le moindre détail les squelettes.


Tous les quinze jours, nos auteurs plongent dans le passé pour y trouver de quoi décrypter le présent. Et préparer l’avenir. Abonnez-vous gratuitement dès aujourd’hui !


Les Sapiens de la culture de l’Aurignacien

Ce que ces avancées permettent, c’est une vision profondément renouvelée du quotidien de la Préhistoire. Remontons donc le temps et installons-nous dans le sud-ouest de la France, il y a 40 000 ans.

Des groupes d’Homo sapiens initialement originaires d’Afrique, avec la peau foncée adaptée au fort rayonnement UV des milieux tropicaux et équatoriaux, sont installés là depuis quelques générations.

D’un point de vue anatomique, les Sapiens du Paléolithique récent nous ressemblent beaucoup, au point qu’ils passeraient sans doute inaperçus s’ils étaient déguisés en humains du XXIe siècle. Ils ont aussi la même conformation cérébrale que nous et sont donc pareillement intelligents. Des êtres complexes en somme.

Ce sont aussi des nomades, qui déplacent régulièrement leurs campements selon les saisons et les activités qu’ils souhaitent réaliser. En Dordogne, là où nous connaissons bien ces Sapiens de la culture de l’Aurignacien (l’Aurignacien est la première culture paneuropéenne d’Homo sapiens, elle tire son nom du petit abri d’Aurignac, en Haute-Garonne où elle a été définie pour la première fois au début du XXᵉ siècle), les groupes humains ne vivent pas en grotte, mais s’installent en plein air, souvent dans des emplacements stratégiques facilitant une bonne acuité visuelle sur les troupeaux de rennes et de chevaux progressant dans les environs.

À cette époque, la démographie est sans doute faible, les derniers modèles proposent une densité autour de 5 individus tous les 100 km2 ! Autant dire qu’il devrait être plus fréquent d’apercevoir un renne que les membres d’un groupe voisin. Nous savons pourtant que ces groupes disposent de réseaux sociaux denses et entretenus.


À lire aussi : À la découverte de la plus ancienne sépulture africaine datant de 78 000 ans


Comment le sait-on ? Eh bien, pour cela, intéressons-nous à un matériau privilégié des Aurignaciens : le silex. Nos Sapiens étaient des experts de la taille qui demande un long apprentissage pour disposer des compétences et savoir-faire indispensables à la réussite du projet. Ils taillent avec dextérité de longues lames régulières, aux bords bien parallèles, dont la forme et la taille sont conçues à l’avance en aménageant soigneusement le bloc à tailler.

Une fois l’outil obtenu – une lame tranchante pour découper, un grattoir pour épiler et dégraisser les peaux –, il est en général placé et fixé dans un manche en bois, à l’aide de colles végétales et de liens en cuir. Ces technologies demandent donc des outils en silex standardisés qui peuvent être facilement remplacés quand ils sont usés ou cassés.

Peintures de mains apposées dans la Grotte de Chauvet (Ardèche)
Peintures de mains apposées dans la grotte Chauvet (Ardèche). Wikicommons, CC BY

Échanges d’outils

Les silex ont ceci de remarquable qu’on peut aussi identifier leur lieu d’origine. Et en observant la trousse à outil d’un Aurignacien périgourdin, occupant un abri du vallon de Castel-Merle (Dordogne), on constate aisément la pluralité des origines des silex qui la composent. On y trouve évidemment des silex disponibles localement, mais aussi en plus faible proportion des silex d’origine régionale, de la région de Bergerac à une cinquantaine de kilomètres.

Plus surprenant, on retrouve de beaux outils dans des variétés qui ne sont connues qu’à plusieurs centaines de kilomètres du site et qui ont été acquis de proche en proche, sans doute par échange, lorsque des groupes éloignés se rencontrent. Là, ce ne sont pas des blocs de silex qui s’échangent mais bel et bien des lames ou des outils prêts à l’emploi selon des réseaux qui relient la vallée de la Vézère à la région de Saintes en Charente, à quelques 150 km au nord-ouest ou à la Chalosse (Landes) au sud-ouest à plus de 250 km.


À lire aussi : Nouvelle découverte dans la vallée du Rhône : les Homo sapiens d’Europe tiraient déjà à l’arc il y a 54 000 ans


Ces observations conduisent à concevoir des groupes mobiles sur de vastes territoires, établissant des rencontres saisonnières avec d’autres clans qui exploitent des niches écologiques différentes.

Lamelles retouchées en silex utilisées comme éléments d’armes de chasse
Lamelles retouchées en silex utilisées comme éléments d’armes de chasse du Protoaurignacien de Fumane (Italie). Armando Falcucci, CC BY-NC

Des parures qui indiquent le statut social

Ces interconnexions sociales ont conduit les Aurignaciens à concevoir et fabriquer des objets capables de diffuser des informations sur leur statut individuel et collectif. À Castel-Merle, ils ont fabriqué par milliers de toutes petites perles en ivoire, en forme de panier, qui viennent orner des coiffes, des vêtements, ou sont assemblées en colliers.

Ces parures sont ainsi un moyen d’encoder de l’information pour la transmettre à d’autres individus. Et pas n’importe lesquels ! Inutile de le faire pour les membres de votre propre groupe qui connaissent tout de votre statut social. Il en va de même pour des individus d’une autre culture qui ne comprendraient pas votre message. Non, à l’Aurignacien, les parures sont des vecteurs pour communiquer des informations d’ordre social avec des individus de votre culture mais qui ne sont pas des connaissances proches.

Cela explique aussi que selon les régions européennes où l’Aurignacien s’épanouit, des types de parures spécifiques s’individualisent et rendent compte de groupes régionaux, mettant possiblement en scène des ethnies parlant des langues différentes.

Ces sociétés s’épanouissent donc au sein de réseaux de relations à longue distance et les équipements en pierre comme les parures circulent sur de vastes territoires, suggérant des déplacements de personnes, des échanges et sans doute le développement de nouvelles règles de parentés régies par l’exogamie. Ces changements proprement anthropologiques, qui se manifestent si puissamment lors de l’Aurignacien, rendent compte du succès que connut cette culture qui accompagna le développement des Sapiens sur toute l’Eurasie occidentale, concomitamment à la dilution progressive du pool génétique néandertalien jusqu’à l’extinction totale de cette anatomie ancestrale. On peut ainsi penser que la démographie des Aurignaciens et leur organisation sociale favorisant la circulation des biens et des personnes ont nettement contribué à l’extinction de Néandertal.

Les premiers artistes

Après quelques millénaires de développement de la culture aurignacienne, ces mutations sociales vont donner lieu à l’apparition, sur le continent européen, du phénomène sans doute le plus marquant que nous ont laissé ces sociétés. Je veux ici parler de l’explosion artistique à laquelle on assiste à partir de 36 000 ans avant le présent. Ce premier art figuratif revêt des formes variées : des animaux réalistes sont sculptés dans de l’ivoire, des dessins sont tracés sur des équipements techniques et, surtout, des fresques sont peintes comme c’est le cas dans l’emblématique grotte Chauvet (Ardèche).

Cet art du dessin, réalisé à coup sûr par des spécialistes, inaugure une nouvelle manière d’appréhender le monde et de retranscrire des éléments de compréhension dans une grammaire artistique. Il s’agit là sans doute de la signature archéologique très probable d’un grand mythe d’origine au monde, originaire d’Afrique et que les Aurignaciens de Chauvet avaient en tête au moment de réaliser leurs sensationnelles peintures.

Ce tableau vivant révèle des sociétés aurignaciennes pleinement entrées dans l’Histoire. Loin des caricatures souvent proposées, il présente une vision renouvelée du quotidien de nos ancêtres il y a 40 000 ans, régi par un haut degré de technicité, des savoir-faire appris et partagés et une structure sociale évidente. Un temps où il y avait des spécialistes et sans doute des hommes et des femmes dépositaires de savoirs, et donc d’un statut, auquel tous les membres du groupe ne pouvaient prétendre.

Des groupes nomades régnant dans des steppes froides et giboyeuses, parfaitement adaptés à cet environnement glaciaire et développant des moyens de communication illustrant des réseaux de relations à grandes distances faits d’objet et d’individus circulant au sein d’immenses espaces. On le voit, on est bien loin de l’image d’individus errant au hasard puisque l’on est ici en face de sociétés complexes et pleinement modernes.


L’auteur de cet article a récemment publié Dans l’intimité de Sapiens. Vivre, il y a 40 000 ans (éditions Alisio).


Cet article est publié dans le cadre de la série « Regards croisés : culture, recherche et société », publiée avec le soutien de la Délégation générale à la transmission, aux territoires et à la démocratie culturelle du ministère de la culture.

The Conversation

Nicolas Teyssandier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

15.04.2025 à 17:36

« Fort Knox numérique » : le pari risqué du bitcoin en réserve stratégique des États-Unis

Suwan Long, Assistant Professor, IÉSEG School of Management

Le plan de Donald Trump d’ajouter le bitcoin au bilan de la Réserve fédérale états-unienne est sans précédent. Vision audacieuse ou pari risqué ?
Texte intégral (2108 mots)
En centralisant et en conservant le stock de bitcoins détenu par le gouvernement, les États-Unis pourraient bénéficier d’une appréciation de valeur à long terme. Une idée rejetée par la Fed. JL Stock/Shutterstock

Le plan de Donald Trump d’ajouter le bitcoin au bilan de la Réserve fédérale est sans précédent. Audace visionnaire ou pari risqué ? Côté audace : Trump. Côté prudence : la Réserve fédérale des États-Unis.


En mars 2025, Trump signe un décret exécutif (« executive order ») établissant une réserve stratégique de bitcoins. Il vise à reconnaître officiellement le bitcoin comme un actif de réserve. Il prévoit aussi d’inclure dans cette réserve d’autres cryptoactifs : l’éther, le XRP, le solana et le cardano. Ce qui avait alors fait grimper leur valeur sur les marchés. Concrètement, la banque centrale des États-Unis – la Réserve fédérale (communément nommée la Fed) – pourra utiliser la cryptomonnaie pour prêter à des banques ou pour intervenir sur le marché des changes.

Cette réserve sera initialement financée par les bitcoins que le gouvernement américain possède déjà, principalement issus de saisies judiciaires dans des affaires de cybercriminalité ou de blanchiment d’argent. Par exemple, en novembre 2021, le ministère de la justice a annoncé la saisie de plus de 50 676 bitcoins liés à des activités illégales sur le marché du Darknet, Silk Road. Plutôt que de les revendre, ces actifs sont conservés dans une logique de placement à long terme. Le décret de Trump demande également aux agences concernées d’explorer des moyens « budgétairement neutres » pour acquérir du bitcoin, c’est-à-dire sans coûts nouveaux pour les contribuables.

En positionnant le bitcoin comme de « l’or numérique », l’administration Trump présente cette mesure comme une innovation audacieuse. Ce pari suscite un scepticisme important de la part des banquiers centraux et des régulateurs. Ces derniers alertent sur les obstacles juridiques et les risques pour la stabilité financière. Dans cet article, nous examinons le pari de Trump sur le bitcoin, ainsi que la réponse des institutions américaines, des régulateurs et des autorités financières mondiales, pour en évaluer la faisabilité et les implications.

Réserve stratégique de bitcoin

La note de la Maison Blanche souligne que le gouvernement crée une Réserve stratégique avec les bitcoins qu’il possède déjà, principalement issue de saisies judiciaires. Si, jusqu’à présent, ces bitcoins étaient vendus aux enchères sans véritable stratégie, ces avoirs seront dorénavant consolidés comme une réserve de valeur à long terme, à l’image d’un « Fort Knox numérique ». Le décret autorise même les secrétaires du Trésor et du commerce à élaborer des moyens d’acquérir du bitcoin supplémentaire, sans frais pour les contribuables, laissant la porte ouverte à des achats futurs en fonction des conditions du marché.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Cette initiative concrétise la promesse de campagne de Trump de faire de l’Amérique « la capitale mondiale de la cryptomonnaie ». Trump présente cette réserve comme la partie d’une stratégie plus large pour exploiter les actifs numériques en faveur de la prospérité nationale. Les partisans de cette initiative affirment qu’en centralisant et en conservant (holding) le stock de bitcoins détenu par le gouvernement, les États-Unis pourraient bénéficier d’une appréciation de valeur à long terme. L’idée : contribuer à la réduction de la dette nationale et des déficits.

Le Bitcoin Act vise à codifier la vision de Trump en loi. Ses défenseurs affirment qu’une réserve de bitcoins permettra de « renforcer le bilan financier de l’Amérique et d’alléger notre dette nationale ».

« Nous n’avons pas le droit de détenir du bitcoin »

Malgré cette ambition, le pari audacieux de Trump doit faire face à une réalité préoccupante : la Réserve fédérale des États-Unis (ou Fed) est légalement interdite de détenir du bitcoin. Elle est limitée dans la détention d’actifs, de titres du Trésor américain et de titres adossés à des créances hypothécaires, conformément au Federal Reserve Act. L’indépendance de la Fed et les statuts existants limitent la portée de ce plan sans changements législatifs. Ce conflit entre une vision exécutive et des limites institutionnelles constitue le cœur du débat.

Jerome Powell parle de l’inflation sur la chaîne YouTube de CNBC Television
Jerome Powell, président du Conseil des gouverneurs de la Réserve fédérale des États-Unis, est opposé au bitcoin comme réserve de change de son pays. Domenico Fornas/Shutterstock

La Fed gère la politique monétaire d’Oncle Sam. Elle détient des actifs de réserve comme les bons du Trésor et les certificats en or. Elle a accueilli l’idée d’intégrer le bitcoin à son bilan avec une grande retenue. Le président de la Fed, Jerome Powell, a déclaré sans équivoque :

« Nous n’avons pas le droit de détenir du bitcoin [… et] nous ne cherchons pas à modifier la loi. »

Cette résistance institutionnelle met en évidence un obstacle majeur. Le décret présidentiel s’applique à l’exécutif, ce qui permet à des agences comme le département du Trésor de créer une réserve en bitcoins. Le Trésor, en tant que branche exécutive, gère les revenus du gouvernement. Il administre également des fonds tels que le Treasury Forfeiture Fund, qui s’occupe des actifs saisis par des agences comme l’Internal Revenue Service (IRS) et le département de la sécurité intérieure (DHS).

Alors que le Trésor peut gérer des réserves fiscales, la Fed gère les réserves monétaires servant à la politique économique. Leurs rôles et contraintes sont profondément différents.

Volatilité et stabilité

La volatilité notoire du bitcoin est au cœur de la prudence exprimée par les autorités monétaires. Un actif de réserve monétaire est généralement censé être un stock de valeur stable et très liquide en cas de crise – des qualités que possèdent les actifs tels que le dollar américain, les bons du Trésor ou l’or.

Les cryptomonnaies, en revanche, ont affiché des fluctuations de prix extrêmes. Les responsables de la Réserve fédérale ont souligné que la cryptomonnaie est « rarement utilisée comme de l’argent réel » et est plutôt largement spéculative. Le Fonds monétaire international (FMI) a mis en garde contre le fait que l’adoption rapide des cryptomonnaies peut nuire à la stabilité monétaire. Début 2023, le conseil d’administration du FMI a exhorté les pays à « protéger leur souveraineté monétaire et à ne pas accorder aux cryptoactifs le statut de monnaie officielle ou de monnaie légale ».

Les États-Unis seuls au monde

L’initiative audacieuse du président Trump d’établir une réserve stratégique de bitcoins a sans conteste accéléré le débat sur l’intégration des actifs numériques dans les réserves gouvernementales. Ce projet novateur soulève des questions cruciales sur la légalité, sur la sécurité et sur l’avenir de la monnaie.

Aucun autre pays du G7 n’inclut actuellement les cryptomonnaies parmi ses actifs de réserve. Des institutions, telles que la Réserve fédérale et le Fonds monétaire international, demeurent profondément sceptiques quant à leur intégration. Les cryptomonnaies comme le bitcoin ne sont pas incluses dans ces actifs autorisés, ce qui signifie que leur intégration nécessiterait des amendements législatifs. En conséquence, la gestion de cette réserve de cryptoactifs incomberait probablement au département du Trésor des États-Unis, par l’intermédiaire du Fonds de confiscation du Trésor.

Le pari de Trump sur le bitcoin confronte une idée novatrice face aux principes fondamentaux de gestion conservatrice des réserves. Ce pari est à haut risque : une réussite pourrait placer les États-Unis à l’avant-garde de la révolution financière technologique, tandis qu’un échec pourrait entraîner des pertes financières ou nuire à la réputation économique du pays.

The Conversation

Suwan Long ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

15.04.2025 à 17:35

Choisir un prénom : les références aux saints en voie de disparition ?

Baptiste Coulmont, Professeur des universités, École Normale Supérieure Paris-Saclay – Université Paris-Saclay

Vers 1900, la quasi-totalité des bébés recevait un prénom dérivé ou proche de celui d’un saint catholique. Ils ne sont plus qu’un quart aujourd’hui dans ce cas.
Texte intégral (1804 mots)

Vers 1900, la quasi-totalité des bébés recevait un prénom dérivé ou proche de celui d’un saint catholique. Ils ne sont plus qu’un quart aujourd’hui dans ce cas.


Quelle que soit la source consultée, du calendrier des Postes à la liste des saints de la Conférence des évêques de France, on constate que la proportion de bébés nés en France et recevant un prénom de saint catholique diminue au cours du dernier siècle.

La chute a commencé plus tôt pour les bébés filles. Vers 1900, la quasi-totalité des bébés recevait un prénom dérivé ou proche de celui d’un saint catholique (la ligne pointillée du graphique ci-dessous compare les quatre premières lettres des prénoms – où Marinette et Louison sont associés à Marie et Louis). La loi obligeait à ce choix : il fallait donner un prénom « en usage dans les différents calendriers » ou un prénom inspiré de l’histoire antique.

Aujourd’hui, environ un quart des bébés, au grand maximum, reçoivent le prénom d’un saint catholique. Une fille sur dix reçoit l’un des prénoms du calendrier de la Poste.

Fourni par l'auteur

Une référence aux calendriers qui décroît

On peut expliquer cette diminution de différentes manières. En faisant référence à la sécularisation de la société française dans laquelle l’Église romaine joue un rôle moindre, concurrencée par d’autres institutions. Rappelons qu’en 2019-2020, 25% des Français se déclaraient catholiques contre 43% en 2008-2009. Mais on peut faire référence aussi au goût parental pour la nouveauté : or les prénoms des Saints ont de grande chance d’être des prénoms démodés, puisqu’ils étaient donnés par les générations précédentes.

On peut enfin insister sur la libéralisation du choix (effective depuis 1993 mais en gestation depuis plusieurs décennies), qui permet aux parents de sortir de la référence aux « usages des différents calendriers ». La diversification religieuse joue sans doute un rôle, aussi : il est évident que le répertoire catholique n’est pas celui de l’islam ou du bouddhisme.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


On peut aborder cette diminution autrement, en s’intéressant au jour de naissance : est-ce que les parents dont l’enfant naît le jour de la Saint-X donnaient souvent le nom du Saint du jour à leur enfant ? Y avait-il beaucoup de Marie le 15 août et de Valentin le 14 février, de Xavier le jour de la saint Xavier ?

Pour cela, il nous faut une grande liste nominative, comprenant le prénom et le jour de naissance. On dispose du Fichier des personnes décédées, qui nous donne l’identité des personnes décédées en France depuis 1970, qui sont près de 29 millions. Ce fichier n’est pas une source parfaite : il est sans doute assez représentatif pour les naissances des générations 1910-1960 mais il ne contient que les décès très précoces des générations plus récentes.

Comme le montre le graphique suivant, certains prénoms sont plus souvent donnés le jour de la fête du Saint (ou de l’équivalent, comme Noël), d’autres échappent à cet attracteur. Dans le Fichier des personnes décédées, on trouve environ 4 000 Marie nées un 15 janvier ou un 2 juin. Mais près de 9 000 nées un 15 août, jour aussi visible pour les Marie en deuxième prénom.

Il va naître beaucoup plus de Joseph le jour de la Saint Joseph (et tout au long du mois de mars) que lors d’un jour quelconque de l’année. Si dans le Fichier des personnes décédées il nait environ 25 Valentin un 3 juillet, c’est 200 le 14 février.

Les Victoire sont visibles le jour de la Sainte-Victoire, mais aussi, pour une raison historique précise, le 11 novembre 1918 : les quelque 230 bébés filles nés un 11 novembre et ayant reçu le prénom Victoire que l’on trouve dans le Fichier des personnes décédées sont nés le 11 novembre 1918.

Des choix de prénoms de plus en plus libres

En explorant la distribution d’autres prénoms, comme Stéphane ou Arnaud, nous serions bien en peine de déceler quel est le jour de leur fête. Ce jour n’attire pas plus les parents qu’un autre jour de l’année. C’est peut-être parce que les parents qui choisissent ces prénoms sont éloignés des références catholiques (ils choisissent, au milieu du XXe siècle, un prénom qui est alors un prénom « neuf »). Mais pourquoi alors le prénom Stéphanie est-il largement plus attribué le jour de la Saint-Étienne (Étienne étant une version latinisée du Stéphane grec) quand ce n’est pas le cas de Stéphane ?

Dans le graphique précédent, j’ai calculé le nombre de naissances par jour, en faisant abstraction de l’année de naissance. J’agrège des individus nés en 1910 et d’autres nés en 1947 ou en 1972 : la seule chose qui m’intéresse, c’est le jour, 1e avril ou 15 juin…

Ensuite, si l’on s’intéresse à l’évolution dans le temps et que l’on considère l’ensemble des prénoms, que se passe-t-il ? À mesure que les parents cessent de nommer leurs enfants d’après les saints catholiques, la pratique consistant à choisir beaucoup plus fréquemment le prénom du saint du jour de la naissance disparaît.

Fourni par l'auteur

Les personnes nées au début du XXe siècle avaient entre 4 et 5 fois plus de chance d’être nommées « Z » si elles naissaient le jour de la Saint-Z qu’un autre jour de l’année. Pour les personnes nées dans les années 1980 (et déjà décédées) il n’y a plus d’effet « Saint du jour ».

La disparition a été plus lente sur les seconds prénoms, ces prénoms invisibles, connus du seul entourage proche : ces prénoms sont souvent des prénoms d’une génération plus âgée (cousines et cousins, grands-parents, oncles et tantes) et de plus associés au parrainage et donc à un saint protecteur.

On peut même penser qu’aujourd’hui naître le jour de la Saint-Z conduit les parents à éviter ce prénom : le choix du prénom se vit parfois comme un choix libre, entièrement libre.

The Conversation

Baptiste Coulmont ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

15.04.2025 à 17:34

Fin de l’ARENH : comment l’électricité nucléaire française a basculé dans le marché

Thomas Reverdy, Professeur des Universités en sociologie, Grenoble INP - UGA

Cette particularité du marché français de l’électricité, introduite en 2010 suite à l’intégration de la France aux marchés européens de l’énergie, doit prendre fin courant 2025.
Texte intégral (2684 mots)

L’Accès régulé à l’électricité nucléaire historique (ARENH), particularité du marché français de l’électricité introduite en 2010 suite à l’intégration de la France aux marchés européens de l’énergie, doit prendre fin courant 2025. Retour sur l’histoire d’un dispositif controversé, mais trop souvent mal compris.


Le 31 décembre 2025, prendra fin une disposition spécifique au marché français de l’électricité, l’Accès régulé au nucléaire historique (ARENH). Cette disposition, mise en place en 2011, permettait aux fournisseurs concurrents de EDF d’accéder à un volume total d’électricité nucléaire de 100 TWh à un prix fixe de 42 euros par mégawatt-heure (MWh).

Régulièrement présentée par ses détracteurs soit comme une injonction autoritaire des autorités européennes, soit comme une spoliation d’EDF, les objectifs et les modalités de cette disposition sont souvent mal connus et incompris. Revenons sur l’histoire de ce dispositif.

Aux origines de l’ARENH

L’intégration de la France aux marchés de l’énergie européens après leur libéralisation a entraîné une hausse des prix à partir de 2004. Les clients industriels français se sont fortement mobilisés pour être protégés de cette hausse, suite à quoi l’État a mis en place un nouveau tarif réglementé pour les entreprises en 2006. La même logique a prévalu lors de l’ouverture des marchés pour les particuliers en 2007, l’État a décidé de maintenir un tarif réglementé calculé sur la base des coûts de production.

Or, la hausse des prix sur les marchés de gros a produit un effet de « ciseau tarifaire ». Il empêchait les fournisseurs alternatifs, qui achetaient l’électricité sur le marché de gros, de se développer. En effet, ces derniers n’avaient pas la capacité de rivaliser avec le tarif réglementé et les offres de EDF, fondés sur les coûts plus compétitifs du nucléaire historique.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Ainsi, la volonté politique de protéger les entreprises et les consommateurs par le tarif a alors entraîné un blocage de l’ouverture à la concurrence. L’ARENH a été créé dans ce contexte : il permettait de respecter l’engagement européen de développer la concurrence, tout en permettant de restituer aux consommateurs français l’avantage économique du nucléaire historique.

Un mécanisme utile, mais progressivement fragilisé

Le choix du mécanisme a été motivé par un souci de continuité avec les équilibres économiques qui existaient avant la libéralisation. Il a effectivement permis aux consommateurs français de bénéficier de l’avantage économique du nucléaire existant, tout en leur évitant d’être exposés aux variations du prix de marché de gros européen, quels que soient l’offre tarifaire et le fournisseur. La distribution du volume ARENH aux fournisseurs alternatifs est très encadrée en amont et en aval, pour éviter qu’ils tirent un bénéfice immédiat en revendant l’électricité sur le marché de gros. Elle ouvre à des règlements financiers en cas d’écart avec les besoins du portefeuille de clients.

Néanmoins, le mécanisme a rencontré plusieurs configurations inattendues qui l’ont fragilisé. En 2015, le prix du marché de gros européen, en baisse, est passé en dessous du prix fixé pour l’ARENH. Dans cette situation, l’ARENH a perdu de son intérêt pour les fournisseurs alternatifs.

Cette alternative a révélé le caractère asymétrique du dispositif : il ne garantit pas la couverture des coûts d’EDF en cas de baisse des prix de marché en dessous du tarif de l’ARENH. En novembre 2016, des fluctuations des prix des contrats à terme, ont permis aux fournisseurs alternatifs de réaliser des arbitrages financiers impliquant l’ARENH.

Cette période de prix bas sur les marchés de gros a aussi permis aux fournisseurs alternatifs de développer leurs parts de marché, qu’ils ont conservées quand les prix ont remonté à partir de 2018.

En 2019, le volume de 100 TWh prévu par la loi ne permettait pas de couvrir tous les besoins en nucléaire des fournisseurs alternatifs (130 TWh). Un écrêtement de l’ARENH a alors été mis en place. Ce rationnement a eu pour effet de renchérir les coûts d’approvisionnement des fournisseurs alternatifs, dans la mesure où une partie de l’électricité d’origine nucléaire de EDF devait être achetée au prix du marché de gros pour compléter le volume d’ARENH manquant.

Ces derniers ont dû ajuster leurs contrats de fourniture en conséquence. La Commission de régulation de l’énergie (CRE) a augmenté en 2019 les tarifs réglementés de l’électricité pour refléter ces nouveaux coûts d’approvisionnement, pour que le tarif réglementé reste « contestable » (qu’il puisse être concurrencé) par les fournisseurs alternatifs. Un des effets de l’écrêtement est de revaloriser l’énergie nucléaire, dont une partie est désormais vendue par EDF au niveau du prix de marché, supérieur au tarif de l’ARENH.

Un avantage pour EDF face à la concurrence

La loi énergie-climat de 2019 prévoyait une augmentation du volume d’ARENH à 150 MWh de façon à mettre fin à l’écrêtement. En parallèle, il était envisagé d’augmenter son prix de façon à suivre la hausse des coûts du parc nucléaire. Le projet HERCULE de restructuration de l’entreprise, initié pour améliorer la valorisation financière de l’entreprise, était aussi une opportunité pour repenser le mécanisme ARENH et le rendre symétrique, garantissant à EDF un niveau de revenu minimal en cas de baisse des prix.

Or le projet HERCULE a été abandonné face à la mobilisation syndicale car il portait atteinte à la cohérence de l’entreprise. Les modifications de l’ARENH ont été aussi abandonnées à cette occasion. Constatant que le prix de marché de gros suivait une tendance à la hausse, EDF avait plus à gagner à ce que l’ARENH ne soit pas modifié : elle pouvait gagner davantage grâce à l’écrêtement qu’avec une hypothétique réévaluation du prix de l’ARENH.

C’est donc avec un dispositif déséquilibré et asymétrique que le secteur électrique français a abordé la crise européenne de l’énergie en 2022. Du fait de la hausse des prix du gaz, une hausse des prix des contrats d’électricité à terme pour l’année 2022 a été observée dès le début de l’automne 2021.

Le gouvernement a alors décidé de mettre en place un bouclier tarifaire pour éviter que cette hausse n’affecte trop les consommateurs finaux – et éviter une crise politique dans un contexte préélectoral.

De la crise énergétique à l’« ARENH+ »

Pour réduire les surcoûts pour l’État et pour protéger les entreprises, il a aussi envisagé d’augmenter le volume d’ARENH pour répondre à une demande de 160 TWh. Réduire l’écrêtement de l’ARENH, permet de réduire l’achat d’électricité sur le marché de gros, ce qui réduit d’autant les factures de tous les clients, et donc le coût du bouclier tarifaire. Les négociations avec EDF ont retardé la décision.

Un « ARENH+ » a finalement été acté par le gouvernement en janvier 2022 pour la période de mars à décembre 2022. Au final, cette réduction d’écrêtement de l’ARENH a bien eu l’effet recherché par l’État, qui était de réduire le niveau des factures pour l’ensemble des consommateurs.

Néanmoins, compte tenu de son déploiement tardif, cette extension de l’ARENH à hauteur de 20 TWh supplémentaires a obligé EDF à racheter l’électricité nécessaire au prix de marché pour la revendre à un prix de 46 euros par MWh. Pour EDF, le coût direct était d’environ 4 milliards d’euros.

Un contexte critique pour le nucléaire d’EDF

Cette extension de l’ARENH est intervenue dans un contexte critique pour EDF. De nombreuses centrales nucléaires étaient indisponibles. La maintenance des centrales nucléaires a été retardée par la crise du Covid-19, la détection de problèmes inédits de corrosion sous contrainte ayant entraîné l’arrêt de nombreux réacteurs.

S’ajoute à cela la sécheresse des étés 2021 et 2022, qui a réduit les réserves d’eau dans les barrages et la production d’électricité d’origine hydroélectrique et nucléaire. Au cours de l’année 2022, EDF a dû importer de l’électricité aux pays européens voisins à des prix extrêmement élevés.

A l’automne 2022, le mécanisme de formation des prix sur le marché de gros européen s’est trouvé au cœur des débats en Europe et en France : il était question de limiter son influence sur la facture du consommateur. Paradoxalement, en France, le débat s’est alors focalisé sur l’ARENH. La commission d’enquête parlementaire « visant à établir les raisons de la perte de souveraineté et d’indépendance énergétique de la France » a alors été l’occasion, pour les anciens dirigeants d’EDF, de condamner l’ARENH, accusé d’avoir appauvri EDF et d’être responsable de la dépendance énergétique de la France.

L’extension de l’ARENH n’a pas été renouvelée pour 2023 et 2024, même si la demande d’ARENH est restée élevée, s’élevant alors à 148 TWh. De ce fait, les clients français ont acheté, directement ou indirectement, une large partie de l’électricité nucléaire de EDF au prix de marché de gros européen, exceptionnellement élevé. Ces deux années se sont donc avérées très profitables pour EDF, dont la disponibilité des centrales nucléaires s’est améliorée.

Un nouveau mécanisme qui expose davantage les acteurs aux aléas du prix de marché

Dans l’intervalle, le ministère de la transition a travaillé au remplacement de l’ARENH par un autre mécanisme symétrique. L’idée était de transposer au nucléaire historique les « contrats pour différence (CFD) symétriques », utilisés en Europe pour les énergies renouvelables.

Ce mécanisme devait permettre de garantir un complément de prix par rapport au marché de l’électricité, sécurisant ainsi la rémunération du producteur. Inversement, si le prix du marché augmente, l’État récupère l’écart, qu’il peut redistribuer aux consommateurs.

En parallèle, EDF a défendu un autre mécanisme, qui consistait à supprimer l’ARENH et à taxer les profits d’EDF quand ils dépassent un certain niveau. Bruno Le Maire a officialisé, en novembre 2023, l’arbitrage en faveur de ce second mécanisme, désormais validé dans le cadre de la Loi de Finance 2025.

L’électricité nucléaire sera donc vendue sur le marché et l’État pourra taxer EDF à hauteur de 50 % si les prix de marché dépassent un premier seuil calculé à partir des coûts complets de EDF – avec une marge non encore fixée – puis d’écrêter ses revenus en cas dépassement d’un second seuil. Les revenus issus de ce prélèvement devraient alors être redistribués de façon équitable entre les consommateurs.

Au-delà des incertitudes liées à la définition des seuils et des modalités de redistribution, le nouveau mécanisme valorise l’énergie nucléaire au prix de marché. EDF reste exposée au marché, mais conserve la possibilité de bénéficier des rentes générées par le nucléaire historique, pour financer ses investissements, en particulier dans le nucléaire futur. La préférence d’EDF pour ce second mécanisme tient aussi au fait qu’il permet d’accroître l’autonomie stratégique de l’entreprise tout en préservant sa cohésion organisationnelle.

Les clients industriels, les associations de consommateurs soulignent à l’inverse qu’il conforte l’entreprise dans sa position dominante et les prive d’une sécurité économique. Le mécanisme redistributif proposé risque d’introduire d’importantes inégalités dues à la diversité des formes d’approvisionnement. Ces consommateurs anticipent aussi des hausses des prix en janvier 2026, qui pourraient mettre en danger la dynamique d’électrification, clef de voûte de la décarbonation.

Ainsi, l’ARENH a joué un rôle essentiel dans la stabilité des prix de l’électricité pendant 15 ans, y compris pendant la crise énergétique, même si l’écrêtement en a limité les effets protecteurs. Sa complexité, ses fragilités techniques, et son statut ambivalent ont été autant de faiblesses mises en valeur dans le débat public pour affaiblir sa légitimité. L’abandon de l’ARENH a pour effet d’accroître la place du marché dans la formation du prix, et donc d’accroître les incertitudes économiques pour l’ensemble des acteurs.


L’auteur remercie Ilyas Hanine pour sa relecture.

The Conversation

Thomas Reverdy n’a pas reçu de financement de recherche en relation avec le thème de cet article. Par ailleurs, il a reçu des financements de l’État, de l’Ademe et de producteurs d’énergie pour diverses recherches sur les politiques énergétiques et le pilotage de projet.

15.04.2025 à 17:33

Arménie-Azerbaïdjan : les nombreuses limites d’un accord « historique »

Anita Khachaturova, Doctorante, Centre d'Étude de la Vie politique (CEVIPOL), Université Libre de Bruxelles (ULB)

L’annonce d’un accord de paix, après trente ans de guerre, a fait naître de grands espoirs, vite douchés par des exigences supplémentaires de Bakou, qui ne semble guère pressé de voir s’installer une paix durable.
Texte intégral (3934 mots)

En position de force depuis sa victoire décisive au Haut-Karabakh en septembre 2023, l’Azerbaïdjan a ajouté au dernier moment deux conditions à la signature de l’accord de paix avec l’Arménie dont les deux parties avaient annoncé la finalisation le 13 mars dernier. L’entrée en vigueur d’un tel texte freinerait, en effet, les ambitions militaires du régime de Bakou…


Le 13 mars dernier, les chancelleries occidentales, russe et iranienne, ainsi que de nombreux grands médias internationaux saluaient l’annonce de la finalisation d’un accord de paix entre l’Arménie et l’Azerbaïdjan. Après plus de trois décennies de conflit et plusieurs guerres meurtrières, on avait envie d’y croire.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Citant une source occidentale anonyme, au fait du contenu des négociations, qui se tiennent toujours à huis clos, OC media révélait que le document en 17 points avait pu être finalisé grâce aux concessions faites par l’Arménie sur les deux derniers articles qui restaient en suspens : l’abandon mutuel de toutes les poursuites judiciaires auprès des instances internationales, et le retrait de toute force tierce aux frontières interétatiques, référence faite à la mission d’observation de l’UE actuellement déployée en Arménie.

Mais le soufflé est vite retombé : quelques heures plus tard, le pouvoir de Bakou s’est empressé d’ajouter deux préconditions à la signature du traité : l’Arménie doit amender sa Constitution pour en retirer toute référence au Haut-Karabakh ; et le groupe de Minsk de l’OSCE doit être dissous.

Face à Erevan, qui a signifié sa volonté de signer l’accord sans conditions, Bakou renvoie ainsi aux calendes grecques l’échéance d’une normalisation entre les deux pays.

Un contexte très tendu

Tout observateur des relations arméno-azerbaïdjanaises aura pu constater le contexte particulièrement tendu dans lequel était survenue l’annonce de la finalisation du traité de paix. En effet, les récents développements semblaient indiquer la préparation d’une attaque imminente de l’Azerbaïdjan contre l’Arménie.

Des mois durant, Bakou avait accusé Erevan de violer le cessez-le-feu tout en exerçant une pression militaire continue à la frontière, appuyée par une rhétorique belliqueuse vis-à-vis du gouvernement de Nikol Pachinian, que le président azerbaïdjanais, Ilham Aliev, n’hésite pas à traiter de fasciste. À peine quelques heures avant l’annonce du 13 mars, Aliev tenait un discours plein d’amer ressentiment contre l’Arménie et accusait les Européens et des figures de l’administration Biden, qui venait de quitter le pouvoir à Washington, de parti pris anti-azerbaïdjanais. Il est vrai que l’Azerbaïdjan tente d’amadouer l’administration Trump, dont il se préparait à recevoir l’envoyé spécial, Steve Witkoff, en mission diplomatique dans la région.

Depuis le 13 mars, les tensions n’ont pas tari. L’Azerbaïdjan continue d’affirmer que l’Arménie viole le cessez-le-feu, accusations que l’Arménie réfute systématiquement. Le 31 mars, des tirs azerbaïdjanais ont causé des dégâts dans le village arménien frontalier de Khnatsakh, situé dans la région du Syunik, où les populations vivent dans la crainte permanente d’une invasion militaire azerbaïdjanaise.

Alors que ces informations contradictoires peuvent prêter à confusion, il convient de rappeler que, d’une part, toute signature d’un accord de paix entre l’Arménie et l’Azerbaïdjan sera tributaire de la volonté politique des parties d’agir concrètement pour la paix et, d’autre part, que le document, s’il est un jour signé et ratifié, ne sera qu’un accord-cadre énonçant des principes de la relation bilatérale, sans toucher aux enjeux fondamentaux. S’il permet de donner une impulsion positive au processus de normalisation, il ne sera pas en lui-même une garantie de stabilité et de paix.

Contexte historique

L’Arménie et l’Azerbaïdjan, deux anciennes républiques soviétiques, ont acquis leur indépendance vis-à-vis de l’URSS au moment de l’effondrement de celle-ci alors qu’elles étaient en guerre : entre 1988 et 1994, les deux pays ont combattu pour la région disputée du Haut-Karabakh, une enclave autonome majoritairement arménienne, placée au sein de la RSS d’Azerbaïdjan par le pouvoir soviétique dans les années 1920.

Le conflit, qui mena à l’expulsion de tous les Arméniens d’Azerbaïdjan et de tous les Azéris d’Arménie et du Haut-Karabakh, se solda en 1994 par une victoire militaire des forces arméniennes. Celles-ci avaient non seulement réussi à assurer le contrôle du Haut-Karabakh, qui proclama son indépendance, mais également occupé sept districts adjacents qui ne faisaient pas l’objet du contentieux initial.

À partir du cessez-le-feu de 1994, les négociations visant à résoudre le conflit se sont déroulées dans le cadre multilatéral de l’OSCE, par le biais d’un groupe de médiation, le groupe de Minsk, co-présidé par la Russie, les États-Unis et la France, devant accompagner l’Arménie et l’Azerbaïdjan vers un réglement pacifique. À plusieurs reprises, les parties s’étaient rapprochées d’un accord, notamment en 2001, lors des pourparlers de Key West, en 2007, lors de l’adoption des Principes de Madrid et à l’occasion du sommet de Kazan en 2011. Tous avaient été considérés en leur temps comme « historiques ». Ces tentatives diplomatiques ont toutes échoué.

Le 27 septembre 2020, l’Azerbaïdjan, ayant acquis une prédominance militaire sur l’Arménie et profitant d’une conjoncture internationale propice, marquée par la pandémie du Covid-19 et la campagne présidentielle aux États-Unis, attaquait le Haut-Karabakh. Dans une guerre fulgurante de 44 jours, Bakou obtint une victoire décisive.

En vertu de l’accord de cessez-le-feu du 9 novembre 2020, négocié sous les auspices de la Russie, l’Arménie perdait les trois quarts des territoires contrôlés jusqu’alors par ses forces dans la région et était contrainte de retirer ses soldats de l’enclave, au profit d’une force de maintien de la paix russe, laissant la région encerclée par l’armée azerbaïdjanaise. Le nouveau statu quo reconfigurait complètement l’architecture de sécurité sur le terrain.

Fragilisé militairement et politiquement, le gouvernement arménien se voyait incapable de défendre le statut des Arméniens du Haut-Karabakh dans les négociations avec l’Azerbaïdjan. La Russie, son alliée stratégique, ayant fait défaut dans la dissuasion des menaces et attaques azerbaïdjanaises, l’Arménie n’avait d’autre option que d’accepter des concessions douloureuses.


À lire aussi : Haut-Karabagh : cessez-le-feu sur une ligne de faille géopolitique


Fort de sa victoire militaire, Bakou resserrait l’étau sur ce qui restait du Haut-Karabakh arménien, rendant la vie de la population locale intenable. À partir de décembre 2022, l’Azerbaïdjan assiégea le Haut-Karabakh. Le 19 septembre 2023, au bout d’un blocus de neuf mois, Bakou lançait une offensive éclair sur l’enclave, poussant à l’exode toute la population restante, soit plus de 100 000 Arméniens (sur les 150 000 qui y habitaient avant la guerre de 2020).

Portant un coup dévastateur aux Arméniens, ces développements ouvraient néanmoins, paradoxalement, une voie pour la normalisation des relations bilatérales. En effet, Bakou ayant obtenu tout ce qu’il désirait et bien plus encore, il ne restait plus d’obstacle objectif pour signer un accord de paix avec l’Arménie. Cette dernière avait été contrainte d’abandonner toute revendication sur le Haut-Karabakh, ce qui engagea le gouvernement arménien dans un virage géopolitique et idéologique considérable, le gouvernement de Nikol Pachinian tentant de se dégager de l’influence russe et de rétablir des relations diplomatiques avec la Turquie, un soutien inconditionnel de l’Azerbaïdjan qui avait fermé sa frontière avec l’Arménie en 1993 et avait été déterminant dans la victoire de Bakou en 2020.


À lire aussi : L’Arménie, à la croisée des chemins transcontinentaux, se cherche des alliés


Force est de constater que plus d’un an et demi après la disparition du Haut-Karabakh arménien, les parties n’ont pas résorbé le conflit qui les oppose. Celui-ci s’est en effet déplacé sur le terrain arménien. Vulnérable aux menaces et attaques de l’Azerbaïdjan, dont les incursions en mai 2021 et en septembre 2022 ont résulté en l’occupation de plus de 200 km2 de territoire souverain de l’Arménie, Erevan est, des deux parties, celle qui a le plus intérêt à un traité de paix dans lequel elle voit un possible pare-feu à de nouvelles violations de son intégrité territoriale.

Face aux demandes de Bakou d’ouvrir ce qu’il appelle le « corridor de Zanguezour », un corridor extraterritorial devant relier l’Azerbaïdjan à son exclave du Nakhitchevan, séparée par l’Arménie, Erevan a tracé une ligne rouge : toute circulation sur son territoire devra être soumise au contrôle par ses propres forces de sécurité (excluant par la même occasion toute implication des forces de sécurité russes ou d’un quelconque régime d’exemption extraterritorial).

Si l’Azerbaïdjan prenait le contrôle du corridor de Zanguezour, l’Arménie n’aurait plus de frontière avec l’Iran. L’Azerbaïdjan, lui, aurait un lien terrestre direct à son exclave du Nakitchevan et donc à la Turquie. Héloïse Krob/France Info, 2022

Bakou, de son côté, tire un avantage de la situation actuelle et de sa prédominance face à l’Arménie. En exigeant de l’Arménie qu’elle amende sa Constitution, l’Azerbaïdjan rend la signature de l’accord incertaine. De ce fait, il peut maintenir l’ambiguïté sur son respect des frontières de l’Arménie, justifiant sa présence militaire sur le territoire arménien par l’absence d’un tracé de frontières qui ferait autorité.

Deux préconditions pour un texte d’accord réduit à peau de chagrin

Si la dissolution du groupe de Minsk peut être décidée sans grande difficulté, l’amendement de la Constitution arménienne n’est pas une mince affaire.

Toute démarche en ce sens devra se faire après les élections parlementaires de 2026, quand Nikol Pachinian cherchera à se faire réélire. Alors qu’il l’a mis à l’agenda après sa possible réélection, il sera extrêmement périlleux pour Pachinian de faire campagne sur un projet si ouvertement associé à une demande explicite de Bakou. Par ailleurs, un tel amendement demanderait la tenue d’un référendum national dont les exigences légales sont extrêmement strictes (25 % de tous les électeurs inscrits devraient voter oui) et dont rien ne garantit l’issue.

Le préambule de la Constitution arménienne mentionne la Déclaration d’indépendance de l’Arménie, adoptée en 1990, qui à son tour renvoie à l’acte d’unification décidé en 1989 par les autorités soviétiques arméniennes et celles du Haut-Karabakh. Celui-ci a en réalité été caduc dès les années 1990 puisque l’Union soviétique s’est effondrée et que le Haut-Karabakh a proclamé son indépendance, et non son intégration à l’Arménie. Une indépendance qu’Erevan n’a d’ailleurs jamais reconnue, afin de ne pas compromettre les négociations établies avec Bakou. Il n’en demeure pas moins que Bakou considère qu’en l’état le document constitue un défi à son intégrité territoriale.

Le gouvernement arménien a tenté de résoudre ce problème en faisant appel à la Cour constitutionnelle de la République d’Arménie qui, dans une décision datant du 26 septembre 2024, jugeait que le préambule ne pouvait constituer un obstacle légal à la validité de la décision de l’Arménie de signer avec Bakou l’accord de paix où le Haut-Karabakh serait reconnu comme faisant partie intégrante de l’Azerbaïdjan. Mais cela non plus n’a pas satisfait Bakou.

Au-delà de ces préconditions, le contenu de l’accord, qui n’est à ce jour pas rendu public, est de toute évidence très limité. Les questions de l’ouverture des communications, du processus de délimitation et de démarcation des frontières, ainsi que le gros point clivant du « corridor du Zanguezour », que Bakou continue de demander hors le cadre du traité, ne sont pas abordés. Ils sont pourtant décisifs dans la poursuite des négociations. Il n’y est pas non plus fait mention du Haut-Karabakh ou du sort de sa population déplacée, ni d’un quelconque processus de réconciliation des deux sociétés.

Bref, le document se contente d’énoncer des principes cadres de la relation bilatérale - tels que la reconnaissance mutuelle des frontières, l’abandon de toutes revendications territoriales et l’établissement des relations diplomatiques - et contourne les principaux différends qui continuent d’opposer les parties. Même ainsi, et malgré les dernières concessions arméniennes, il demeure en suspens.

L’Azerbaïdjan veut-il réellement la paix ?

C’est peut-être la question fondamentale à se poser. Un État autocratique qui s’est construit sur, et avec la guerre, peut-il prendre le risque de la paix ?

Quel serait le projet politique alternatif au nationalisme ethnique et guerrier dont le gouvernement d’Ilham Aliev s’est fait le chantre et qui irrigue la société azerbaïdjanaise ? C’est ce dilemme que pointait dans un article le chercheur azerbaïdjanais et activiste pour la paix Bahruz Samadov quelques semaines avant de se faire arrêter et emprisonner par Bakou pour « haute trahison ». Il y soulignait que « pour la société azerbaïdjanaise, le conflit du Haut-Karabakh a été pendant des décennies la cause nationale, servant d’outil majeur de dépolitisation ».

La victoire définitive de 2023 et la « restauration de l’intégrité territoriale » du pays ont créé pour le pouvoir un vide idéologique que celui-ci a cherché à combler par un discours anti-occidental et anti-libéral. Mais ce discours ne fonctionne que s’il repose sur un sentiment anti-arménien. La dénonciation du soutien supposé (et fantasmé) des Occidentaux à l’Arménie est corrélée à la construction de l’Arménien comme figure absolue de l’altérité et la cause de tous les maux touchant les Azéris.

Erevan a beau multiplier les gages de bonne volonté — reconnaissance du Haut-Karabakh comme faisant partie intégrante de l’Azerbaïdjan, rétrocession unilatérale de quatre villages frontaliers à Bakou, concessions majeures sur le texte de l’accord de normalisation… —, Ilham Aliev avance toujours plus de griefs contre Erevan. Le discours public du leader azerbaïdjanais, repris par les médias du pays, totalement contrôlés par l’État, est saturé de références irrédentistes à l’« Azerbaïdjan occidental » – autrement dit l’Arménie actuelle – aux prétendus « génocides » perpétrés par les Arméniens contre les Azéris, puisant dans un renversement en miroir dans l’historiographie du génocide des Arméniens de 1915, dont l’Azerbaïdjan est le premier des négationnistes, et allant jusqu’à refuser à l’Arménie le droit de s’armer. Ces discours sont accompagnés, depuis la reprise violente du Haut-Karabakh en 2023, par une répression effrénée de toute voix indépendante à l’intérieur de l’Azerbaïdjan, qu’elle provienne de journalistes, de militants pour la paix ou d’activistes de la société civile.


À lire aussi : Pourquoi y a-t-il encore des élections présidentielles en Azerbaïdjan ?


Malgré tout cela, l’Azerbaïdjan continue d’occuper un espace géopolitique important aussi bien pour la Russie que pour l’UE qui, ayant augmenté ses importations de gaz azerbaïdjanais, lui offre un traitement de faveur comparé à d’autres autocraties d’Europe orientale, comme le Bélarus. Les attaques contre les Arméniens en 2020, 2022, 2023 et les menaces répétées n’entraînent aucune conséquence matérielle pour Bakou, aucun début de sanction. Bien au contraire, le pays, riche en hydrocarbures, a accueilli la COP29 en novembre dernier. Les leaders et investisseurs européens continuent de visiter l’Azerbaïdjan et de signer des contrats avec ce régime corrompu et répressif qui emprisonne tous ceux qui dénoncent ces violations.

Si les Européens se montrent enthousiastes face à l’accord de paix du 13 mars et tentent par la même occasion de dissuader une agression contre l’Arménie, ils sont toutefois réticents à user d’un quelconque levier de pression. Prendront-ils des mesures de rétorsion concrètes si Bakou venait à envahir l’Arménie ?

Bakou devra peser le pour et le contre d’une attaque contre l’Arménie. Pourquoi attaquerait-il ? Parce qu’il le peut. Il a tous les moyens d’écraser les défenses arméniennes dans le sud du pays et de couper ainsi l’Arménie en deux. Depuis 2020, le régime Aliev prépare le terrain pour ce type d’opération, aussi bien militairement — l’occupation de positions stratégiques dans les régions arméniennes du Syunik et du Vayots Dzor est maintenue et consolidée — que domestiquement, en professant un « retour » sur les « terres historiques azerbaïdjanaises ». Il aura toutefois besoin de la justifier. C’est pourquoi un traité de paix pourrait encombrer une motivation légale de l’attaque. D’où les atermoiements de Bakou tandis que l’Arménie, au contraire, tente de déjouer cette stratégie en se montrant le plus complaisante possible, dans les discours et les actes.

C’est probablement à ce jeu-là que l’on a assisté mi-mars. La détermination de l’Iran, qui s’oppose catégoriquement à toute modification de sa frontière avec l’Arménie, qui plus est au profit d’une jonction territoriale turco-azerbaïdjanaise, est l’un des seuls éléments de dissuasion que l’Azerbaïdjan prend actuellement au sérieux. Mais au vu des transformations géopolitiques qui sont en cours avec la nouvelle administration de Washington, très hostile à l’Iran et cherchant à l’affaiblir, une fenêtre de possibilité s’est peut-être ouverte pour Bakou. Dans un monde devenu de plus en plus imprévisible et où la force fait loi, les régimes comme celui d’Ilham Aliev trouvent un terrain propice à leurs désirs les plus ambitieux.

The Conversation

Anita Khachaturova a reçu des financements de FNRS/FRASH (entre 2021 et 2023) et de l'ULB en 2024, ainsi que le prix Van Buuren

15.04.2025 à 17:32

Violences sexuelles, scandale de Bétharram : ce que révèlent les archives de l’Église

Thomas Boullu, Maître de conférences en histoire du droit, université de Strasbourg, Université de Strasbourg

Le scandale Notre-Dame de Bétharram a relancé la question des violences sexuelles au sein de l’Église et des établissements d’enseignement catholiques. Que fait l’Église pour lutter contre ces crimes ?
Texte intégral (3761 mots)

Avec le scandale de Notre-Dame de Bétharram, la question des violences sexuelles au sein de l’Église et des établissements d’enseignement catholiques est à nouveau au cœur de l’actualité. Le rapport Sauvé (2021) estimait à 330 000 le nombre de victimes depuis les années 1950 (un tiers des abus auraient été commis dans les établissements scolaires). L’Église, qui a multiplié les dispositifs et communications depuis les années 2000, agit-elle efficacement contre ces crimes ? L’État et la justice civile ont-ils changé de posture face à une institution religieuse très autonome qui a longtemps dissimulé ces violences ? Quid du cas particulier de Bétharram et de François Bayrou ? Entretien avec Thomas Boullu, historien du droit, qui a enquêté au sein des diocèses et des communautés afin de comprendre l’évolution du phénomène.


The Conversation : Comment avez-vous mené votre enquête historique sur les violences sexuelles commises par des prêtres, dans le cadre du rapport Sauvé finalisé en octobre 2021 ?

Thomas Boullu : La commission indépendante sur les abus sexuels dans l’Église (Ciase), dirigée par Jean-Marc Sauvé, a proposé à plusieurs équipes de chercheurs d’enquêter sur les abus sexuels sur mineurs et sur les personnes vulnérables au sein de l’Église catholique depuis les années 1950. Une équipe a proposé une méthode d’analyse quantitative aboutissant à une estimation de 330 000 victimes. L’équipe à laquelle j’appartenais a fait un travail historique et qualitatif fondé sur l’étude d’archives.

Pendant deux ans, avec Philippe Portier, Anne Lancien et Paul Airiau, nous avons fouillé 30 archives diocésaines et 14 archives de congrégations de communautés et d’associations de fidèles pour essayer de comprendre ce qui explique la grande occurrence de ces violences sexuelles. Nous avons également utilisé les signalements faits par l'intermédiaire d’une cellule d’appel. Au total, nous avons identifié 1 789 individus auteurs condamnés ou accusés de violences sexuelles.

Sur place, lors de nos visites, l’accueil n’était pas toujours le même. Il était parfois très bon et la collaboration sincère. Dans d’autres cas, on nous a refusé tout accès, comme à Bayonne, dont dépend Notre-Dame de Bétharram. Il est également arrivé que les évêques nous accueillent, mais taisent volontairement l’existence de certaines archives compromettantes. Dans les congrégations et les communautés, l’expérience était toujours particulière. Certaines donnent le sentiment de vivre un peu hors du monde, comme chez les frères de Saint-Jean où mon arrivée coïncidait avec un jour de silence pour l’ensemble des frères. Ce qui n’est pas toujours pratique lorsqu’on enquête…

T. C. : Qu’a fait l’Église pour agir contre les violences sexuelles depuis le rapport Sauvé, il y a plus de trois ans ?

T. B. : La principale réforme est celle de la mise en place de l'Instance nationale indépendante de reconnaissance et de réparation (Inirr) pour les victimes. Cette dernière permet notamment de pallier l'impossibilité pour les victimes de se présenter devant la justice des hommes lorsque les faits sont prescrits ou lorsque l'auteur est décédé.

Au-delà de cette instance, la plupart des diocèses se sont engagés auprès de la justice en concluant des protocoles avec les parquets. Ces accords précisent que l’évêque s’engage à dénoncer ceux des prêtres placés sous son autorité qui sont suspectés d’avoir commis des violences sexuelles. Cette pratique avait commencé avant notre enquête, mais il y a eu une généralisation. Ces accords sont des accords particuliers entre l’Église et l’État. Comme si la dénonciation n’allait pas de soi. Ces protocoles – dont la valeur juridique peut largement être interrogée – sont assez surprenants et semblent, parfois, être un stigmate d’un ancien monde où l’Église fonctionnait à l’écart de la société civile.

Outre ces protocoles, des cellules d’écoute des victimes sont présentes presque partout maintenant dans les diocèses. Elles associent parfois des juristes, des procureurs, des psychologues, représentants d’associations et des membres de l’administration diocésaine. Mais, là encore, cela est piloté par l’Église qui se présente, au regard de ses paroissiens, comme apte à réagir en mettant en place des institutions nouvelles.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Dans sa relation avec les tribunaux laïques (il existe des tribunaux canoniques), comme pour les cellules d’écoute, l’Église reste en partie pensée comme une « société parfaite », capable de gérer ces questions toute seule.

Dans l’ensemble, depuis les années 1950, un nombre important d’instances sur les problématiques sexuelles sont mises en place par l’Église, bien avant la commission Sauvé. Cette dernière réagit, comme elle le fait depuis des siècles, en traitant le problème en interne par la mise en place d’institutions, de politiques, de sanctions, de déplacements. La logique des sanctions prises par l’Église emprunte beaucoup au droit canonique et à son évolution. Il faut rappeler que si l’État limite la juridiction de l’Église à partir du XIVe siècle, cette dernière dispose au cours du Moyen Âge d’une vaste compétence en droit pénal. Contrairement au droit laïque, essentiellement répressif, le droit pénal canonique met en avant la repentance, le pardon, la réinsertion, le salut de l’âme.

Le prêtre fautif peut être amené à faire le jeûne, ou « tenir prison », c’est-à-dire se retirer dans une abbaye ou dans une trappe pour méditer sur ses fautes. On peut également faire l’objet d’un déplacement ou être placé dans des cliniques – réservées aux « prêtres dans la brume ». Ces dernières se multiplient à compter des années 1950 pour soigner les clercs souffrant d’alcoolisme, de maladies psychiatriques ou des auteurs d’agressions sexuelles.

Dans le diocèse de Bayonne, le même que celui de Bétharram, une clinique particulière s’installe à Cambo-les-Bains, entre 1956 et 1962. Elle sera ensuite déplacée à Bruges, près de Bordeaux.

Si sauver l’âme de l’auteur est impossible, reste la sanction ultime : l’excommunication, mais elle est rare.

T. C. : L’Église, qui possède une culture de sanctions propre, se soumet-elle désormais à la justice civile ?

T. B. : L’Église peine à se départir de son propre mode de fonctionnement qui a régi sa politique pendant plusieurs siècles, mais il faut toutefois noter une récente évolution et un rapprochement avec la justice des hommes.

L’Église se transforme du fait de plusieurs dynamiques profondes qui la dépassent, notamment en raison d’une évolution des mentalités collectives vis-à-vis des violences sexuelles. Au XVIIIe  ou au XIXe siècles, ce n’est pas l’agresseur sexuel qu’on craint en premier. La société a davantage peur du voleur de nuit qui rôde et qui s’introduit dans les maisons et égorge ses habitants. La figure du criminel « pédophile » comme image du mal absolu est relativement récente. Les écrits de Tony Duvert ou de Gabriel Matzneff sont encore tolérés dans les années 1970-1980. Avec l’affaire Dutroux de 1996, le monde occidental connaît toutefois une nette évolution qui pénètre aussi l’Église : les paroissiens comme les prélats acceptent de plus en plus mal ces infractions.

La deuxième raison qui fait évoluer l’institution, c’est la question de la gestion des risques. En 2001, on a la première condamnation d’un évêque – l’évêque de Bayeux, Monseigneur Pican. Elle donne lieu à de très nombreux courriers au sein de l’épiscopat entre les prêtres eux-mêmes, au sein de la Conférence des évêques de France et même avec le Vatican. Ces courriers montrent bien qu’il y a une inquiétude. Le monde de l’Église se rend compte qu’il s’expose à des sanctions pénales pouvant aller jusqu’à la prison.

En conséquence, les évêques commencent à consulter des avocats qui leur expliquent que les anciennes pratiques ne sont plus acceptables et les exposent à des condamnations. Une lettre rédigée par un avocat retrouvée dans les archives conseille, par exemple, aux évêques de supprimer les documents compromettants et de changer leur mode de gouvernance.

À partir de 2001, des réunions se tiennent au 106, rue du Bac, à Paris. Elles seront fréquentes et réunissent des évêques, des théologiens et des juristes réputés proches de l’Église. Des documents compromettants y circulent. Ce « groupe du 106 » envisage une communication plus large pour lutter contre ces abus, sans que la justice pénale ne s’en mêle. En 2001, une brochure est distribuée dans l’intégralité des paroisses pour lutter contre la pédophilie. C’est une première initiative qui traduit une évolution.

T. C. : L’Église a-t-elle couvert des crimes sexuels avec la tolérance de la justice ou d’institutions civiles ?

T. B. : Jusque dans les années 1960-1970, de nombreux procureurs acceptent de ne pas engager des poursuites contre un prêtre, voire de ne pas les arrêter, afin de permettre l’extraction du suspect. Les courriers entre les procureurs et les évêques, retrouvés dans les archives, montrent que ces derniers s’engageaient à retirer leur prêtre dans une logique de gestion interne et afin d’interrompre le trouble à l’ordre public. La plupart de ces lettres datent des années 1950.

Par la suite, ces pratiques tendent à reculer. Dans les années 1970, puis encore davantage dans les années 1980, les affaires sont plus difficiles à étouffer pour ces procureurs. La magistrature d’influence catholique recule au profit de nouveaux juges laïcs ou athées. J’ai pu découvrir des archives récentes où les procureurs sollicitent des entretiens avec les évêques pour faire le point comme ils s’adresseraient à des autorités au sein de leur territoire.

Dans ces écrits, il n’y a plus de place pour la dissimulation, mais pour une collaboration au service de la justice civile. C’est ainsi que ces protocoles parquet/diocèse doivent être compris. Des relations particulières entre les procureurs et les évêques peuvent subsister, mais la justice civile domine celle de l’Église. Concrètement, les prêtres et les évêques doivent donc dénoncer les leurs lorsqu’ils ont eu vent d’une agression sexuelle.

T. C. : Qu’avez-vous découvert dans vos archives concernant les relations entre médias et institution religieuse ?

T. B. : Pour que l’Église fonctionne en « société parfaite », elle a longtemps eu besoin de relais. Ces relais se trouvaient dans la magistrature, dans le monde politique et, globalement, dans la plupart des milieux influents. Nos archives nous montrent l’existence de ces relais dans les médias des années 1950, 1960 et 1970.

Des années 1950 aux années 1970, on trouve des lettres de responsables de journaux qui s’adressent à leurs évêques en leur disant : « Cher ami, Monseigneur, j’ai l’information sur notre territoire de plusieurs agressions sexuelles. Bien entendu, je ne ferai pas de papiers, mais, attention, le bruit pourrait s’ébruiter. »

Dans l’autre sens, nous avons trouvé des archives d’évêques qui écrivent au journal local sur le mode « Cher ami, le prêtre X est passé en jugement. Nous vous serions gré de ne pas rédiger d’articles sur ce sujet afin qu’un scandale n’éclabousse pas davantage notre institution ». Et les journaux – dans une logique de bonne collaboration au sein du territoire – acceptent les doléances de l’évêque et ne publient aucune information sur le sujet.

Désormais, l’Église ne bénéficie plus de ces relais. Les médias publient beaucoup sur le sujet des violences sexuelles et n’épargnent plus l’Église.

T. C. : Qu’en est-il des violences sexuelles dans les établissements scolaires à la suite du scandale de Bétharram ? François Bayrou est soupçonné d’avoir protégé cette institution…

T. B. : François Bayrou assume une certaine proximité avec des courants catholiques conservateurs ou faisant l’objet de nombreuses critiques. Il reconnaît en particulier être proche de la communauté des Béatitudes, fondée dans les années 1970 au lendemain du concile Vatican II et qui fait l’objet de très nombreuses plaintes pour phénomène sectaire et pour diverses agressions sexuelles.

Je crois que la question de Bétharram – entendue sous un angle politique – dépasse la simple question de la responsabilité de François Bayrou en matière de non-dénonciation. Elle pose également la question de la pertinence pour un premier ministre d’être proche de cette communauté. Cette dernière procédait à des séances de guérisons collectives et traverse des scandales de manière presque ininterrompue depuis sa fondation. De manière plus large, c’est aussi la question de la frontière entre la foi d’un homme politique et ses actions pour le bien de la nation qui est posée.

T. C. : Dans le rapport Sauvé, un tiers des violences sexuelles dénombrées a lieu dans des établissements catholiques. Élisabeth Borne a déclaré qu’il y aurait un plus grand nombre de contrôles désormais, ils étaient extrêmement faibles jusqu’à présent…

T. B. : Notre étude pointe du doigt les violences sexuelles commises dans les établissements scolaires catholiques. Les violences perpétrées dans les années 1950-1960 ou 1970 sont légion. Elles sont souvent commises en milieu scolaire ou dans le cadre du « petit séminaire » qui, éventuellement, prépare ensuite à une carrière ecclésiale. Dans bon nombre de ces institutions, les enfants dorment alors sur place. Il y a des dortoirs avec des individus chargés de les surveiller, de la promiscuité.

Ce sont les FEC, les Frères des Écoles chrétiennes, qui arrivent en tête des congrégations en termes du nombre d’agresseurs sexuels. D’autres congrégations suivent, comme les Frères maristes ou les Frères de l’instruction de Ploërmel. Si on ajoute les jésuites – qui assurent également des missions d’enseignement –, il y a une nette prévalence de ces institutions par rapport aux autres.

À partir des années 1970, avec un net mouvement de laïcisation et le recul de l’enseignement catholique, les violences sexuelles au sein de ces institutions tendent à diminuer. Ces congrégations enseignantes ont une activité très résiduelle voire nulle aujourd’hui. Les collèges et les lycées privés actuels ne sont guère comparables avec les anciennes institutions et les agressions y sont assurément moins nombreuses.

T. C. : Les violences contemporaines sont plutôt situées dans les diocèses désormais ?

T. B. : Absolument. Si les violences sexuelles au sein des établissements scolaires catholiques continuent à exister, la plupart des agressions ont surtout lieu dans les diocèses, au cœur des paroisses désormais.

Cette évolution se mesure d’ailleurs si l’on observe le profil des victimes et des agresseurs. Dans les années 1950-1960 ou 1970, la victime type identifiée par les archives est un garçon placé auprès des congrégations enseignantes et qui, en moyenne, a entre 7 et 10 ans. Désormais, le profil premier des personnes abusées, ce sont des jeunes filles de 13, 14, 15 ans. Des paroissiennes qui sont au contact du curé et qui ont des liens privilégiés avec lui.

Cas typique : les parents de la victime sont amis avec le curé, fréquemment invité à manger ou à dormir à la maison. Dans d’autres cas, les parents ne s’occupent pas de l’enfant, et le prêtre se considère comme responsable de son éducation. Un rapport de domination s’installe, susceptible de dériver vers une agression.

Le troisième modèle, fréquemment rencontré, est celui mieux connu des centres de vacances ou du scoutisme. C’est le cas dans l’affaire Preynat qui a dérivé sur l’affaire du cardinal Barbarin que les journaux ont largement relayé et dont le scandale est à l’origine de la formation de la commission Sauvé.

T. C. : Quid des violences sexuelles dans les « communautés nouvelles » ?

T. B. : Les communautés nouvelles naissent au cours des années 1970. Elles s'inscrivent dans un mouvement désigné sous le terme de renouveau charismatique qui suppose un rapport particulier avec la grâce et une relation repensée avec Jésus-Christ. J’ai cité les Béatitudes, mais on peut également évoquer le Chemin neuf ou les Puits de Jacob. De manière générale, les années 1970 donnent lieu à la création de nombreuses nouvelles structures ou communautés qui – même si elles se détachent parfois du mouvement charismatique – vont être sévèrement touchées par la question des violences sexuelles.

Dans nombre de ces structures, on note la fréquence de grappes d’agresseurs sexuels. Ces foyers sont souvent à l’écart des villes, dans des endroits un peu reclus, où l’on vit en totale synergie et communauté. À compter des années 1970, les archives montrent que de nombreuses agressions ont lieu dans ces nouvelles communautés. Par exemple, 40 individus ont ainsi été identifiés dans la communauté des Frères de Saint-Jean. En outre, les agresseurs de ces communautés sont davantage multirécidivistes que dans les congrégations enseignantes.

T. C. : Quelle est la sociologie des auteurs de violences sexuelles dans l’Église ?

T. B. : Comme pour les victimes, il y a une évolution du profil des auteurs au cours du siècle. Dans les années 2020, le prêtre agresseur a 58 ans en moyenne alors qu’il n’a que 38 ans en moyenne dans les années 1950. Cette évolution s’explique principalement par le vieillissement progressif de la population cléricale en France. Les jeunes sont également moins concernés actuellement en raison de la qualité de la formation au grand séminaire qui évolue entre les années 1950 et 2020. Sans être absolument centrale, la problématique de la sexualité est un peu mieux appréhendée – ce qui pourrait expliquer le recul des agresseurs jeunes dans nos statistiques.


Propos recueillis par David Bornstein.

The Conversation

Thomas Boullu a reçu des financements de l’Anr (projet fermegé), de la CEF (Ciase).

15.04.2025 à 17:30

La guerre silencieuse des hackers éthiques

Patrice Cailleba, Professeur de Management, PSB Paris School of Business

Nicolas Dufour, Professeur affilié, PSB Paris School of Business

Les hackers éthiques mènent une guerre silencieuse contre les cybercriminels. Ce silence protège ceux et celles qui doivent protéger nos données.
Texte intégral (1619 mots)
Les hackers éthiques se font embaucher par des entreprises ou des collectivités pour tester la résistance aux cyberattaques de leurs systèmes informatiques. Guillaume Issaly, Unsplash, CC BY

Les hackers éthiques se font embaucher par des entreprises ou des collectivités pour tester la résistance aux cyberattaques de leurs systèmes informatiques. Leur guerre silencieuse protège ceux et celles qui doivent protéger nos données.


Experts dans la lutte contre la cybercriminalité, les hackers éthiques travaillent à protéger et renforcer la sécurité informatique des entreprises et des États qui font appel à eux. Selon le site communautaire HackerOne, qui regroupe plus de 600 000 hackers éthiques à travers le monde, le premier dispositif qui a consisté à récompenser des hackers pour identifier les problèmes d’un programme informatique ou d’un système d’exploitation remonte à 1983 : on parle alors de bug bounty programme, ou « programme de prime aux bogues » en français.

Depuis lors, ces bug bounty programmes se sont multipliés. En 2020, les hackers éthiques de la plate-forme hackerone auraient résolu plus de 300 000 défaillances et vulnérabilités informatiques en échange de plus de 200 millions de dollars de primes, ou bounties.

En matière de sécurité et de défense, l’emploi de ruses, quelles qu’elles soient, ne se fait ni au grand jour ni avec grand bruit. Dans une étude pionnière sur ce thème, nous avons examiné ce qui constitue l’éthique silencieuse des hackers éthiques dans la guerre qu’ils et elles mènent aux cybercriminels.

De manière générale, les hackers éthiques se spécialisent dans les tests d’intrusion informatique auprès d’entreprises consentantes, afin d’en explorer les vulnérabilités et de proposer des actions correctrices le cas échéant.

Leur silence assure tout à la fois la transmission des connaissances (par imitation, seul devant l’écran), la formation et l’acquisition des compétences, mais aussi la socialisation au sein d’une communauté et d’un métier ainsi que la promotion de leur expérience et de leur réputation. Toutes ces dimensions sont concrètement liées et se répartissent en fait autour de trois moments : avant, pendant et après la mission de hacking éthique.


Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Avant la mission

Tout d’abord, les hackers éthiques doivent acquérir et développer les compétences techniques nécessaires pour devenir de véritables testeurs capables de détecter des vulnérabilités, plus globalement des failles de sécurité, à savoir des professionnels diplômés et légitimes. Or, leur formation commence souvent dès l’adolescence, de manière isolée, bien avant d’entrer dans l’enseignement supérieur. Par la suite, l’accès à une formation de hacker éthique est longtemps resté difficile en raison du faible nombre de l’offre en tant que telle. Cependant, ces formations ont considérablement crû récemment et gagné en visibilité en France et surtout aux États-Unis.

Lorsqu’une entreprise fait appel à des hackers éthiques, elle le fait sans trop de publicité. Les appels d’offres sont rares. Des plates-formes spécialisées américaines comme HackerOne mettent en relation des entreprises demandeuses et des hackers volontaires. Toutefois, les contrats ne sont pas rendus publics : ni sur les missions, ni sur le montant de la prime, ni sur les résultats…

Les termes du contrat relèvent par définition du secret professionnel : avant de procéder à un test d’intrusion, il est important d’obtenir le consentement des propriétaires du système sur ce qu’il est possible de faire ou de ne pas faire.

Pendant la mission

Lors des tests d’intrusion, les hackers éthiques ont accès à des informations sensibles ou confidentielles sur l’organisation (données informatiques mais aussi financières, logistiques… sans oublier les brevets) et sur ses employés (données fiscales, administratives, etc.). Le secret professionnel autour des informations collectées directement ou indirectement est essentiel.

De même, les vulnérabilités et les failles découvertes pendant la mission doivent toutes être signalées uniquement au commanditaire, sans les rendre publiques ou s’en servir par la suite.

Le hacking éthique n’a pas le même cadre juridique de pays à pays : les lois et les réglementations locales correspondent rarement, que ce soit en Europe ou au sein d’États fédéraux, par exemple en Inde ou aux États-Unis. Le cadre légal changeant oblige ainsi les hackers à la plus grande discrétion, à la demande et pour le bien de leur employeur.

Après la mission

À la fin d’une mission, les obligations des hackers éthiques ne s’arrêtent pas pour autant. Contractuellement, ils n’ont plus le droit de s’introduire dans le système de l’organisation cliente. En même temps, ils doivent effacer toute trace de leur passage et de leur activité et cesser toute forme de tests.

En outre, les hackers éthiques ne doivent divulguer ni ce qui a été vu (informations stratégiques, données privées, défaillances et vulnérabilités identifiées, etc.), ni ce qui a été fait, ni stocker les données collectées. Ils ne doivent pas non plus vendre ces données collectées. Le secret professionnel est de rigueur, autant que le maintien des relations avec chaque client est rendu nécessaire pour assurer le bon suivi des opérations réalisées.

La difficulté pour les hackers éthiques tient au fait de se prévaloir de leur expérience pour des missions à venir auprès de potentiels clients. Ceci doit être fait de manière modérée, à savoir en respectant les règles de confidentialité et sans être identifié à leur tour comme une cible par des concurrents potentiels, voire, surtout, par des hackers criminels.

On retrouve à chaque étape de la mission les règles de confidentialité ayant trait au secret professionnel. Concrètement, les hackers éthiques peuvent être soumis au secret professionnel par mission (en tant que prestataire pour un organisme public de santé par exemple) ou par fonction (en tant que fonctionnaire). Toutefois, pour le moment, ils ne sont pas soumis au secret professionnel en tant que profession.

À mesure de la numérisation grandissante des activités humaines et professionnelles, la cybersécurité phagocyte une grande partie des problématiques sécuritaires, qu’elles soient intérieures et extérieures, publiques et privées. Il ne s’agit plus de travailler à une synergie opérationnelle entre services au sein des organisations, mais plutôt à intégrer de manière systémique la menace cyber et sa prise en charge pour l’ensemble de l’organisation et ses parties prenantes (employés, clients, fournisseurs et société civile en général).

Le silence est l’élément fondamental de la formation (avant la mission), la socialisation (avant et pendant la mission) et la réputation (après la mission) des hackers éthiques. Ce silence transmet et enjoint, socialise et promeut, mais aussi protège ceux qui doivent protéger les données de tout un chacun.

Être hacker éthique constitue au final un engagement opérationnel mais aussi civique, voire politique, qui oblige les organisations publiques et privées à aligner davantage stratégie et éthique, au risque de se mettre en danger.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

15.04.2025 à 12:21

Violences sexistes et sexuelles dans la culture : « Mon audition à l’Assemblée nationale »

Marie Buscatto, Professeure de sociologie, Université Paris 1 Panthéon-Sorbonne

La chercheuse Marie Buscatto a été auditionnée par la commission d’enquête de l’Assemblée nationale sur les violences sexistes et sexuelles dans la culture.
Texte intégral (1240 mots)
Marie Buscatto, professeure de sociologie à l’Université Paris 1 Panthéon-Sorbonne, est co-autrice d’un article sur les violences sexistes et sexuelles à l’Opéra, publié en mars 2024. Assemblée nationale, Fourni par l'auteur

Que se passe-t-il pour nos auteurs après la parution d’un article ? Depuis janvier 2025, The Conversation France répertorie les impacts de ses publications sur la société. Voici l’exemple de Marie Buscatto, professeure de sociologie à l’Université Paris 1 Panthéon-Sorbonne, co-autrice d’un article sur les violences sexistes et sexuelles à l’Opéra, paru en mars 2024. Le 16 décembre 2024, la chercheuse a été convoquée pour être auditionnée par la commission d’enquête de l’Assemblée nationale sur les violences dans les secteurs du cinéma, de l’audiovisuel, du spectacle vivant, de la mode et de la publicité.

Le 9 avril 2025, le rapport très sévère de cette commission d’enquête a été présenté par ses deux rapporteurs, Sandrine Rousseau et Erwan Balanant. L’occasion de revenir sur les événements qui ont amené Marie Buscatto jusqu’au Parlement, pour y présenter les conclusions de ses travaux de recherches.


The Conversation : Que s’est-il passé après la publication de votre article sur notre site, en mars 2024 ?

Marie Buscatto : En collaboration avec mes collègues Ionela Roharik (EHESS) et la chanteuse lyrique Soline Helbert (pseudonyme), nous avons mené une enquête empirique dans le monde de l’opéra, dont les principaux résultats ont été relayés par The Conversation. L’article, publié le 6 mars 2024, a eu un fort impact médiatique : j’ai été interviewée sur France Musique et Radio Classique, ainsi que par l’AFP, par la Croix, par 20 Minutes ou encore par le Canard enchaîné. Notre objectif principal était alors de rendre les résultats de notre recherche accessibles au grand public afin de nourrir le débat sur un sujet difficile et brûlant. Et même si je n’en ai aucune preuve, je pense que l’écho médiatique suscité par cet article paru dans The Conversation a été premier dans l’invitation que j’ai reçue.

Cela est d’autant plus remarquable que l’audition à laquelle j’ai participé était la seule où figuraient des universitaires, toutes les autres auditions étant consacrées à des personnes évoluant dans les secteurs concernés.

T. C. : Quelle était la teneur de cet article, dont vous avez rendu compte lors de votre audition ?

M. B. : Lors de notre enquête, l’Opéra est apparu comme un monde professionnel propice à la mise en œuvre de violences sexistes et sexuelles, où règnent à la fois une forte précarité, beaucoup d’incertitude professionnelles, une hypersexualisation des chanteuses, la prépondérance des capacités de séduction physique dans les critères de recrutement et dans les interactions sociales et une tolérance des personnels vis-à-vis de ce qu’on a appelé les dérives des grands noms du spectacle.

Nombreux sont les éléments structurels participant ainsi à produire et à légitimer « un continuum » de violences sexistes et sexuelles récurrentes. En outre, ces violences font l’objet de faibles niveaux de dénonciation et affectent les carrières des femmes artistes, techniciennes et gestionnaires.

T. C. : Estimez-vous, comme la commission d’enquête, qu’il manque des statistiques fiables dans les secteurs visés, depuis l’enquête Virage de 2015 sur les violences et rapports de genre (Ined) ?

M. B. : C’est ce que j’ai indiqué au moment de l’audition, et cela a en effet été repris dans la recommandation 11 du rapport de la commission : nous manquons cruellement de recherches universitaires de qualité menées par des chercheurs, des chercheuses expérimentées sur ce sujet, et ce, faute de financement par les institutions publiques. Notre recherche sur l’Opéra est pionnière et devrait être suivie de recherches dans tous les secteurs artistiques pour nourrir l’analyse et l’action de manière appropriée. Ces recherches qualitatives devraient être complétées par des statistiques fiables menées par des organismes compétents.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


T. C. : Comment avez-vous vécu votre travail avec notre rédaction ?

M. B. : La collaboration a été très enrichissante et fructueuse. Nos échanges ont permis la rédaction d’un article qui, tout à la fois, préserve l’essentiel de notre démarche et de nos résultats et reste accessible aux personnes désireuses de prendre connaissance de nos travaux scientifiques.

T. C. : Sur quels projets travaillez-vous actuellement ?

M. B. : En lien avec cette première enquête empirique, et en collaboration avec mes collègues Mathilde Provansal (Université de Ludwig-Maximilians, Munich, Allemagne) et Sari Karttunen (Center for Cultural Policy Research-Cupore, Helsinki, Finlande), nous préparons la publication d’un ouvrage scientifique en anglais rassemblant des cas empiriques portant sur les violences de genre dans les arts et la culture en France, au Japon, aux États-Unis, en Finlande et en Angleterre.

Les principales conclusions tirées de ces travaux prolongent, approfondissent et généralisent les premiers résultats tirés de notre enquête à l’Opéra et feront peut-être l’objet d’une nouvelle publication dans The Conversation en juin 2025, au moment de la sortie de l’ouvrage.


Entretien réalisé par Tatiana Kalouguine.


Chez The Conversation, nous considérons que la recherche éclaire le monde et qu’elle peut aussi contribuer à le transformer. Pour cette raison, nous mesurons désormais les répercussions concrètes de nos publications sur la société, la politique, la recherche. En janvier 2025 est paru le premier rapport d’impact de The Conversation France.

The Conversation

Marie Buscatto ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

15.04.2025 à 11:12

Activité physique et santé : aménager nos espaces de vie pour contrer notre tendance au moindre effort

Boris Cheval, Associate professor, École normale supérieure de Rennes

Neville Owen, Distinguished Professor, Swinburne University of Technology and Senior Scientist, Physical Activity Laboratory, Baker Heart and Diabetes Institute, Baker Heart and Diabetes Institute

Silvio Maltagliati, Maître de conférence , Université Bretagne Sud (UBS)

L’inactivité physique est souvent attribuée à un manque de motivation individuelle. Cette perspective minimise le rôle des lieux de vie où les opportunités de bouger sont trop rares.
Texte intégral (2421 mots)

Le manque d’activité physique et la sédentarité sont souvent attribués à un manque de motivation individuelle. Réductrice et contre-productive, cette perspective minimise le rôle crucial des lieux de vie, de travail, de loisirs ou encore d’études, où les opportunités de bouger sont trop rares et celles de rester assis trop nombreuses.


Malgré la prise de conscience des bienfaits de l’activité physique pour la santé physique et mentale, les niveaux d’inactivité continuent d’augmenter dans le monde. L’inactivité physique est l’un des principaux problèmes de santé dans le monde. La France n’est pas épargnée.

Lutter contre la « pandémie » d’inactivité physique

En 2022, 31,3 % de la population mondiale était inactive, contre 23,4 % en 2000 et 26,4 % en 2010. Les adolescents sont particulièrement touchés, puisque, à travers le monde, 80 % des 11-17 ans ne pratiquent pas les soixante minutes d’activité modérée à vigoureuse quotidiennes. À l’échelle mondiale, l’inactivité physique serait responsable de 4 à 5 millions de décès chaque année, soit une vie perdue toutes les six à huit secondes.

En France, la situation est similaire. Un rapport de Santé publique France paru en septembre 2024 montre que les niveaux d’activité restent insuffisants, surtout chez les femmes, les enfants, les adolescents et les populations défavorisées. Selon l’Agence de sécurité sanitaire française (Anses), 95 % des adultes sont exposés à un risque pour la santé du fait d’un manque d’activité physique et d’un temps trop long passé assis (ou sédentarité).


Chaque mardi, le plein d’infos santé : nutrition, bien-être, nouveaux traitements… Abonnez-vous gratuitement dès aujourd’hui.


Pour lutter contre cette « pandémie » d’inactivité et atteindre l’objectif de l’Organisation mondiale de la santé (OMS) qui vise à réduire l’inactivité de 15 % d’ici 2030, il est essentiel de mieux comprendre l’ensemble des facteurs qui influencent l’activité physique. Parmi eux, le rôle de l’environnement bâti et des facteurs sociaux mérite une attention particulière.

À noter que l’environnement bâti (ou built environment, en anglais) désigne l’ensemble des espaces construits ou modifiés par l’être humain, dans lesquels les gens vivent, travaillent, se déplacent et interagissent. Il comprend notamment les bâtiments (résidentiels, commerciaux, industriels, etc.), les infrastructures de transport (routes, trottoirs, pistes cyclables, transports en commun), ou encore les espaces publics aménagés (places, parcs urbains, installations sportives).

L’environnement bâti et les facteurs sociaux : des éléments déterminants

L’activité physique ne dépend pas uniquement de la motivation individuelle, mais résulte d’un ensemble d’influences, allant des caractéristiques personnelles aux politiques publiques.

Le modèle écologique, inspiré des travaux de Kurt Lewin, soutient que le comportement humain se construit à l’intersection de l’individu et de son environnement. Cette approche rejoint le concept d’« affordance » de Gibson (ou « opportunités d’action ») qui montre comment les propriétés d’un environnement peuvent faciliter ou freiner certaines actions.

Le modèle écologique moderne, souvent associé à Bronfenbrenner, précise cette idée en identifiant cinq niveaux d’influence interconnectés : le niveau intrapersonnel (les facteurs individuels tels que l’âge ou les motivations), le niveau interpersonnel (les relations sociales et le soutien familial), le niveau organisationnel (écoles, clubs sportifs), le niveau communautaire (urbanisme, infrastructures) et le niveau politique (réglementations, investissements publics).

Nouveau, la newsletter Science ! Tous les 15 jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique. Abonnez-vous !

Tel qu’il a été appliqué à l’activité physique, ce modèle met en évidence le rôle central de l’environnement bâti. Il est désormais soutenu par un ensemble de preuves internationales. Des infrastructures adéquates – telles que les pistes cyclables, les trottoirs, et les espaces verts – favorisent l’activité physique dans divers contextes (mobilité, loisirs, travail/école, domicile).

À l’inverse, l’absence d’équipements appropriés ou un environnement dominé par des infrastructures favorisant la sédentarité limite ces opportunités. Le modèle écologique souligne également les interactions entre les différents niveaux ; par exemple, un cycliste motivé peut être découragé si les pistes cyclables semblent dangereuses, ou une personne désireuse de nager peut renoncer à cette activité si la piscine la plus proche est trop éloignée.

Des disparités au détriment des zones défavorisées et milieux ruraux

Les inégalités sociales exacerbent ces disparités. Les quartiers privilégiés disposent généralement d’infrastructures sportives modernes, accessibles et sécurisées, tandis que les zones défavorisées sont confrontées à de nombreux obstacles : infrastructures vieillissantes, manque d’espaces dédiés et sentiment d’insécurité.

Ces conditions découragent particulièrement les groupes qui se sentent davantage en insécurité, c’est-à-dire les femmes, les enfants et les personnes âgées. Par ailleurs, ces inégalités se manifestent aussi entre les milieux urbains et ruraux. Dans les territoires ruraux, bien que des espaces naturels existent, l’absence d’aménagements spécifiques et les longues distances jusqu’aux infrastructures limitent les opportunités de pratique physique.

Comprendre la tendance naturelle à minimiser l’effort

La théorie de la minimisation de l’effort en activité physique (Tempa) postule que les êtres humains ont une tendance naturelle à éviter les efforts physiques non nécessaires. Ce mécanisme, profondément ancré au niveau biologique, influence la manière dont nous interagissons au sein de nos environnements.

Cette tendance a des racines évolutives : dans un passé lointain où la conservation de l’énergie était cruciale pour la survie, minimiser l’effort permettait d’optimiser les ressources disponibles, améliorant ainsi les chances de survie et de reproduction.


À lire aussi : Nous sommes programmés pour la paresse


Cependant, dans nos sociétés modernes où la sédentarité est omniprésente, ce mécanisme de minimisation de l’effort, autrefois avantageux, devient désormais un facteur de risque pour la santé. Nous avons tendance à être attirés par des activités peu exigeantes d’un point de vue énergétique, telles que l’utilisation de moyens de transport motorisés ou de loisirs sédentaires comme regarder la télévision.

L’aménagement de nos espaces de vie et de travail renforce cette tendance. Les technologies facilitent les tâches ménagères, réduisant ainsi les occasions de bouger, tandis que les transports motorisés encouragent l’inactivité, même pour de courtes distances.

Enfin, dans le cadre professionnel et scolaire, des environnements peu modulables, avec des bureaux fixes, ne favorisent pas l’activité physique. Par exemple, en France, selon nos calculs, un élève passerait l’équivalent d’une année entière (nuits incluses), en position assise. Ce constat interpelle. Les opportunités sédentaires sont omniprésentes, et ce legs de l’évolution nous incite à nous y adonner naturellement, ce qui rend le maintien d’une activité physique régulière difficile pour beaucoup.

En d’autres termes, il ne faut pas négliger le rôle crucial des environnements dans l’explication de nos comportements, lesquels ne sont pas uniquement régis par des processus rationnels, mais aussi par des mécanismes plus automatiques ou spontanés.

Dans des domaines autres que l’activité physique, la prolifération des fast-foods ou les crises financières aux États-Unis, par exemple, peuvent expliquer en grande partie, respectivement, l’augmentation des taux d’obésité ou les difficultés d’épargne des ménages, comme le rappelle Loewenstein. De même, il serait réducteur de considérer ces phénomènes uniquement comme des questions de motivation individuelle.

Associer l’activité physique à des expériences agréables et motivantes

Le cadre théorique du moindre effort offre une approche novatrice pour concevoir des interventions de santé publique qui favorisent l’activité physique et réduisent le temps sédentaire, en adoptant une double stratégie : faire de l’activité physique l’option comportementale par défaut et garantir une expérience positive dès sa pratique. En réduisant l’accessibilité des équipements qui impliquent une faible dépense d’énergie, par exemple les escaliers mécaniques, on peut encourager des comportements plus actifs. Toutefois, cette approche seule ne suffit pas à assurer un engagement durable.

Et, par ailleurs, il est essentiel que les environnements restent pleinement adaptés aux personnes à mobilité réduite ou avec d’autres besoins spécifiques. Mais les options qui limitent l’activité physique ne doivent pas être celles qui sont rendues accessibles par défaut.

Il est également capital d’associer l’activité physique à des expériences agréables et motivantes, notamment par l’ajustement de l’intensité de l’effort ou l’intégration de stimuli positifs, tels que la musique et des environnements naturels plaisants, pour augmenter le plaisir perçu et diminuer la sensation d’effort.


À lire aussi : Pourquoi mettre en avant ses bénéfices pour la santé ne suffit pas à promouvoir une activité physique régulière


L’efficacité de ces stratégies dépend d’une approche contextuelle et adaptée aux spécificités des différents environnements de vie. De plus, il est indispensable de considérer les inégalités sociospatiales, car l’accès aux infrastructures, ainsi que la motivation des personnes à utiliser ces infrastructures varient selon les conditions de vie. Des interventions ciblées sont nécessaires pour garantir une équitable accessibilité et la promotion d’expériences affectives positives, notamment pour les populations vulnérables.

Repenser l’aménagement des espaces et l’accès aux structures sportives

Il convient de dépasser l’idée selon laquelle l’inactivité physique résulte uniquement d’un manque de motivation individuelle. Repenser l’aménagement des espaces, réguler l’accessibilité aux infrastructures sportives et intégrer l’activité physique dans les politiques publiques constituent des leviers décisifs pour lutter contre l’inactivité physique et la sédentarité.

Ce changement de paradigme, qui intègre notre tendance au moindre effort et le modèle écologique, ouvre la voie à des interventions plus justes et efficaces, notamment auprès des populations les plus vulnérables.

The Conversation

Boris Cheval a reçu des financements de la Chaire de recherche Rennes Métropole et des financements européens (Horizon).

Neville Owen a bénéficié des National Health and Medical Research Council of Australia research grants and fellowships.

Silvio Maltagliati ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

14.04.2025 à 17:40

La recherche en France : comment l’État a (ou n’a pas) financé l’innovation à travers l’Histoire

Jean-Luc Chappey, Professeur d'histoire des sciences, Université Paris 1 Panthéon-Sorbonne

En France, deux parenthèses historiques marquent un réel investissement financier de l’État dans la recherche scientifique et l’innovation technique : la Révolution française et les Trente Glorieuses.
Texte intégral (2242 mots)
Les Trente Glorieuses (1945 à 1973) ont été la seule période de large financement public de la recherche en France au XX<sup>e</sup>&nbsp;siècle. NCI/Unsplash

En France, deux parenthèses historiques marquent un réel investissement financier de l’État dans la recherche scientifique et l’innovation technique : la Révolution française et les Trente Glorieuses.


Entre 1793 et 1794, le gouvernement révolutionnaire parvient à impulser une véritable politique nationale de recherche et développement. Sous la conduite du Comité de salut public où siègent les plus grandes figures scientifiques du moment, les chimistes Guyton-Morveau et Prieur de la Côte d’Or, cette politique de recherche permet aux armées de la République française de résister aux assauts des puissances coalisées, puis de conquérir de nouveaux territoires.

Ce moment particulier de la Révolution se caractérise par une augmentation des financements publics accordés aux activités scientifiques, dont les budgets sont désormais débattus sur les bancs des assemblées.

De la culture du salpêtre nécessaire à la fabrication des munitions à l’utilisation des aérostats comme outils de renseignement aériens, les savants et les ingénieurs bénéficient d’un soutien financier sans égal des autorités, en dépit des réelles difficultés économiques et financières que connaît alors la nation.

S’ils sont encore souvent mal payés et de manière irrégulière, les savants travaillent dans de nouveaux lieux de savoirs (Muséum national d’histoire naturelle ou Conservatoire national des arts et métiers) au sein desquels s’accumulent livres, collections de plantes, de minéraux ou d’instruments confisqués à l’Église et aux émigrés (aristocrates exilés, ndlr) ou spoliés par les armées révolutionnaires.

Sous le Directoire (1795-1799), Paris s’impose comme une véritable capitale des sciences en Europe. La ville attire de nombreux visiteurs qui assistent aux enseignements dispensés dans les nouvelles institutions, comme l’éphémère École normale de l’an III ou la plus durable École polytechnique. Le rôle joué par l’État au cours de la Révolution française tranche nettement avec les régimes antérieurs et postérieurs.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Du XVIIe à la Révolution : faiblesses de financement de l’absolutisme

En effet, auparavant, en dépit de la volonté affichée depuis Jean-Baptiste Colbert de vouloir impulser les recherches scientifiques par le biais de l’Académie royale des sciences (1666), la prise en charge des recherches scientifiques par l’État reste largement insuffisante, même dans les domaines les plus stratégiques (navigation, cartographie, astronomie, physique).

Or, le développement des sciences fondé sur la culture expérimentale repose, dès le XVIIe siècle, sur l’innovation technique et le recours à des machines de plus en plus coûteuses, telle la pompe à air. Les académiciens manquent de moyens et, en dépit d’une augmentation des sommes accordées par Louis XV puis Louis XVI, ne cessent de revendiquer des financements durables.

Obligés de rechercher un deuxième emploi, la grande majorité des académiciens ont recours au patronage de quelques grands mécènes ou aux contributions de savants dont la richesse personnelle leur permet de s’imposer comme de véritables patrons. Le naturaliste-entrepreneur Buffon, directeur du Jardin du roi et propriétaire d’une forge à Montbard, ou le chimiste-directeur de l’Arsenal et fermier général Lavoisier, tous deux, grandes figures de l’aristocratie d’Ancien Régime, mobilisent leur fortune pour pallier les insuffisances du financement royal et consolider leur autorité au sein de l’espace scientifique français et européen.

L’endettement auquel fait face l’État tout au long du XVIIIe siècle empêche la mise en œuvre d’une réelle politique des sciences par la monarchie. Certes, l’expédition de La Pérouse (1785-1788) est une entreprise particulièrement coûteuse, mais elle constitue un simple coup médiatique de Louis XVI dans la lutte à distance que se livrent les puissances impériales, la France et l’Angleterre.

S’ensuit la parenthèse dorée pour la recherche de 1793 à 1799, évoquée plus haut, lors de la période révolutionnaire.

Au XIXe siècle, une indifférence de l’État et des faux-semblants

À son arrivée au pouvoir en novembre 1799, Napoléon Bonaparte confirme l’importance des recherches scientifiques, privilégiant les institutions formant les serviteurs de l’État aux dépens des académies qui restent néanmoins des espaces de débats importants.

Accompagné par l’État qui prend en charge la rémunération des professeurs, le développement des sciences physiques au début du XIXe siècle est indissociable de la construction d’instruments et de machines de plus en plus coûteux. Mais l’argent public ne peut pas suffire à répondre rapidement à ces nouveaux besoins.

La création, par Laplace et Berthollet en 1808, de la Société d’Arcueil, société savante financée par des capitaux privés, a valeur de symbole : devant l’incapacité de l’État à financer les machines nécessaires au développement de la nouvelle physique, les savants se rapprochent des industriels et des banquiers, acteurs du capitalisme naissant, scellant ainsi l’alliance étroite entre les développements des industries et des sciences qui se renforcent tout au long du XIXe siècle.

Sous le Second Empire, le directeur de l’Observatoire de Paris Urbain Le Verrier n’hésite pas à importer des méthodes de gestion des personnels venues de l’industrie et transforme l’établissement en une véritable usine où chaque astronome est payé en fonction du nombre d’étoiles qu’il découvre.

La question des sources de financement des sciences devient une question politique, l’État étant accusé de privilégier le financement des transports et de la rénovation urbaine aux dépens des activités scientifiques. Après le philosophe Charles Jourdain qui se plaint en 1857 des « vicissitudes » structurelles du budget de la recherche et de l’enseignement, Louis Pasteur, dont la carrière s’est construite au croisement des milieux scientifiques et des milieux économiques, met en garde contre la « misère » des laboratoires qui risque d’entraîner le retard de la recherche française.

Deux ans plus tard, la défaite des armées françaises semble lui donner raison. En dépit des mots d’ordre volontaristes du chimiste, devenu ministre de l’instruction publique (1886-1887), Marcellin Berthelot et du vote de subventions supplémentaires aux laboratoires (en particulier dans le domaine médical), les hommes de la IIIe République n’augmentent pas le budget de la science de manière significative. La grande réforme des universités françaises du philosophe et directeur de l’enseignement supérieur (1884-1902) Louis Liard, dans les années 1890, s’appuie largement sur la mobilisation des finances privées.

Le XIXe se caractérise par une réelle indifférence de l’État envers les recherches scientifiques, les efforts financiers étant le plus souvent limités dans le temps et réservés à certains domaines liés à des applications industrielles, agricoles ou médicales, jugées « utiles ». Ni les Lumières ni les républicains des années 1880 qui s’en réclament ne mettent en œuvre une réelle politique scientifique cohérente.

Une seconde parenthèse d’investissement après la Seconde Guerre mondiale

Il faut finalement attendre la seconde moitié du XXe siècle pour assister à un réengagement de l’État en matière de recherches scientifiques.

Au lendemain de la Seconde Guerre mondiale, le financement massif accordé aux activités scientifiques constitue le cœur du redressement national et de la promotion de l’État providence. Impulsées par la création de nouvelles institutions scientifiques (du CNRS en octobre 1939 au CEA en octobre 1945), les sciences fondamentales sont alors considérées comme les supports du développement industriel et économique, des politiques de défense comme la dissuasion nucléaire ou de gestion des populations. L’essor des technosciences participe à la construction du mythe que le progrès sera la réponse à tous les maux.

Le tournant néolibéral des années 1990

Pourtant, dès les années 1990, et en dépit, une fois encore, des déclarations d’intention, les finances accordées aux projets scientifiques et techniques restent très en deçà des attentes. À cette période, de profondes transformations sont opérées. Les politiques néolibérales de Reagan et Thatcher touchent progressivement la France et l’Union européenne à travers une série de réformes des institutions scientifiques et universitaires, dans le cadre du « processus de Bologne ». Celles-ci bouleversent les modalités de gestion de la recherche de la fin des années 1990 aux années 2010.

Parallèlement à la baisse progressive des budgets accordés aux laboratoires et aux unités de recherche, ces réformes valorisent un modèle de recherche sur contrat, souvent de trois ou quatre ans, qui, outre de faire émerger et de consolider la concurrence entre chercheurs et établissements, a pour conséquence de promouvoir l’individualisme et la surenchère de projets de courte durée. Finalement, la compétition scientifique prime sur une réelle politique de la recherche qui, lors de la récente pandémie mondiale, a particulièrement montré ses limites, la France étant incapable de produire un vaccin contre le Covid-19.

Dans ce contexte, l’annonce d’une baisse drastique du budget de la recherche française en 2025 doublée de l’idée, défendue par le président du CNRS d’une « loi vertueuse et darwinienne qui encourage les scientifiques, équipes, laboratoires, établissements les plus performants à l’échelle internationale » constitue une réelle rupture tant avec l’idéal des révolutionnaires de 1793-1794 qu'avec les ambitions des membres du Conseil national de la résistance, réaffirmé en 1954 lors du Colloque de Caen autour de Pierre Mendès-France et défendu, non sans mal, au cours des Trente Glorieuses.

C’est justement parce que les défis actuels (climatologique, environnemental ou médical) obligent à penser de nouvelles formes d’interdisciplinarité que l’État devrait investir massivement dans les sciences et y reprendre un réel pouvoir d’impulsion et de direction.

The Conversation

Jean-Luc Chappey ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

14.04.2025 à 17:39

Tarifs douaniers de Trump : une aubaine économique pour l’Inde

Catherine Bros, Professeur des universités en économie, Université de Tours - LEO, Université de Tours

La guerre douanière peut constituer une aubaine économique pour l’Inde. Spécialisation dans les services, stratégie protectionniste, alternative à la Chine, le pays de Modi devient encore plus incontournable.
Texte intégral (1508 mots)
Le comportement erratique de l’administration états-unienne rend tout partenariat avec l’Inde encore plus désirable pour les Européens, les Africains ou même les Asiatiques. Madhuram Paliwal/Shutterstock

Les droits de douane états-uniens sur les biens indiens passent de 17 % en 2023 à 26 % en 2025. Pourtant, le pays le plus peuplé du monde peut voir dans cette politique agressive des États-Unis une aubaine économique, ce pour trois raisons : sa faible intégration au marché mondial, sa politique d’autonomie stratégique « Atmanirbhar Bharat » et son positionnement d’alternative à la Chine.


Les États-Unis sont le premier client de l’Inde. Ils concentrent 19 % des exportations indiennes. L’Inde s’est considérée comme relativement épargnée par la nouvelle politique douanière américaine dévoilée le 2 avril dernier. Les droits de douane des États-Unis sur les biens indiens passeront de 17 % en 2023, à 26 % en 2025, si le président Trump n’en décale pas une nouvelle fois la prise d’effet…

Ce chiffre de 26 % est bien inférieur aux droits imposés aux autres nations du Sud-Est asiatique, qui, dans une certaine mesure, sont concurrentes de l’industrie indienne. Le Bangladesh, par exemple, se voit imposer des droits de douane à 37 %, le Vietnam 46 % et la Thaïlande 36 %. Certains secteurs clés de l’industrie indienne, comme l’industrie pharmaceutique, sont même exempts de droits supplémentaires. Cette exemption souligne l’importance stratégique des exportations de médicaments génériques de l’Inde vers les États-Unis. Une stratégie douanière à géométrie variable.

L’Inde, qui n’a pas prévu de riposter, a au contraire bon espoir de conclure un accord relativement avantageux grâce aux négociations bilatérales engagées dès février 2025, suite à la visite du premier ministre indien Narendra Modi aux États-Unis.

Réindustrialisation indienne ?

Certains voient dans cette nouvelle politique douanière une occasion pour l’Inde de se réindustrialiser, ce dont elle a grandement besoin pour le développement de son emploi. L’Inde a, au fil des ans, perdu son avantage comparatif dans certains secteurs au profit d’autres pays d’Asie du Sud et du Sud-Est comme le Bangladesh, la Thaïlande ou le Vietnam. Ces derniers font face à des droits de douane plus élevés que l’Inde, et en plus forte augmentation. De quoi susciter un regain de compétitivité pour ces industries indiennes ? Elles nécessiteraient cependant des investissements de long terme.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


La stratégie industrielle indienne a préféré se concentrer sur des secteurs plus avancés technologiquement, en instaurant, au travers du Production Linkes Incentive (PLI) Scheme, des subventions à la création de capacité de production. L’objectif : diminuer sa dépendance aux importations et stimuler ses exportations dans des secteurs prioritaires. Le secteur des semi-conducteurs, par exemple, en a largement bénéficié avec l’espoir, entre autres, de faire de l’Inde un hub manufacturier pour ces produits. Elle espère attirer 27 milliards d’euros d’investissements directs étrangers (IDE). La tâche sera certainement rendue plus ardue par la politique protectionniste états-unienne.

La réindustrialisation indienne doit passer par des réformes réglementaires et des investissements dans les infrastructures. En dépit des substantiels progrès réalisés dans ces domaines, il reste à faire. Dans tous les cas, pour que la politique protectionniste des États-Unis puisse encourager le développement de l’industrie indienne, il lui faudrait être stable ; ce qui ne semble pas être l’orientation première de l’actuelle administration Trump.

Faible intégration au commerce mondial

La participation de l’Inde au commerce mondial des biens est modeste compte tenu de la taille de son économie : la part de marché de l’Inde dans les échanges mondiaux était, en 2023, de 2 %. En dépit d’une balance commerciale de plus en plus excédentaire vis-à-vis des États-Unis, l’Inde a été relativement épargnée par la hausse des droits de douane, en raison, entre autres, de la faible part des importations indiennes (3 %) dans les importations totales américaines.


À lire aussi : L’Inde peut-elle prendre la place de la Chine dans le commerce mondial ?


Son économie, très peu intégrée dans les chaînes de valeur mondiales, sera de facto, moins durement secouée par la nouvelle politique douanière des États-Unis. Si son économie échange peu de biens avec le reste du monde, l’Inde dispose d’un avantage comparatif dans le secteur des services, qui constitue près de la moitié de ses exportations de biens et services. Or, les services sont peu concernés par les droits de douane et restent en dehors du périmètre de la nouvelle politique états-unienne.

Le protectionnisme indien : « Atmanirbhar Bharat »

Le tournant protectionniste des États-Unis peut venir renforcer la conviction du gouvernement indien du bien-fondé d’une faible intégration de son économie dans les échanges mondiaux de biens. L’économie indienne est peu ouverte et sa politique commerciale tend depuis longtemps vers le protectionnisme. Le dernier plan de politique industrielle « Atmanirbhar Bharat » (« Inde autosuffisante ») vise à la fois à la promotion des exportations, mais également à l’autonomie stratégique de l’économie indienne dans bon nombre de secteurs : pharmaceutique, solaire, électronique.

La politique industrielle indienne depuis le programme « Make in India » n’a pas cherché à créer de la croissance par les exportations, mais à attirer les capitaux étrangers pour la création sur le territoire indien de capacités de production à destination, principalement, du marché indien. Les investissements directs étrangers (IDE) ont largement progressé, tout en partant d'un niveau relativement faible : ils étaient à 45,15 milliards de dollars en 2013. En 2022, ils s'élevaient à 83,6 milliards de dollars.

L’Inde plus que jamais courtisée

L’Inde renforce sa position stratégique sur la scène internationale. Son économie attirait déjà les convoitises des investisseurs, grâce à son marché potentiel de 1,4 milliard de consommateurs et son positionnement d’alternative en Asie à la Chine. Le comportement erratique de l’administration Trump rend tout partenariat avec l’Inde encore plus désirable, en particulier pour les Européens.

Nul doute que les pourparlers commerciaux pour un accord entre l’Union européenne et l’Inde, entamés en 2022 et remis sur le devant de la scène par la visite de la présidente de la Commission européenne à New Delhi en février 2025, prendront une autre dimension aux yeux des Européens. L’actuel gouvernement nationaliste indien a considérablement œuvré pour que l’Inde devienne un acteur pivot dans la communauté internationale. Ce rôle de premier plan sur la scène internationale constitue un atout électoral significatif qui devrait renforcer l’influence de Narendra Modi au sein du pays.

The Conversation

Catherine Bros ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

14.04.2025 à 17:38

Devenir propriétaire de son logement : cartographie des (nouveaux) dispositifs

Alexis Laszczuk, Professeur associé de management stratégique, ESSCA School of Management

Et si la crise du logement illustrait l’épuisement de l’alternative propriétaire ou locataire. De nouvelles offres émergent, multipliant les possibilités d’accession à la propriété.
Texte intégral (1782 mots)

Et si la crise du logement illustrait l’épuisement de l’alternative propriétaire ou locataire. De nouvelles offres émergent, multipliant les possibilités d’accession à la propriété.


La crise du logement met en évidence des tensions entre dynamiques économiques et sociales. Bien essentiel, le logement devient un facteur d’inégalités croissantes. La hausse des taux d’intérêt entre mi 2022 et début 2024 a rendu l’accession à la propriété difficile pour de nombreux ménages français.

En 1980, la France comptait 50 % de propriétaires. Aujourd’hui, la proportion atteint 58 % (voir graphique) soit très en dessous de la moyenne européenne de 70 %. L’Angleterre et les États-Unis sont à 65 %. Avec un marché locatif saturé et 2,5 millions de demandes en attente dans le secteur social, les fractures générationnelles, sociales et territoriales se creusent.

De nouveaux modèles

Pour répondre à cette situation, diverses pistes émergent afin de faciliter l’accès à la propriété. Entre innovations et remises au goût du jour de solutions anciennes, des initiatives publiques et privées se multiplient. Cependant, cette offre complexe peut perdre les particuliers, confrontés à des décisions lourdes et chargées émotionnellement.

Cet article décrypte les nouvelles solutions disponibles, analyse leurs propositions de valeur et explore les mécanismes sous-jacents de leurs modèles d’affaires.

Le démembrement de propriété consiste à diviser la propriété en deux. D’un côté, la nue-propriété (ou le droit de disposer du bien, c’est-à-dire qu’il peut vendre ou transmettre le bien, mais ne peut l’utiliser ni en percevoir les fruits comme des loyers) et l’usufruit (droit d’utiliser le bien et d’en percevoir les revenus). Ce mécanisme, utilisé pour l’investissement et la transmission patrimoniale, permet au nu-propriétaire d’acquérir un bien à moindre coût, tandis que l’usufruitier en tire des revenus ou un usage temporaire, avec des avantages fiscaux pour les deux parties.


À lire aussi : Fiscalité, la cause oubliée de la crise du logement


Dans le cadre de l’achat immobilier, ce dispositif permet à un particulier d’acquérir la nue-propriété à un coût réduit, tandis qu’un autre acteur (souvent un bailleur) détient l’usufruit pour une durée définie. Pendant cette période, l’usufruitier perçoit les loyers ou occupe le bien, sans charges pour le nu-propriétaire. À la fin du démembrement, ce dernier récupère la pleine propriété, souvent valorisée. Idéal pour préparer une résidence future ou investir avec une meilleure rentabilité, le démembrement élimine également les contraintes de gestion locative.

Un coût d’accès réduit à la propriété

Une autre piste d’innovation est la dissociation foncier-bâti, qui sépare la propriété du terrain de celle du logement. Dans ce cadre, l’acquéreur devient propriétaire du bâti, tandis que le terrain appartient à une entité publique, privée ou associative, moyennant une redevance modeste. Ce modèle permet de réduire le coût d’accès à la propriété en excluant le foncier souvent très onéreux en zone urbaine, et limite la spéculation immobilière en encadrant la revente du logement par des clauses inscrites dans le bail. Courant au Royaume-Uni, cette solution est adoptée en France par les organismes de foncier solidaire (OFS) via le bail réel solidaire (BRS), garantissant une offre durable de logements abordables.

Un exemple notable est la Foncière de la Ville de Paris, créée pour faciliter l’accès à la propriété des ménages à revenus moyens. La Foncière conserve la propriété des terrains, tandis que les logements construits dessus sont vendus sous le régime du BRS, permettant aux acquéreurs de devenir propriétaires du bâti à des prix maîtrisés, environ 5 000 €/m2, soit la moitié du prix du marché parisien. Les acquéreurs paient une redevance pour l’occupation du terrain, réduisant le coût global et préservant l’accessibilité financière sur le long terme.

Le co-investissement dans le secteur du logement repose sur un principe simple : plusieurs acteurs unissent leurs ressources pour financer des projets immobiliers. Ces acteurs peuvent inclure des institutions publiques, des investisseurs privés, des entreprises ou des particuliers. En mutualisant les fonds et les compétences, ce modèle permet de partager les risques et de réaliser des projets souvent inaccessibles individuellement, tels que la construction de logements sociaux, de résidences étudiantes ou des programmes de rénovation urbaine. Les partenariats public-privé illustrent bien cette approche, combinant fonds publics et privés pour créer des logements abordables.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Accompagnement personnalisé

Dans un contexte de besoins croissants en logements, certains acteurs adaptent le co-investissement à la construction et à la vente de logements à destination des particuliers. Par exemple, Virgil aide les jeunes actifs à accéder à la propriété sans un apport personnel important. L’entreprise finance jusqu’à 25 % du prix d’achat sans exiger de loyers ni de mensualités sur cette part, préservant ainsi la capacité d’emprunt des acquéreurs. En complément, elle propose un accompagnement personnalisé : évaluation du budget, aide à la négociation du prêt, et formalités administratives. Ce soutien global simplifie le parcours immobilier et renforce la confiance des primo-accédants. Virgil se rémunère en récupérant sa mise réévaluée lors de la revente ou du rachat des parts, ainsi qu’une indemnité annuelle de 1 % par tranche de 10 % investie. Son modèle « asset-light » limite le capital immobilisé et diversifie les projets.

Face à la flambée des prix immobiliers et à la faible attractivité de l’investissement locatif, le modèle classique « usage contre loyer » montre ses limites, créant une inadéquation entre valeur d’usage et valeur d’échange. Inspiré du leasing automobile, un modèle hybride émerge, combinant propriété partielle, redevance fixe sur vingt-cinq ans et sécurité d’usage. Ce système veut offrir une alternative accessible et flexible, répondant aux besoins des ménages tout en garantissant des conditions financières attractives aux investisseurs.

Arte, 2024.

La flexipropriété permet un accès progressif à la propriété. L’acquéreur peut acheter une part initiale du bien, par exemple 20 %, tout en disposant de l’usage complet du logement. Le reste est détenu par un investisseur (bailleur social, promoteur ou banque), et l’acquéreur verse une redevance pour la part non possédée. Il peut ensuite racheter progressivement des parts supplémentaires selon ses capacités financières, jusqu’à atteindre la pleine propriété.

Un apport initial limité

Ce dispositif présente plusieurs avantages : il réduit le montant initial nécessaire pour devenir propriétaire, permet d’occuper le logement dès l’achat des premières parts et offre une montée en propriété adaptée aux ressources du ménage. Par exemple, Neoproprio propose un modèle où l’acquéreur finance 50 % du prix du bien et signe un bail emphytéotique de 25 ans, en versant une redevance annuelle réduite. Il occupe le logement comme un propriétaire tout en limitant l’apport initial et les mensualités. À l’issue des 25 ans, il peut lever une option d’achat au prix du marché ou quitter le dispositif avec une partie de la plus-value.

Au travers de ce dispositif, l’entreprise se rémunère grâce à la redevance annuelle versée par l’acquéreur (1,2 % de la valeur du bien) et à une part de la plus-value en cas de revente anticipée. Le modèle repose également sur une marge réalisée lors de l’achat et la gestion des biens via des fonds immobiliers partenaires. Ce mélange d’innovation financière et d’accompagnement personnalisé propose une solution à la fois rentable et adaptée aux besoins des ménages.

Persistance de freins

Plusieurs raisons expliquent que ces modèles d’acquisitions alternatifs soient moins plébiscités que l’achat immobilier classique. D’abord ils sont souvent perçus comme complexes en raison des montages juridiques et financiers qu’ils impliquent, ce qui peut décourager les particuliers. De plus, le manque de connaissance et de compréhension de ces dispositifs, ainsi que la dépendance à des tiers, introduisent des incertitudes supplémentaires. Enfin, ces modèles sont souvent perçus comme plus risqués ou moins sécurisés que l’achat classique, notamment en termes de revente et de valorisation du bien.

En synthèse, nous cartographions ces modèles d’accession à la propriété selon deux dimensions clés pour les particuliers souhaitant acquérir un logement : d’une part, le degré de propriété du bien, qui se situe entre la location et la pleine propriété ; d’autre part, le niveau de régulation exercé par les pouvoirs publics sur ces dispositifs.


Cet article a été rédigé avec Sylvain Bogeat, président de Métropoles 50.

The Conversation

Alexis Laszczuk est membre de Métropoles 50, think tank sur les métropoles, les territoires et leurs transitions.

14.04.2025 à 17:38

Choisir ou être choisi : ce que le sport révèle des logiques sociales à l’adolescence

Raffi Nakas, Chercheur associé au laboratoire ECP (Éducation, Cultures, Politiques), Université Lumière Lyon 2

Dans les cours d’éducation physique et sportive, le travail en équipe fait ressortir affinités ou clivages entre élèves. Ces dynamiques sont loin d’être anecdotiques.
Texte intégral (1750 mots)

Dans les cours d’éducation physique et sportive, les relations entre élèves se retrouvent au centre de la scène. Il suffit d’un travail en équipe pour que des affinités ou des clivages s’expriment. Tel élève est toujours choisi, tel autre peine constamment à se faire une place sur le terrain. Or, ces dynamiques, sous-tendues par des logiques sociales, sont importantes pour l’estime de soi.


Il y a dans les cours de récréation, les salles de classe ou les couloirs des collèges et des lycées, comme une chorégraphie invisible : des regards qui s’évitent ou s’accrochent, des silences parfois lourds de sens. À l’adolescence, les liens se tissent comme des toiles fragiles et mouvantes. Loin d’être le fruit du hasard, ces affinités obéissent à des règles sociales implicites, des logiques de genre, de statut, de performance ou encore d’origine.

Dans ce monde en miniature qu’est l’école, les relations entre adolescents racontent une histoire. Ces dynamiques, souvent jugées anecdotiques, sont en réalité structurantes : elles déterminent l’estime de soi, le sentiment d’appartenance, parfois plus.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


À l’école, une discipline est au cœur des interactions des élèves : c’est l’éducation physique et sportive (EPS). Il suffit en effet d’un travail en équipe et certaines alliances se dévoilent sans fard, des clivages s’expriment, des affinités et des exclusions se matérialisent en direct, visibles de tous. Certains vont être choisis et d’autres pas…

Les regroupements spontanés ou non en EPS (éducation physique et sportive) obéissent à des règles implicites qui méritent d’être décryptées.

Des logiques sexuées dans les espaces sportifs

Dès l’appel, les groupes se dessinent : d’un côté les garçons, souvent agités, compétitifs, de l’autre, les filles soit discrètes soit bavardes, repliées a priori dans un entre-soi rassurant.

À l’adolescence, le corps devient enjeu de regard. L’espace sportif exacerbe cette visibilité. On y est jugé, évalué non seulement sur ses performances, mais sur sa manière d’habiter son corps. La force, la vitesse, l’initiative – souvent perçues comme naturelles chez les garçons – sont valorisées. Les filles, elles, doivent composer avec une attente contradictoire : participer, mais sans excès, se donner à voir, mais sans s’exposer. Souvent, d’ailleurs, les filles ont d’autres objectifs que le gain, la victoire ou la performance en EPS.

Les normes de masculinité et de féminité pèsent sur les affinités : les garçons populaires évitent d’être vus avec des élèves « trop scolaires » ; les filles en rupture s’affichent entre elles, dans une sororité marginale, mais forte.

En pratique, les activités dites « masculines » (football, rugby) cristallisent les attentes viriles. Les filles qui s’y risquent doivent redoubler d’adresse ou d’ironie pour exister sans être moquées. À l’inverse, des garçons qui préfèrent la danse ou l’acrosport doivent se justifier, bricoler une posture de « dérision active » pour ne pas être exclus du cercle viril.

La ségrégation genrée n’est jamais aussi visible qu’en EPS et parfois même renforcée implicitement par les enseignants eux-mêmes avec des injonctions en apparence anodine du style : « allez, les filles, on se dépêche ! »

Le statut scolaire… et performatif

La constitution des groupes en EPS suit des logiques implicites. Les plus à l’aise physiquement se regroupent, dominent l’espace, imposent leur rythme, contestent les règles. Les moins à l’aise cherchent à s’effacer, à se faire oublier dans les marges du terrain, à ne pas exposer leurs lacunes si visibles au moment de marquer le point ou le panier.

Les élèves en difficulté scolaire peuvent retrouver une forme de légitimité dans la performance physique là où les « bons élèves » peuvent parfois être stigmatisés. L’EPS constitue un microcosme social où les hiérarchies habituelles peuvent être bouleversées, redistribuant les cartes du « prestige adolescent ».

Dans les sports collectifs par exemple, le moment de formation des équipes révèle une cartographie impitoyable du tissu relationnel de la classe. Les plus performants sont choisis en premier, dessinant une véritable hiérarchie visible aux yeux de tous. Cette sélection publique peut être vécue comme un rite de passage, particulièrement douloureux pour ceux systématiquement choisis en dernier. Ainsi, là où l’enseignant croit souvent à une forme d’autonomie, il expose en réalité les corps à l’épreuve du choix ou du non-choix : ne pas être choisi, c’est comprendre qu’on ne compte pas vraiment…

Dans le même temps, quand l’élève qu’on n’imaginait pas excellent est reconnu comme légitime, cette reconnaissance crée des ponts temporaires qui transcendent les stéréotypes et ouvrent des brèches dans la ségrégation ordinaire : l’EPS peut donc offrir des espaces de revalorisation pour certains élèves. La popularité se construit à l’intersection de certaines variables, parmi elles, la conformité aux attentes du groupe.

Le filtre de la variable sociale

Les enfants de milieu favorisé ont souvent des réseaux d’amis plus étendus, une capacité plus grande à naviguer dans les codes de la sociabilité scolaire. Ce capital invisible, mais décisif, participe à la socialisation secondaire. Le corps révèle alors les inégalités parfois plus crûment que le langage.

En maîtrisant les codes, en connaissant les règles et les attendus, une asymétrie socialement située se construit. Ces élèves, dont les familles encouragent les pratiques sportives et la performance, ont plus confiance en eux et répondent plus facilement aux attentes scolaires. In fine, ils tissent plus de liens que leurs camarades de milieux plus défavorisés.


À lire aussi : La compétition éloigne-t-elle les filles du sport ?


Par exemple, dans les activités physiques où il faut construire un enchaînement comme l’acrosport ou la danse, les élèves qui ont les codes ont des facilités à créer des collectifs de travail. À l’inverse, ceux qui font du « bruit », qui s’agitent, qui ne répondent pas aux normes de l’école, ont plus de mal dans ce type d’activités à sortir de « leur groupe social ».

On joue, on court, on coopère avec ceux qui nous ressemblent ou plutôt avec ceux qui partagent les mêmes codes. Sous couvert de neutralité, l’EPS prolonge alors une culture où l’espace de travail devient le lieu de reproduction symbolique des inégalités.

L’éducation physique et sportive, un révélateur de mécanismes d’inclusion et d’exclusion

L’adolescence dessine une carte relationnelle en perpétuelle reconfiguration, où s’entrecroisent des influences multiples. Le genre, l’origine sociale, le statut scolaire ne sont pas des variables isolées, mais des forces qui interagissent constamment.

Dans cette géographie mouvante, certains adolescents, comme des explorateurs, traversent différents territoires avec aisance. D’autres, plus sédentaires, construisent leur identité dans des espaces plus circonscrits. Ni l’une ni l’autre de ces stratégies n’est intrinsèquement meilleure, elles répondent à des besoins différents, à des contextes particuliers.


À lire aussi : L’amitié fait-elle toujours du bien aux adolescents ?


L’EPS, par sa dimension corporelle et émotionnelle, agit comme un révélateur puissant des mécanismes d’inclusion et d’exclusion à l’œuvre dans le monde adolescent. Elle offre également, par son caractère collectif, des opportunités uniques de tisser des liens transcendant les frontières habituelles des groupes d’affinités. En effet, en modulant les groupes et les objectifs, l’enseignant d’EPS peut aussi contribuer à faire travailler tous les élèves ensemble.

Il suffit souvent de dissocier le jeu de l’enjeu, de mettre en avant d’autres logiques que la victoire ou la performance pour permettre aux élèves de découvrir d’autres modalités de pratique comme l’empathie ou l’entraide et désacraliser en conséquence le fait de ne pas être choisi ou d’être choisi en dernier.

The Conversation

Raffi Nakas ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

14.04.2025 à 17:36

« Make Religion Great Again » : la place de la religion dans l’État trumpien

Laurie Boussaguet, Professeure des Universités en science politique, European University Institute, chercheure associée, Sciences Po

Florence Faucher, Professeure de sciences politiques (Centre d’études européennes), Sciences Po

Donald Trump a créé au sein de la Maison Blanche un «&nbsp;bureau de la foi&nbsp;». Aussi surprenant que soit ce décret, il est passé inaperçu.
Texte intégral (2223 mots)
Photo postée par la Maison Blanche, le 8&nbsp;février 2025, annonçant la création du Bureau de la foi, avec à sa tête la télévangéliste Paula&nbsp;White-Cain (en blanc, à droite). Compte X de la Maison Blanche

Le 7 février dernier, Donald Trump a créé au sein de la Maison Blanche un « bureau de la foi », chargé de renforcer la place de la religion aux États-Unis. Que signifie la création de cette nouvelle instance, et que dit-elle de l’administration Trump 2 ?


Depuis sa prise de fonctions, Donald Trump multiplie les annonces et signe des décrets à tour de bras. Lorsque le président des États-Unis prend des décisions, la mise en scène est toujours très soignée, comme le 20 mars dernier quand la Maison Blanche a été transformée en salle de classe pour la signature du décret visant à éliminer le ministère de l’éducation ou, début février, quand le chef de l’État s’est entouré de jeunes femmes et de fillettes au moment de promulguer le décret de « protection du sport féminin » contre les sportives transgenres. Autant de séances photos que les médias ne manquent jamais de relayer, soulignant la dimension « symbolique » des décisions du président.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Toutefois, et contrairement au sens commun qui assimile souvent le symbolique à une communication dépourvue d’effets concrets, ces politiques visent à transformer en profondeur l’État et la société. C’est tout particulièrement le cas en ce qui concerne la politique religieuse de la nouvelle administration, avec la création à la Maison Blanche d’un « bureau de la foi » (White House Faith Office (WHFO)), chargé de faire des recommandations au président et de consulter sur diverses questions des leaders religieux, qui a autorité sur l’octroi de subventions publiques aux institutions religieuses développant des activités sociales d’aide aux plus démunis.

Or, ces mesures sont passées quasi inaperçues dans les grands médias. À qui cette politique religieuse s’adresse-t-elle exactement ? Et pourquoi n’en a-t-on que très peu entendu parler ?

Deux discours fondateurs

Les 6 et 7 février 2025, deux semaines à peine après son retour à la Maison Blanche, Trump enchaîne les discours sur des thèmes religieux, accordant une grande place au christianisme conservateur, à ses chantres et à sa vision du monde. Le nouveau président mobilise à cette occasion de nombreux symboles (gestes, images, récits, citations des textes sacrés) facilement reconnaissables par une société états-unienne qui fréquente assidûment les églises.

La séquence s’ouvre, le 6 février 2025, par un premier discours de Trump lors du National Prayer Breakfast, qui se tient tous les ans au Capitole. Proclamant que « l’Amérique est et sera toujours une nation sous le regard de Dieu », il multiplie les références à des figures historiques des États-Unis n’ayant pas eu peur d’affirmer leur foi, notamment George Washington, « qui appelait souvent les Américains à se rassembler pour prier », et le « grand Roger Williams, qui a créé l’État de Rhode Island et nommé sa capitale Providence, et qui a construit la première église baptiste en Amérique ».

Répétant à plusieurs reprises la formule « Bring religion back » (« Faire revenir la religion »), Trump se présente en restaurateur de la tradition religieuse historique spécifique aux États-Unis.

Enfin, en écho à son discours d’investiture du 20 janvier 2025, quand il déclarait avoir été « sauvé par Dieu », lors de la tentative d’assassinat dont il avait été la cible le 13 juillet dernier, il annonce que cet épisode a été pour lui une épiphanie :

« Ça a changé quelque chose en moi… quelque chose s’est produit. »

Un tel récit fait écho aux récits de « renaissance », caractéristiques de l’imaginaire religieux des chrétiens évangéliques, et rapproche Trump des communautés conservatrices qui sont attentives à toute déclaration d’un renouvellement de la foi ; il se présente ainsi comme l’un d’eux, et non plus seulement comme un de leurs alliés politiques.

Le même jour, Trump prononce un second discours, lors d’un National Prayer Breakfast alternatif, organisé à l’hôtel Hilton de Washington. Il s’agit en fait du lieu originel où se tenait le NPB, mais il a été décidé en 2023 de déplacer l’événement au Capitole pour contester la trop grande emprise des chrétiens conservateurs sur la Maison Blanche et le Congrès.

L’organisation conservatrice à l’origine de cette tradition continue toutefois de maintenir l’événement au Hilton. Face à ce public très conservateur, Trump adopte un ton plus partisan : il se félicite d’avoir « éliminé le wokisme » au cours des deux semaines écoulées et annonce la prochaine création d’un « bureau de la foi » à la Maison Blanche.

Le décret instituant le Bureau de la foi : texte et image

Quelques heures plus tard, il signe un décret qui crée un groupe de travail visant à mettre fin aux mesures « antichrétiennes » de l’administration Biden, telles que les poursuites pénales par le ministère de la justice visant des personnes ayant bloqué l’accès aux cliniques pratiquant des avortements.

Ce décret, qui évoque implicitement la persécution des chrétiens sous l’Empire romain, introduit une équivalence entre leur sort et l’expérience vécue par les communautés évangéliques aux États-Unis. Ce narratif puissant construit une image déformée de la réalité, selon laquelle les chrétiens seraient une minorité opprimée, alors que près des deux tiers des habitants des États-Unis se réclament du christianisme et que des décennies de politiques publiques ont visé à limiter les discriminations à l’égard d’autres groupes sociaux.

Le lendemain, 7 février 2025, est signé le décret présidentiel qui instaure le Bureau de la foi de la Maison Blanche (acronyme en anglais, WHFO). Les gestes symboliques accompagnant cette décision sont nombreux, à commencer par le choix de la dénomination de cette nouvelle structure. Alors que ses versions précédentes s’appelaient « Bureau des initiatives confessionnelles et communautaires » (sous G. W. Bush, au moment de sa création) ou « Bureau des partenariats confessionnels et de quartier » (sous Obama), le bureau est désormais exclusivement celui de la foi. Or, la foi est caractéristique du christianisme alors que d’autres religions parlent simplement de croyances et insistent sur la pratique religieuse ou l’appartenance à une communauté.

Par ailleurs, si l’octroi de subventions publiques à des institutions privées, notamment religieuses, n’est pas nouveau, l’élimination de la référence aux communautés ou aux quartiers l’est, ce qui focalise l’attention sur la seule dimension religieuse. Ce nouveau bureau est également investi d’une mission de conseil auprès de la Maison Blanche, donnant aux chrétiens conservateurs une voie d’accès privilégiée au président et à son équipe.

La désignation des membres du nouveau WHFO est en outre significative : c’est la télévangéliste Paula White-Cain qui le dirige. Conseillère spirituelle de Trump de longue date et fervente opposante des politiques antidiscriminatoires, elle a œuvré dès son premier mandat au rapprochement de la Maison Blanche avec de nombreux groupes confessionnels évangéliques.

Enfin, la photo officielle accompagnant l’annonce de la signature de ce nouveau décret sur les réseaux sociaux de la Maison Blanche (voir en tête du présent article) peut être lue comme une image religieuse de facture très classique.

On y voit Trump au centre, assis à son bureau et entouré de plusieurs personnes en train de prier. Les figurants sont des pasteurs et prédicateurs évangéliques, dont des conseillers de son premier mandat. Certains ont apposé leurs mains sur le président ou les étendent dans sa direction, d’autres les ouvrent vers le ciel, d’autres encore les tiennent dans un geste de recueillement, et tous ont le regard et la tête baissés. La mise en scène est efficace et le message explicite : Trump est le héros qui va permettre le retour de la foi chrétienne au cœur de l’État.

On ne peut pas douter des intentions de Trump, martelées tout au long de la campagne présidentielle. Il affirmait devoir « sauver la religion dans ce pays » et n’hésitait pas à dépeindre l’élection comme une guerre sainte opposant la figure de proue de la chrétienté (lui-même) à la supposément antichrétienne Kamala Harris, qui est pourtant baptiste.

Bien sûr, la création du WHFO, en sa qualité de décision fédérale, concerne l’ensemble du pays. Mais elle répond plus particulièrement aux attentes des communautés religieuses qui ont largement voté pour Trump – 72 % des chrétiens blancs lui ont en effet donné leur voix, et le taux s’élève à 81 % chez les électeurs évangéliques et pentecôtistes. Rien de surprenant donc à ce qu’il adopte le point de vue et le programme de ces chrétiens qui l’ont porté au pouvoir. Sa politique religieuse est une récompense à leur soutien.

Une mesure insuffisamment remarquée

Le relatif désintérêt que l’instauration du Bureau de la foi de la Maison Blanche a suscité dans le débat public est frappant. Si les médias confessionnels ont relayé l’information, peu de médias généralistes s’en sont saisis, comme si cette information, noyée dans le flot d’annonces spectaculaires de la nouvelle administration, n’était finalement qu’un signal adressé à son électorat, une mesure « symbolique » aux effets négligeables.

Or, cette politique est significative et transformatrice. Elle institutionnalise la présence des religieux conservateurs au sein du gouvernement fédéral. Elle s’appuie sur des pratiques symboliques empruntées au répertoire évangélique. Elle remet en question la séparation de l’Église et de l’État aux États-Unis. Et elle révèle que le pouvoir entend désormais tirer sa légitimité du soutien privilégié d’une communauté identifiée, plutôt que des procédures démocratiques.

En somme, elle modifie le régime politique, à commencer par la neutralité confessionnelle, et impose des représentations collectives sur les pratiques appropriées à adopter, qui ne seront pas sans impact sur la vie quotidienne des citoyens américains.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

14.04.2025 à 17:35

Quel serait le « bon moment » pour changer de Constitution ?

Carolina Cerda-Guzman, Maîtresse de conférences en droit public, Université de Bordeaux

En France, tous les changements de Constitution eurent lieu après des crises majeures&nbsp;: guerres, révolutions ou coups d’État. Mais sommes-nous condamnés à réécrire le texte constitutionnel dans le tumulte&nbsp;?
Texte intégral (2295 mots)

En France, depuis 1789, tous les changements de Constitution eurent lieu après des crises majeures : guerres, révolutions ou coups d’État. Mais sommes-nous condamnés à réécrire le texte constitutionnel dans le tumulte ? L’exemple du Chili, qui a mené un processus constituant entre 2019 et 2023, permet de dépasser certaines idées reçues.


Depuis la dissolution de l’Assemblée nationale, le 9 juin 2024, la Ve République française traverse une période de forte instabilité. En 2024, quatre premiers ministres différents se sont succédé : Élisabeth Borne, Gabriel Attal, Michel Barnier, puis François Bayrou. Une première depuis 1958. Pourtant, cette République est fondée sur une Constitution que l’on présente souvent comme le cadre idéal pour garantir la stabilité du pouvoir exécutif. Si le texte qui fonde les institutions n’est plus à même d’assurer cette stabilité, se pose alors une question redoutable : faut-il envisager un changement de Constitution, et ce, dès maintenant ? Plusieurs éléments rationnels plaident pour ce changement et des modalités concrètes pour y procéder ont été formulées.

Face à cette hypothèse un argument revient pourtant de manière récurrente : le moment du changement n’est pas encore là, car les Constitutions sont des textes que l’on ne change qu’en cas de crise grave, lorsqu’il n’y a pas d’autre issue, lorsque les institutions sont paralysées. Ainsi, le « bon moment » pour changer de Constitution serait nécessairement une période troublée. Sommes-nous vraiment condamnés à écrire des Constitutions dans le tumulte ?

Les biais de l’histoire constitutionnelle française

Cette tendance à associer chaos et rédaction d’une nouvelle Constitution résulte en grande partie de l’histoire constitutionnelle de la France. Il faut reconnaître que sur ce point la France dispose d’une expérience particulièrement riche. Depuis la Révolution, il y a eu au moins 15 textes constitutionnels différents (16 si l’on ajoute les actes constitutionnels adoptés sous Vichy entre le 11 juillet 1940 et le 26 novembre 1942). En comparaison, les États-Unis d’Amérique n’en ont connu qu’une : celle rédigée par la Convention de Philadelphie en 1787. Certes, ce texte a été enrichi de 27 amendements, mais la Constitution française, née en 1958, en est déjà à sa 25ᵉ révision (la dernière en date étant celle du 8 mars 2024, relative à la liberté de recourir à l’interruption volontaire de grossesse).


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Or, que nous apprend cette foisonnante histoire constitutionnelle française ? Que les changements de Constitution arrivent généralement dans trois hypothèses majeures : soit en cas de révolution (les Constitutions de 1791, 1793, 1795, 1830 ou 1848 en sont des exemples), soit en cas de coups d’État (les Constitutions de 1799 ou de 1852 en attestent), soit après une défaite militaire et après la Libération (les Constitutions de 1814, 1875, de Vichy, puis celle du gouvernement provisoire de 1945 sont nées de ces contextes). L’actuelle Constitution est, quant à elle, née après un putsch militaire à Alger en mai 1958.

Ainsi, on tend à considérer que toute bascule constitutionnelle ne peut s’opérer que dans le cadre d’une crise majeure et existentielle, qui conduit à réassigner la source du pouvoir. C’est lorsque le pouvoir passe du monarque au peuple ou du peuple à un nouvel homme (plus ou moins providentiel) que l’on rédige une nouvelle Constitution. Le passé constitutionnel français empêche d’imaginer un changement constitutionnel apaisé, respectueux du cadre démocratique et du droit, où régneraient le dialogue et la concorde.

Les leçons issues des expériences étrangères

Si l’on prend l’Histoire comme une loi implacable, vouée à se répéter éternellement, cela impliquerait que, si un jour, l’on devait changer de Constitution, ceci ne pourrait se faire qu’au prix d’une rupture avec le droit en place. Dit autrement, la naissance d’une VIe République supposerait une violation du cadre établi par la Ve République. Or, il y a quelque chose de perturbant à se dire que, pour aboutir à un meilleur régime démocratique, l’on soit obligé de passer par un non-respect du droit existant. Non seulement, c’est problématique lorsque l’on est attaché au respect du droit et à la démocratie, mais c’est aussi fâcheux sur un plan plus utilitariste. L’illégalité de la naissance peut entacher durablement le texte, et donc constituer un handicap pour sa légitimité. Mais, en réalité, le plus gênant est qu’il n’existe nullement une telle fatalité en droit constitutionnel.

Toute constitution ne naît pas nécessairement du viol de la constitution qui l’a précédée et il est tout à fait possible de penser un changement constitutionnel respectueux du droit existant. De fait, il existe des pays où le texte constitutionnel anticipe déjà le processus à suivre. En effet, il arrive que des textes constitutionnels mentionnent les étapes à respecter pour un changement complet de Constitution et distinguent ainsi une révision partielle (changement de certains articles) d’une révision totale (changement complet du texte) de la Constitution. C’est le cas, par exemple, de la Suisse (articles 193 et 194), de l’Espagne (article 168) ou de l’Autriche (article 44). Ainsi, selon ces textes, il n’est pas nécessaire d’attendre que les institutions s’effondrent pour les rebâtir.

Ce que nous enseigne l’exemple chilien

Le raffinement des techniques d’élaboration des Constitutions tout au long du XXe siècle permet d’envisager un dépassement de l’histoire constitutionnelle française et de rejeter l’idée que les changements constitutionnels ne peuvent naître que dans des moments de crise existentielle.

Toutefois, il est certain que, pour que la bascule s’opère, une force favorable au changement constitutionnel est nécessaire. Il faut que cette force prenne corps et s’exprime à l’occasion d’un événement social, politique ou économique. Ainsi, si le changement de Constitution n’exige pas un effondrement du système, un événement nécessairement perturbateur doit le déclencher. Celui-ci peut être grave et destructeur, mais il peut être aussi plus minime.

Dans son essai Sortir de la Ve. Pour une fabrique citoyenne de la constitution, (éditions du Détour, décembre 2024), la juriste Carolina Cerda-Guzman propose des pistes pour une nouvelle Constitution plus inclusive et plus démocratique. CC BY

Pour ne prendre qu’un exemple, le Chili, celui-ci a connu un processus constituant entre 2019 et 2023. Ce processus débute par l’annonce d’une nouvelle hausse du prix du ticket dans la capitale. Très rapidement, les rues de Santiago se sont noircies de manifestants. Au moment où la demande d’un changement de Constitution est exprimée par la rue, les institutions chiliennes n’étaient ni bloquées ni paralysées. Il n’y avait même pas de crise politique majeure à cet instant. La hausse du prix du ticket de métro a été en réalité une étincelle, qui a constitué un point de focalisation d’un mécontentement plus profond, et a mis en mouvement une force favorable au changement constitutionnel.

Les manifestants se sont alors spontanément assemblés en « cabildos », qui est le nom donné au Chili à toute réunion de citoyennes et de citoyens traitant de questions d’intérêt commun. La reprise en main par la citoyenneté de la discussion constitutionnelle a contraint les partis politiques, puis l’exécutif, à enclencher un processus de changement de constitution participatif. Pour ce faire, une procédure en forme de sablier a été mise en place. L’idée étant que la participation populaire soit la plus large possible en début et en fin de processus mais qu’au milieu, donc lors de la rédaction du texte à proprement parler, la tâche soit confiée à un groupe plus restreint d’individus.

Ainsi, le processus a officiellement débuté par un référendum invitant le corps électoral à confirmer son souhait de changer de Constitution. Puis, une Assemblée constituante a été élue, composée à égalité de femmes et d’hommes (une première dans l’histoire mondiale), chargée de rédiger le projet de Constitution.

Enfin, ce texte fut soumis à un référendum pour approbation. Dans la mesure où le processus chilien s’est soldé, le 4 septembre 2022, par un rejet du texte, il ne peut être un exemple à suivre à la lettre. Pour autant, il prouve que la discussion constitutionnelle peut surgir à tout moment.

En France, nul ne sait quel sera cet élément déclencheur ni quand il adviendra. Il peut avoir lieu demain, dans quelques mois voire des années. Pour autant, plusieurs événements (la crise des gilets jaunes en 2018, les mouvements sociaux contre la réforme des retraites en 2019‑2020 puis en 2023, les émeutes et violences urbaines de juin 2023, le mouvement des agriculteurs en janvier 2024, ou même, avant eux, Nuit debout en 2016 ou le mouvement des bonnets rouges en 2013) laissent à penser qu’il peut survenir à tout moment. Si chercher à l’anticiper est vain, il est tout aussi faux de penser qu’il existe un « bon moment » pour changer de Constitution.

Le « moment constituant » n’est jamais bon ou mauvais en soi, il advient ou n’advient pas. Surtout, il ne naît pas nécessairement de la volonté d’un homme providentiel ou à la suite de l’effondrement d’un système, il peut naître de la demande, certes contestataire, mais raisonnée de citoyennes et de citoyens.

The Conversation

CERDA-GUZMAN Carolina est membre du conseil d'administration de l'Association française de droit constitutionnel.

14.04.2025 à 17:35

Pollution, environnement : la résilience de nos cellules menacée, un risque de mauvaise santé

Christian Neri, Directeur de Recherches INSERM, Inserm

Divers mécanismes protègent nos cellules des stress variés qu’elles subissent, nous prémunissant des maladies. Toutefois, divers indices semblent indiquer que ces capacités de résistance pourraient être menacées.
Texte intégral (2444 mots)

Divers mécanismes protègent nos cellules des stress variés qu’elles subissent, nous prémunissant des maladies. Toutefois, divers indices semblent indiquer que ces capacités de résistance pourraient être menacées.


Toutes les cellules des êtres vivants sont dotées de mécanismes de compensation qui leur permettent de s’adapter au stress. Ce dernier peut être soit inhérent au fonctionnement normal des organismes vivants (en fonctionnant, les cellules peuvent produire des substances délétères pour elles-mêmes), soit induit par l’exposition à des facteurs environnementaux (stress aigus résultant de traumas ou d’infections, stress chroniques dus à la pollution, aux températures extrêmes, à des relations sociales délétères…).

Cette compensation cellulaire, en garantissant la résilience des tissus, constitue l’assurance de notre capacité à nous prémunir des maladies. Le vieillissement se traduit par une érosion des capacités de compensation et de résilience de nos cellules.

Or, notre environnement, lorsqu’il est dégradé par les pratiques industrielles, atteint l’intégrité de ce mécanisme au même titre que le vieillissement, ce qui peut nous fragiliser avant l’heure. Cet amoindrissement est un danger de vie en mauvaise santé. Se saisir du problème passe par la conscientisation du mécanisme qui est à la racine de cet amoindrissement.

Qu’est-ce que la résilience ?

Le concept de résilience recouvre les capacités à surmonter les altérations provoquées par des éléments perturbateurs dans des situations variées.

Une forme bien connue de résilience concerne la récupération après un stress particulièrement agressif, comme la résilience psychologique mise en lumière par le neuropsychiatre Boris Cyrulnik. Issu de la physique, le concept de résilience traverse désormais de nombreuses disciplines, de l’économie à la psychologie en passant par l’écologie ou l’informatique. On parle aujourd’hui de la résilience des systèmes logistiques (eau, énergie, transport) ou des systèmes de santé.

Mais la résilience ne concerne pas que « l’après-crise », c’est aussi les capacités à surmonter le stress qui affecte un système ou un individu de manière discrète, voire silencieuse, avant la survenue du pire.

Stress et résilience du vivant

Le vivant est en permanence confronté au stress cellulaire. La réponse au stress cellulaire (notamment lors du développement et de la reproduction) est un garant d’adaptation et d’expansion d’une population donnée.

Un stress faible peut stimuler la longévité des cellules. Cependant, un stress excessif, par exemple sous l’effet de facteurs environnementaux, peut éroder les capacités de résilience cellulaire. Or, l’érosion de ces capacités est au centre du vieillissement des tissus. C’est un risque « corps entier », car les organes communiquent entre eux. Par exemple, le microbiote intestinal communique avec le cerveau et son altération peut être préjudiciable au cerveau. C’est un risque « vie entière », car la réussite de la réponse au stress cellulaire traite des phases critiques de l’existence comme la reproduction (taux de natalité), la grossesse (santé du fœtus) ou le développement de l’enfant.

Penser la résilience du corps sous l’angle de la récupération, une fois le pire survenu, c’est sous-estimer le préjudice que les pratiques industrielles et les pollutions air-sol-eau-aliments font encourir à notre santé. C’est enfermer toujours plus d’individus dans la perspective d’une mauvaise santé dont l’échéance est incertaine, mais qui surviendra trop tôt et trop fort.

En revanche, penser la résilience du corps comme un mécanisme toujours à l’œuvre, c’est pouvoir lutter contre ce qui empêche nos tissus d’être résilients, c’est pouvoir améliorer la précaution et la prévention.

Les mécanismes de résilience cellulaire

Ces mécanismes ne sont pas seulement ceux qui nous protègent contre les infections (comme l’immunité, par exemple).

Il s’agit aussi des mécanismes d’intégrité cellulaire, par exemple la réparation de l’ADN – dont l’altération présente un risque de division anarchique des cellules et de cancer, d’élimination des protéines présentant des défauts de fabrication ou abîmées par l’oxydation naturelle des tissus –, ou bien il peut s’agir de la production d’énergie nécessaire au fonctionnement des cellules, par exemple dans les mitochondries.

Ces mécanismes sont cruciaux dans les cellules qui ne se renouvellent pas, ou peu, comme les neurones du cerveau et du système nerveux central. Leur échec va sans doute de pair avec la transition des stades légers à sévères des maladies. Par exemple, la progression de la maladie de Huntington est marquée par la transition d’une phase de « compensation fonctionnelle » vers une phase de « décompensation », avec des mécanismes de résilience cellulaire qui ne parviennent plus à compenser les dommages neuronaux, un modèle qui vaudrait aussi pour la maladie d’Alzheimer.

Mais ce n’est pas tout : les mécanismes de résilience cellulaire sont au centre du vieillissement des tissus.

Au cours des trente dernières années, au moins douze caractéristiques du vieillissement ont été identifiées, dont certaines traitent directement des mécanismes de résilience cellulaire, comme la réduction de la fonction des mitochondries ou de l’autophagie (élimination des déchets intracellulaires), l’altération de l’intégrité de l’ADN et des protéines, et l’augmentation de la sénescence cellulaire, dans un modèle où le vieillissement serait principalement dû à une accumulation de mutations génétiques, accompagnée par une érosion épigénétique.

Il existe donc un solide faisceau de présomptions pour penser que ces mécanismes s’opposent aux effets du vieillissement et à la survenue des maladies chroniques.

La résilience cellulaire mise en péril

L’affaiblissement avant l’heure de la compensation cellulaire s’oppose aux bénéfices que l’on s’attend à voir découler de l’adoption d’une « bonne » hygiène de vie visant à réduire la charge de morbidité en agissant sur des facteurs de risques dits « modifiables », tels que l’alimentation, la sédentarité, les addictions, les lieux de vie, l’hygiène au travail, ou encore l’isolement social.

À ce titre, toute perturbation des mécanismes de résilience cellulaire par les polluants, directement (par exemple en altérant la réparation de l’ADN, l’autophagie), ou indirectement (par exemple en favorisant des mutations dans l’ADN est un risque de vie en mauvaise santé à plus ou moins brève échéance.

Au vu de l’étendue et de la gravité du problème (comme, par exemple, dans le cas des PFAS en Europe et aux États-Unis), il s’agit aussi d’un risque de « manque à gagner » systémique pour la société.

Dans un tel contexte, éviter que les pratiques industrielles érodent toujours plus nos capacités de résilience cellulaire est une responsabilité qui oblige tous les acteurs concernés, et cette responsabilité est proportionnelle à la puissance des acteurs. Mais comment prendre en compte ce risque majeur ?

Mesurer la résilience

À l’heure actuelle, on estime la résilience individuelle contre la survenue ou la progression d’une maladie à partir du poids, plus ou moins important selon les personnes, des facteurs de susceptibilité. Ceux-ci ne sont pas biologiques stricto sensu, mais souvent comportementaux (tabagisme, alcoolisme), conjoncturels (proximité d’une usine, solitude) ou socioprofessionnels (revenus, mobilité). Cependant, l’absence d’un facteur de susceptibilité ne signifie pas forcément que l’on soit résilient.

Intégrer les facteurs de résilience cellulaire en plus des facteurs de susceptibilité lorsqu’il s’agit d’évaluer le risque de vie en mauvaise santé pourrait fournir des modèles de prédiction plus robustes. Mais il faut pour cela disposer de marqueurs fiables de la résistance cellulaire, ce qui n’est pas chose aisée.

Les marqueurs les plus précis sont souvent des marqueurs biologiques (biomarqueurs). Idéalement, ils sont simples à mesurer (par exemple dans le sang ou les urines). Un biomarqueur de résilience doit rendre compte de l’état d’un mécanisme de compensation ou de l’intégrité d’un élément essentiel des cellules.

Il en existe relativement peu à ce jour, et la mise au point d’un nouveau biomarqueur est coûteuse. Elle repose notamment sur des données collectées sur le temps long, grâce à des cohortes de grande taille, comme par exemple Inchianti, Constances ou le UK Brains Bank Network.

Actuellement, l’oxydation de l’ADN, un marqueur indirect de l’intégrité de cette molécule essentielle,est l’un des biomarqueurs potentiels à l’étude. Dans ce contexte, de nouveaux outils sont explorés, par exemple les horloges épigénétiques, dont un pionnier est le chercheur Steve Horvath aux États-Unis.

Cet outil détecte certaines modifications chimiques de l’ADN (les méthylations, autrement dit l’ajout d’un groupement méthyle sur certaines parties de la molécule d’ADN) pour mesurer un « âge épigénétique ». Celui-ci, qui témoigne du vieillissement des tissus, est en quelque sorte un âge « biologique », et peut différer de l’âge chronologique.

Il est important de souligner que cet outil ne permet pas encore de mesurer l’âge biologique de tout le monde : il n’est pas validé pour cela, étant encore au stade des recherches.

Changer de paradigme

L’enjeu, aujourd’hui, est de réduire les maladies chroniques de façon globale, et de sortir des réponses ponctuelles. Or, le modèle actuel, focalisé sur les « maladies avérées », limite la portée de la prévention et l’anticipation des coûts sociétaux. En effet, les coûts cachés sont sous-évalués, voire ignorés.

Mettre au centre des réflexions sur la prévention la mise en péril d’un mécanisme fondamental de vie en bonne santé (nos capacités cellulaires à nous prémunir des maladies) pourrait constituer un vecteur de transformation des politiques de santé publique.

Les données scientifiques qui justifient cette mutation s’accumulent, y compris des données épidémiologiques à forte granularité géographique (celles-ci ont notamment été mises en lumière ces dernières années par diverses enquêtes menées par certains journalistes d’investigation).

Cette nécessaire transformation est cependant entravée de diverses manières (monopoles, lobbying industriel, accords bilatéraux, désinformation, manipulations des études, relégation au second plan des questions de santé, priorités budgétaires, ou encore sous-dimensionnement des acteurs de la vigilance…). Ces obstacles limitent notre capacité à adopter une politique santé-responsable, alors même que le dépassement des capacités de résilience cellulaire pourrait s’inscrire dans un modèle de risques « en chaîne », les pollutions chimiques s’accompagnant d’une santé figée à un niveau médiocre, résultant en des coûts systémiques accrus.

The Conversation

Christian Neri a reçu des financements de l'ANR, de CNRS Innovation, et de fondations (FRM, Association Huntington France, Hereditary Disease Foundation, Fondation CHDI). Christian Neri est membre du bureau de sociétés savantes en France (Président de la FSEV) et à l'étranger (ISEV).

14.04.2025 à 17:34

Que sont les GPU, cette technologie à laquelle on doit l’essor des jeux vidéo et de l’IA ?

Jonathan Rouzaud-Cornabas, Maître de conférences au Laboratoire d'informatique en image et systèmes d'information, INSA Lyon – Université de Lyon

Les GPU ont permis l’explosion des jeux vidéo dans les années&nbsp;1990 puis de l’IA depuis vingt&nbsp;ans. Ils permettent de faire certains calculs plus rapidement que les processeurs classiques.
Texte intégral (1939 mots)

Les GPU ont permis l’explosion des jeux vidéos dans les années 1990 puis de l’IA depuis vingt ans. Ils permettent de faire certains calculs plus rapidement que les processeurs classiques.


Les progrès massifs dans le domaine de l’intelligence artificielle doivent beaucoup à un type de composant informatique, les GPU, pour graphical processing unit – à tel point que l’on considère aujourd’hui Nvidia, le plus grand concepteur de GPU au monde, comme un acteur clef du marché de l’IA avec l’une des capitalisation boursière la plus élevée de tous les temps. Revers de la médaille, ses actions en bourse ont dévissé quand une entreprise chinoise, DeepSeek, a annoncé pouvoir faire des calculs avec moins de GPU que ses concurrents.

Les GPU ont émergé dans les années 80, avant d’exploser avec le marché des jeux vidéo. Si on trouve aujourd’hui un GPU dans de nombreux ordinateurs personnels et surtout dans les consoles de jeux, il faut des dizaines de milliers de GPU pour faire tourner les plus gros systèmes d’IA dans des fermes de calculs dédiées.

Le marché des GPU est très concentré, tant au niveau de la conception, de la fabrication et de la fourniture (le nombre de GPU produits étant très largement inférieur à la demande), qu’au niveau de l’hébergement (ces fermes nécessitant une expertise rare). Ils sont donc devenu un enjeu géostratégique – avec des investissements en centaines de milliards aussi bien aux USA qu’en France, mais aussi un conflit commercial majeur entre les États-Unis et la Chine.

Qu’est-ce qu’un GPU ?

Les GPU existent depuis le début des années 80 ; mais leurs principes fondamentaux datent des années 60, quand les « processeurs vectoriels » ont émergé. Ceux-ci ont été conçus pour traiter de grands tableaux de données (un tableau à une dimension s’appelle un vecteur, d’où le nom de « processeurs vectoriels ») et appliquer sur chaque élément du tableau la même opération, par exemple additionner les éléments d’un tableau deux à deux.

La puissance des processeurs vectoriels réside dans le fait qu’ils sont capables d’appliquer en même temps une opération sur plusieurs éléments, alors que les processeurs classiques de votre ordinateur, également appelés « processeurs scalaires », n’appliquent les opérations que sur un seul élément à la fois. Pour additionner deux tableaux de 32 cases, un processeur vectoriel traitera les 32 éléments en une seule fois, alors qu’un processeur scalaire classique un seul élément à la fois. Le nombre d’éléments qu’un processeur vectoriel peut traiter en parallèle est variable d’une génération de processeurs à l’autre.

Ceci étant, les problèmes que doivent résoudre les ordinateurs consistent rarement à effectuer la même opération sur tous les éléments d’un grand tableau, en dehors de cas bien particuliers… dont les jeux vidéos, et une grande partie des systèmes d’IA justement !


Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


GPU et jeux vidéos

Pour faire tourner un jeu vidéo moderne haut de gamme sur un ordinateur ou sur une console, il faut être capable d’afficher 60 images par seconde en haute résolution 4K. Une image 4K est un rectangle (une matrice) de 3840 pixels de haut par 2160 pixels de large. Pour chaque pixel, il faut 3 valeurs (rouge, vert et bleu) pour pouvoir représenter la palette de couleurs. Par conséquent, il faut calculer et mettre à jour 1 492 992 000 pixels par seconde. Pour faire tourner des jeux vidéo, les GPU ont donc repris les principes des processeurs vectoriels.

Dans le courant des années 1980 et 1990, la démocratisation de l’informatique et des jeux vidéos a fait exploser le marché des GPU. Avec leur démocratisation, leur coût a énormément baissé, à une époque où les gros ordinateurs (supercalculateurs) étaient très chers et complexes.

Par conséquent, les chercheurs ont cherché à détourner ces GPU conçu pour le jeu vidéo pour faire d’autres types d’opérations qui leur étaient utiles pour leur recherche. En effet, à performance égale, les GPU avaient (et ont toujours) un coût largement inférieur aux CPU.


À lire aussi : Prix Nobel de chimie 2024 : design des protéines et prédiction de leurs structures, deux facettes d’une même médaille


Un des premiers cas d’utilisation de ces GPU, en 2004, venait de la communauté d’algèbre linéaire, qui utilisait déjà du calcul vectoriel et a pu adapter ses méthodes à ce nouveau matériel. Il faut savoir que l’algèbre linéaire, qui est utilisée pour simplifier la résolution d’équations, est à la base de beaucoup de programmes simulant différents processus réels, depuis le Big Bang jusqu’à la météo ou aux infections de cellules par des virus.

Du jeu vidéo à l’IA

Nvidia a rapidement répondu aux besoins de la communauté académique en 2006. Puis, à partir de 2014, elle a aussi fourni des GPU, pour le développement de systèmes d’IA, notamment par les GAFAM.

Ainsi, après une longue période de réduction de budget pour l’intelligence artificielle, le potentiel de calcul des GPU a permis de rendre exploitables les approches de type apprentissage profond qui étaient bloquées depuis des années, qui se base sur des réseaux de neurones pour répondre à des tâches complexes. Pour implémenter ces approches, il faut pouvoir faire d’énormes quantités de calcul vectoriel sur de grands volumes de données.

Un réseau de neurones tel qu’utilisé par l’IA est une simplification extrême du fonctionnement d’un vrai réseau neuronal, mais il en reprend les grands principes. La représentation mathématique d’un réseau de neurones est faite sous la forme d’opérations sur des matrices et des vecteurs à grandes échelles. Plus le modèle est complexe, plus la taille des données stockées dans de grands tableaux est grande et plus le nombre d’opérations mathématiques est nombreux. C’est grâce à la collaboration entre communautés de l’IA et de l’algèbre linéaire que les capacités de calcul de l’IA ont explosé ces dernières années.

Vers la spécialisation des GPU pour l’IA

Devant l’explosion de l’utilisation dans le domaine de l’intelligence artificielle, les GPU évoluent de plus en plus vers des fonctionnalités spécialisées pour l’IA et moins pour le jeu vidéo. Par exemple, des opérations spéciales ont été introduites pour traiter des matrices et proposer des fonctions de plus haut niveau, comme les « transformers » utilisés dans les grands modèles de langage.

Mais le principal gain de calcul dans l’IA vient de la réduction de la précision des opérations mathématiques. Un ordinateur ne fait jamais un calcul exact sur des nombres à virgule : comme il stocke et calcule sur un nombre de bits prédéfini, avec une précision déterminée, il y a constamment des erreurs d’arrondi plus ou moins visibles et souvent suffisamment faibles pour être négligeables. Devant la quantité de calcul nécessaire au fonctionnement des systèmes d’IA, la précision a été grandement diminuée (par quatre ou plus) pour accélérer les calculs (par quatre ou plus). Les grands réseaux de neurones sont donc peu précis, mais, grâce à leur taille, ils peuvent répondre à des problèmes complexes.

Souveraineté et IA : le prisme des GPU

Derrière l’essor des systèmes d’IA et les GPU, il y a une guerre commerciale entre la Chine et les USA, les USA interdisant l’utilisation de leurs GPU haut de gamme par la Chine. En dehors de Nvidia, seuls AMD et Intel peuvent à la marge concevoir des GPU.

Mais Nvidia ne les produit pas elle-même : une entreprise taïwanaise, TSMC, est la seule à avoir la technologie et les usines pour graver les GPU sur du silicium, au niveau mondial. Pour pouvoir continuer à produire et à vendre des produits venant de sociétés américaines, TSMC s’est engagée à ne pas travailler avec la Chine. Comme Taïwan est par ailleurs menacée d’annexion par la Chine, on peut envisager un risque très important sur l’approvisionnement en GPU dans les années à venir.

Cela met aussi en avant le besoin de développer en Europe une souveraineté sur la conception et la production de processeurs classiques ou de GPU.

L’Union européenne travaille sur cette thématique depuis des années avec un investissement dans le hardware ou matériel ouvert, mais ne peut pas aujourd’hui rivaliser avec les USA ou la Chine. Si des usines de moyenne gamme existent en Allemagne et en France, la présence d’usine de production de processeurs haut de gamme n’est pas prévue.

Au-delà, des problématiques de souveraineté, il est nécessaire de se poser de la question de l’intérêt de consacrer une part de plus en plus importante de la production d’électricité aux technologies numériques. En effet, l’IA consomme énormément d’énergie et son utilisation provoque déjà des problèmes d’approvisionnement en électricité, mais aussi en eau (pour le refroidissement), voire de redémarrage d’usines à charbon, pour répondre aux besoins.

The Conversation

Jonathan Rouzaud-Cornabas a reçu des financements de l'ANR et Inria.

14.04.2025 à 12:27

Parier sur le noir : quelles leçons tirer du succès de la musique black metal norvégienne ?

Stoyan V. Sgourev, Professor of Management, EM Normandie

Condamné et vilipendé dans son pays, le black metal norvégien a connu un grand succès en dehors de ses frontières. Découvrez sa méthode.
Texte intégral (1408 mots)
Le groupe norvégien de black metal Gorgoroth en concert sur la scène du festival Inferno, le 14&nbsp;avril 2017, à Oslo (Norvège). SpectralDesign/Shutterstock

Condamné et vilipendé dans son pays, le black metal norvégien a connu un grand succès en dehors de ses frontières. À l’origine de cette réussite se trouvent des intermédiaires qui ont transformé la source du problème en raison du succès.


Au milieu des années 1990, la scène musicale norvégienne du black metal a été de plus en plus ostracisée après que des musiciens du genre ont été [associés à des meurtres] et à des incendies d’églises.

La plupart des maisons de disques norvégiennes ont refusé de travailler avec des groupes de black metal, les représentations publiques ont été limitées. Ce genre a même été régulièrement critiqué, voire vilipendé, dans la presse.

Mais, par un remarquable revirement de situation, quelques années plus tard seulement, le black metal norvégien est devenu un phénomène global, avec des millions d’albums vendus dans le monde entier. Ce phénomène culturel a pris une telle ampleur qu’il est aujourd’hui célébré en Norvège et la principale exportation culturelle du pays et au point que l’on s’intéresse à l’image ou aux recettes produites par ce genre.

Réinterprétations

Dans notre article publié dans Academy of Management Discoveries, écrit avec Erik Aadland de la BI Norwegian Business School, nous attribuons, pour une grande part, ce revirement au travail fourni par les maisons de disques et par les entrepreneurs qui ont su capitaliser sur la stigmatisation du genre. Ces professionnels ont trouvé des moyens de réinterpréter et d’exporter ce type de musique en associant les aspects les plus noirs à des concepts moins scandaleux et donc plus attrayants, comme l’authenticité ou l’esprit de rébellion.


À lire aussi : Musique : du streaming à l’Auto-Tune, comment le numérique a tout changé


Nous voulions savoir ce qui pouvait permettre à des produits culturels réputés toxiques ou perçus de manière très négative de devenir culturellement importants. Le mécanisme social que nous appelons « arbitrage de valorisation » est un élément crucial de ce puzzle. Il consiste à exploiter les différences de préférence des publics, en vendant un produit, stigmatisé sur le marché A, sur un marché B, où il le sera moins.

Un « arbitre de valorisation » ne se contente pas d’acheter à bas prix et de vendre à prix plus élevé, en encaissant la différence. Il joue un rôle actif en cherchant à créer ce surplus de valeur sur un autre marché. Son profit est ainsi réalisé après avoir réussi à réinterpréter une caractéristique indésirable devenue attrayante. C’est la condition sine qua non pour pouvoir augmenter le prix de vente.

Authenticité de la musique

Le black metal norvégien comporte souvent des paroles contestataires, antichrétiennes et misanthropes. Pour réussir à les vendre hors de Norvège, les maisons de disques ont capitalisé sur les liens criminels des membres de certains groupes. Ils ont été utilisés pour convaincre les acheteurs que la musique de ces groupes reflétait authentiquement les véritables croyances de ses créateurs et qu’elle n’avait pas été conçue comme un produit commercial, ayant pour seule finalité de faire vendre.

Dans cette perspective, les actes de violence sont considérés comme cohérents avec la brutalité des paroles : la musique est réellement maléfique. L’idée que ceux qui se livrent à des activités criminelles « vivent » authentiquement les sentiments de la musique était cruciale pour convaincre un public international.

Un risque de réputation ?

Nos recherches nous ont permis de constater que, au milieu des années 1990, la grande majorité des maisons de disques ont pris leurs distances avec le black metal norvégien en raison des risques liés à l’investissement dans un produit stigmatisé. Ils craignaient non seulement que ces œuvres ne se vendent pas, mais aussi que le fait de s’associer au genre nuise à leur réputation et, par conséquent, au reste de leurs activités.

Cette situation a ouvert des possibilités pour les entrepreneurs et les propriétaires de petits labels qui avaient moins à perdre. Les « arbitres de valorisation » étaient conscients que s’ils parvenaient à commercialiser les groupes de manière appropriée et à surmonter les obstacles liés à la distribution, les bénéfices pourraient être considérables. L’espoir d’un très important retour sur investissement à haut risque aura été une motivation puissante pour oser afficher sa solidarité avec des artistes stigmatisés et vilipendés.

Motivations financières

La motivation pour soutenir un produit stigmatisé est financière plutôt qu’idéologique. Cela explique pourquoi le processus de stigmatisation, fondé sur des motifs idéologiques, peut commencer à s’atténuer, offrant des possibilités de gagner de l’argent en contournant la stigmatisation.


Abonnez-vous dès aujourd’hui !

Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).


Si un produit est stigmatisé sur un marché, vous pouvez littéralement aller sur un autre marché éloigné du marché central et essayer de développer le produit. On peut trouver des parallèles dans la diffusion d’autres formes d’art un temps stigmatisées, comme, par exemple, l’art impressionniste en France dans les années 1880, les débuts du jazz aux États-Unis, l’art moderne en Europe après la Seconde Guerre mondiale et le hip hop dans les années 1990…

Développements stratégiques

Nous pouvons identifier trois stratégies pour les managers lorsqu’ils envisagent des produits ou des pratiques stigmatisés :

  • La première est la passivité : ne rien faire, attendre que la tempête passe, observer ce que font les autres et agir quand la situation est sûre.

  • Atténuer les contraintes, en conservant une partie de l’originalité du produit, mais en l’enveloppant dans des éléments et des pratiques largement acceptés.

  • S’engager dans un arbitrage de valorisation, en conservant l’audace du produit, mais en lui attribuant une interprétation plus positive et en recherchant des opportunités de distribution sur des marchés ou dans des contextes plus tolérants ou plus éloignés.

La stigmatisation invite à évaluer la valeur dépréciée et à s’efforcer d’en tirer parti. Ceux qui agissent rapidement, qui identifient correctement les produits ayant un potentiel commercial et qui sont ensuite prêts à parier sur ce potentiel peuvent être largement récompensés lorsque les ventes finissent par reprendre.

The Conversation

Stoyan V. Sgourev ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

14.04.2025 à 12:27

La face cachée du vrac

Fanny Reniou, Maître de conférences HDR, Université de Rennes 1 - Université de Rennes

Elisa Robert-Monnot, Maître de conférences HDR, CY Cergy Paris Université

Sarah Lasri, Maître de Conférences, Responsable du Master 2 Distribution et Relation Client, Université Paris Dauphine – PSL

La vente de produits sans emballage peut devenir antiécologique et générer du gaspillage. Sans étiquette, les dates de péremption des produits s’oublient sans compter que jamais autant de contenants n’ont été achetés.
Texte intégral (1987 mots)
Les consommateurs de vrac de plus de 50&nbsp;ans et CSP+ constituent 70&nbsp;% de la clientèle de ce mode d’achat. DCStudio/Shutterstock

De façon contre-intuitive, la vente de produits sans emballage peut devenir antiécologique et générer du gaspillage. Sans étiquette, les dates de péremption des produits prennent le risque d’être oubliées. Sans éducation culinaire, les consommateurs sont livrés à eux-mêmes pour cuisiner. Sans compter qu’avec la mode de l’emballage sur mesure, jamais autant de contenants n’ont été achetés. Une priorité : accompagner les consommateurs.


Le modèle de distribution en vrac fait parler de lui ces derniers temps avec l’entrée dans les supermarchés de marques très connues, comme la Vache qui rit. Cet exemple est l’illustration des multiples nouveautés que les acteurs du vrac cherchent à insérer dans cet univers pour lui donner de l’ampleur et le démocratiser. Le modèle du vrac, un moyen simple pour consommer durablement ?

Il est décrit comme une pratique de consommation avec un moindre impact sur l’environnement, car il s’agit d’une vente de produits sans emballage, sans plastique, sans déchets superflus, mais dans des contenants réutilisables. Dans ce mode de distribution, on assiste à la disparition de l’emballage prédéterminé par l’industriel.

Distributeurs et consommateurs doivent donc assumer eux-mêmes la tâche d’emballer le produit et assurer la continuité des multiples fonctions, logistiques et marketing, que l’emballage remplit habituellement. N’étant pas habitués à ce nouveau rôle, les acteurs du vrac peuvent faire des erreurs ou bien agir à l’opposé des bénéfices écologiques a priori attendus pour ce type de pratique.

Contrairement aux discours habituellement plutôt positifs sur le vrac, notre recherche met également en avant les effets pervers et néfastes du vrac. Quand les acteurs du vrac doivent se « débrouiller » pour assurer cette tâche nouvelle de l’emballage des produits, le vrac rime-t-il toujours avec l’écologie ?

Assurer l’emballage autrement

L’emballage joue un rôle clé. Il assure en effet de multiples fonctions, essentielles pour rendre possibles la distribution et la consommation des produits :

  • Des fonctions logistiques de préservation, de protection et de stockage du produit. L’emballage peut permettre de limiter les chocs et les pertes, notamment lors du transport.

  • Des fonctions marketing de reconnaissance de la catégorie de produit ou de la marque. Elles s’illustrent par un choix de couleur spécifique ou une forme particulière, pour créer de l’attractivité en rayon. L’emballage assure également, du point de vue marketing, une fonction de positionnement en véhiculant visuellement un niveau de gamme particulier, mais aussi d’information, l’emballage servant de support pour communiquer un certain nombre d’éléments : composition, date limite de consommation, etc.

  • Des fonctions environnementales, liées au fait de limiter la taille de l’emballage et privilégiant certains types de matériaux, en particulier, recyclés et recyclables.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Dans la vente en vrac, ce sont les consommateurs et les distributeurs qui doivent remplir, à leur manière, ces différentes fonctions. Ils peuvent donc y accorder plus ou moins d’importance, en en privilégiant certaines par rapport à d’autres. Dans la mesure où l’industriel ne propose plus d’emballage prédéterminé pour ses produits, consommateurs et distributeurs doivent s’approprier cette tâche de manière conjointe.

Assimilation ou accommodation

Pour étudier la manière dont les consommateurs et les distributeurs s’approprient les fonctions de l’emballage, alors même que celui-ci n’est plus fourni par les industriels, nous avons utilisé une diversité de données : 54 entretiens avec des responsables de magasin et de rayon vrac, et des consommateurs, 190 posts sur le réseau social Instagram et 428 photos prises au domicile des individus et en magasin.

Notre étude montre qu’il existe deux modes d’appropriation des fonctions de l’emballage :

  • par assimilation : quand les individus trouvent des moyens pour imiter les emballages typiques et leurs attributs ;

  • ou par accommodation : quand ils imaginent de nouveaux emballages et nouvelles manières de faire.

Femme remplissant son contenant de lessive
Le vrac peut conduire à des problèmes d’hygiène si les consommateurs réutilisent un emballage en en changeant l’usage. GaldricPS/Shutterstock

Certains consommateurs réutilisent les emballages industriels, tels que les boîtes d’œufs et les bidons de lessive, car ils ont fait leurs preuves en matière de praticité. D’un autre côté, les emballages deviennent le reflet de l’identité de leurs propriétaires. Certains sont bricolés, d’autres sont choisis avec soin, en privilégiant certains matériaux, comme le wax, par exemple, un tissu populaire en Afrique de l’Ouest, utilisé pour les sachets réutilisables.

Quand l’emballage disparaît, les informations utiles disparaissent

L’appropriation des fonctions de l’emballage n’est pas toujours chose facile. Il existe une « face cachée » du vrac, avec des effets néfastes sur la santé, l’environnement ou l’exclusion sociale. Le vrac peut conduire par exemple à des problèmes d’hygiène ou de mésinformation, si les consommateurs n’étiquettent pas correctement leurs bocaux ou réutilisent un emballage pour un autre usage. Par exemple, utiliser une bouteille de jus de fruits en verre pour stocker de la lessive liquide peut être dangereux si tous les membres du foyer ne sont pas au courant de ce qu’elle contient.

Le vrac peut également être excluant pour des personnes moins éduquées sur le plan culinaire (les consommateurs de vrac de plus de 50 ans et CSP + constituent 70 % de la clientèle de ce mode d’achat). Quand l’emballage disparaît, les informations utiles disparaissent. Certains consommateurs en ont réellement besoin pour reconnaître, stocker et savoir comment cuisiner le produit. Dans ce cas le produit peut finalement finir à la poubelle !

Nous montrons également toute l’ambivalence de la fonction environnementale du vrac – l’idée initiale de cette pratique étant de réduire la quantité de déchets d’emballage – puisqu’elle n’est pas toujours satisfaite. Les consommateurs sont nombreux à acheter beaucoup de contenants et tout ce qui va avec pour les customiser – étiquettes et stylos pour faire du lettering, etc.

La priorité de certains consommateurs n’est pas tant de réutiliser d’anciens emballages, mais plutôt d’en acheter de nouveaux… fabriqués à l’autre bout du monde ! Il en résulte donc un gaspillage massif, au total opposé des finalités initiales du vrac.

Des consommateurs pas suffisamment accompagnés

Après une période de forte croissance, le vrac a connu une période difficile lors de la pandémie de Covid-19, conduisant à la fermeture de nombreux magasins spécialisés, selon le premier baromètre du vrac et du réemploi. En grande distribution, certaines enseignes ont investi pour rendre le rayon vrac attractif. Mais faute d’accompagnement, les consommateurs ne sont pas parvenus à se l’approprier. Le rayon du vrac est devenu un rayon parmi d’autres.

Il semble que les choses s’améliorent et les innovations se multiplient. 58 % des adhérents du réseau Vrac et réemploi notent une hausse de la fréquentation journalière sur janvier-mai 2023 par rapport à 2022. Les distributeurs doivent s’adapter à l’évolution de la réglementation.

Cette dernière stipule qu’à l’horizon 2030, les magasins de plus de 400 m2 devront consacrer 20 % de leur surface de vente de produits de grande consommation à la vente en vrac. La vente en vrac a d’ailleurs fait son entrée officielle dans la réglementation française avec la Loi relative à la lutte contre le gaspillage et à l’économie circulaire, parue au JORF no 0035, le 11 février 2020.

Dans ce contexte, il est plus que nécessaire et urgent d’accompagner les acteurs du vrac pour qu’ils s’approprient correctement la pratique.

The Conversation

Fanny Reniou et Elisa Robert-Monnot ont reçu des financements de Biocoop, dans le cadre d'un partenariat recherche.

Elisa Robert-Monnot a reçu des financements de Biocoop dans le cadre d'une collaboration de recherche

Sarah Lasri ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

14.04.2025 à 12:27

Discrimination en raison de l’origine sociale : quand la France respectera-t-elle les textes internationaux ?

Jean-François Amadieu, Professeur d'université, Université Paris 1 Panthéon-Sorbonne

L’origine sociale est considérée comme une source de discrimination. Pourtant, la France tarde à le reconnaître en dépit de preuves patentes. Jusqu’à quand&nbsp;?
Texte intégral (1826 mots)

L’origine sociale est considérée comme une source de discrimination. Pourtant, la France tarde à le reconnaître en dépit de preuves patentes. Jusqu’à quand ?


L’origine sociale figure dans la liste des critères de discrimination dans plusieurs textes internationaux qui s’imposent à la France, notamment la Déclaration universelle des droits de l’homme du 10 décembre 1948, la Convention européenne de sauvegarde des droits de l’homme et des libertés fondamentales du 4 novembre 1950 et la Convention C111 de l’Organisation internationale du travail (OIT) de 1958. Ces textes prennent soin de mentionner l’origine nationale ou sociale.

Mais, dans la liste des critères de discrimination du Code du travail, du Code pénal et dans le statut de la fonction publique, on ne trouve que le terme « origine » sans plus de précision. Cet oubli rend invisibles les discriminations en raison de l’origine sociale et empêche les individus de faire valoir leurs droits.

Derrière ce qui peut sembler une simple imprécision dans la rédaction de nos lois se cache, en réalité, une volonté d’ignorer la dimension sociale des phénomènes de discrimination.

Des demandes sans réponses

L’OIT demande régulièrement à la France de respecter la convention C111 en incluant le terme « origine sociale » dans le Code du travail, sans succès à ce jour.

L’Assemblée parlementaire du Conseil de l’Europe a voté à l’unanimité en 2022 une résolution qui appelle les États membres « à clairement interdire cette forme de discrimination dans la législation ». Elle souligne que,

« dans toute l’Europe, l’origine sociale des personnes, les conditions de leur naissance ont une forte influence sur leur avenir, leur accès à l’éducation et à l’apprentissage tout au long de la vie, leurs perspectives d’emploi et leurs possibilités de mobilité sociale ».

Elle invite aussi à « recueillir des données relatives à l’origine sociale ».


À lire aussi : Devenir manager ne fait plus rêver… sauf les enfants issus d’un milieu populaire


Or, en France, l’Insee vient d’introduire une question dans le recensement concernant les origines « nationales » des parents, mais a refusé de le faire s’agissant de l’origine sociale (« la profession des parents ») en dépit des protestations. Le Conseil de l’Europe invite aussi à « obliger les entreprises publiques et privées à publier des données relatives à l’écart salarial entre les classes ».

Rien de tel n’existe en France en dehors d’expérimentations isolées. En Grande-Bretagne des dizaines de grandes entreprises y procèdent depuis plusieurs années grâce à un index de la mobilité sociale.

La position du défenseur des droits

L’origine sociale n’a jamais été mentionnée dans les présentations que le défenseur des droits donne des différentes discriminations pour informer les victimes sur leurs droits. En 2025, le mot « origine » est illustré par cet exemple : « Je n’ai pas été embauché à cause de mes origines maghrébines ». Il suffit de saisir l’expression « origine sociale » dans le moteur de recherche du défenseur des droits pour ne rien trouver en dehors de documents qui concernent les origines nationales.


Abonnez-vous dès aujourd’hui !

Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).


Pour savoir si les délégués du défenseur des droits dans les départements savent que l’origine peut aussi être « sociale », je leur ai envoyé en 2024 des courriers sous le nom de Kevin Marchand en posant par exemple cette question :

« En regardant le site du défenseur des droits, j’ai vu que l’origine est un critère de discrimination. Vous donnez l’exemple d’une personne qui serait d’origine maghrébine. Ce n’est pas mon cas, mais je suis mis de côté dans mon entreprise pour les promotions et suis souvent moqué en raison de mon origine sociale très modeste ou de mon prénom populaire. Sur votre site, vous dites que le nom est un critère de discrimination, mais qu’en est-il du prénom ? Est-ce que “l’origine sociale” ou bien le prénom sont des critères de discrimination ? »

La réponse explicite la plus fréquente est que ni le prénom en lui-même ni l’origine sociale en elle-même ne sont dans la liste des critères de discrimination. L’idée que les Kevin puissent être harcelés et discriminés au motif que leur prénom est un marqueur social ne saute pas aux yeux de délégués qui suivent ce qui est écrit dans notre droit et la doctrine du défenseur des droits.

Pas de problème d’origine sociale

Chaque année, un baromètre des discriminations est publié par le défenseur des droits dans lequel on propose aux interviewés une liste de critères de discrimination pour savoir s’ils sont témoins ou victimes de discriminations et sur quels critères. Or, dans cette liste, ne figure jamais l’origine sociale. De plus, chaque année, un focus spécifique est choisi et bien entendu l’origine sociale a été oubliée (nous en sommes au 17e baromètre).

L’Ined et l’Insee dans l’enquête « Trajectoire et origines » ne proposent pas non plus aux répondants l’origine sociale parmi les 12 motifs de traitement inégalitaire et de discrimination (genre, âge, orientation sexuelle…) et un des items regroupe « origine ou nationalité ». Il en résulte une vision réductrice des réalités vécues par les répondants.

La réalité des discriminations

Proposer ou ne pas proposer un critère de discrimination aux salariés change beaucoup la vision des discriminations réellement vécues. Dans le baromètre égalité du Medef, quand on demande aux salariés s’ils craignent d’être discriminés et pour quel motif, « l’origine sociale modeste » est le quatrième critère de discrimination le plus cité derrière l’âge, l’apparence physique et le genre. Et, chez les hommes, c’est même la troisième crainte de discrimination au travail. On apprend que 80 % des salariés estiment avoir une caractéristique potentiellement stigmatisante. La séniorité arrive en tête (19 %), suivie de l’origine sociale modeste (17 %).

En 2020, dans ce même baromètre, la question suivante était posée : « Parmi les caractéristiques suivantes, lesquelles vous qualifient le mieux ? », et l’origine sociale modeste était citée en premier.

Le Huff Post, 2023.

Et il ne s’agit pas seulement d’un ressenti. L’origine sociale pèse sur les chances d’obtenir des diplômes, mais aussi sur celles d’être recruté et de faire carrière par l’effet notamment du réseau familial.

France Stratégie a analysé précisément l’effet du milieu social sur les salaires :

« L’écart de salaire moyen entre deux personnes, dont la seule différence est l’origine migratoire, est de 150 euros. Somme qui est multipliée par dix entre un enfant de cadre et un enfant d’ouvrier non qualifié. Des caractéristiques étudiées, l’origine sociale s’avère la plus déterminante en termes de revenu d’activité. En moyenne, 1 100 euros nets par mois séparent le quart des personnes d’origine favorisée du quart des personnes d’origine modeste, à origines migratoire et territoriale comparables. C’est presque deux fois plus que l’écart entre hommes et femmes (600 euros). Si on tient compte du diplôme de l’individu et de son conjoint, un écart demeure entre les classes. »

Combien de temps faudra-t-il pour que le classisme soit reconnu au même titre que le racisme dans le droit de la discrimination ? La France a simplement intégré ce que l’on nomme le « racisme anti-pauvre » avec la « particulière vulnérabilité résultant de la situation économique », mais ce critère traite de la situation actuelle, pas du milieu social d’origine.

La France bat de loin le record mondial du nombre de critères de discrimination figurant dans notre droit (plusieurs dizaines dans le Code du travail), parfois sans que le défenseur du droit puisse même expliquer en quoi consiste un critère (« Capacité à s’exprimer dans une langue autre que le français »). Dans ces conditions, il est frappant que la situation socioéconomique des parents reste ignorée dans l’indifférence générale.

The Conversation

Jean-François Amadieu ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

14.04.2025 à 12:27

Cinq ans après la pandémie, le travail fait-il encore sens ?

Elodie Chevallier, Chercheuse sur le sens au travail, Université catholique de l’Ouest

Selon une étude, la pandémie de Covid-19 a eu un effet immédiat sur le sens au travail en France et au Canada. Cinq&nbsp;ans après, faute de changements durables, ce bouleversement perdure.
Texte intégral (2050 mots)
La France a fait état d’une hausse des démissions de 19,4&nbsp;% en 2021. Opolja/Shutterstock

La pandémie de Covid-19 a agi comme un révélateur du sens accordé au travail. En France et au Canada, elle a provoqué une prise de conscience immédiate. Ses effets se prolongent aujourd’hui : « grande démission », stratégie d’autopréservation face à l’épuisement professionnel, baisse du sentiment d’utilité, aspiration à la reconnaissance des efforts et transitions professionnelles vers des métiers avec plus de sens. Cinq ans après, quelles leçons en avons-nous vraiment tirées ?


Nous nous souvenons tous et toutes de ce que nous faisions le jour où nous avons appris que nous allions être confinés pour quelques semaines… qui se sont transformées en quelques mois. Face à ce virus encore inconnu, nous étions décidés à nous mobiliser, à nous battre, à encourager les travailleuses et les travailleurs essentiels. Nous rêvions du monde d’après, celui où l’on retrouverait nos libertés, celui où l’on mettrait fin aux pratiques qui n’ont plus de sens. Cinq ans après, qu’en est-il de ce « monde d’après » ?

Nous avons mené une recherche pour mieux cerner les effets de la pandémie de Covid-19 sur le sens accordé au travail en France et au Canada. Une première étude qualitative par groupe de discussion s’est déroulée en plein cœur de la pandémie (janvier 2022) auprès de professionnels du conseil en orientation. Une seconde étude quantitative, réalisée à l’issue de la pandémie (janvier 2023), par questionnaire auprès de 166 travailleurs et travailleuses avec au moins cinq ans d’expérience, nous a permis de comprendre l’impact des modalités de travail imposées par la pandémie sur le sens au travail.

La pandémie a clairement eu un effet sur le sens accordé au travail, que ce soit en France ou au Canada, de manière positive ou négative, notamment en fonction des conditions de travail vécues.

La « Grande Démission »

Depuis 2020, plusieurs phénomènes témoignent d’un désengagement croissant ou d’une remise à distance du travail de la part des salariés, révélant un rapport à l’emploi en pleine évolution. Avant la pandémie, la notion de bullshit jobs faisait déjà débat. Depuis, de nouveaux concepts comme le quiet quitting, le « brown-out » ou encore le task masking ont émergé, illustrant une remise en question de l’engagement au travail.


Abonnez-vous dès aujourd’hui !

Chaque lundi, des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).


Parmi ces dynamiques, la « Grande Démission » (Great Resignation) a marqué les esprits. Aux États-Unis, de nombreux salariés ont changé d’emploi pour améliorer leurs conditions de travail. Dans d’autres pays, avec davantage d’encadrement social du travail, le phénomène a été plus mesuré.

Le Canada a connu une hausse des démissions de 14,6 % en 2021 tout en gardant un taux d’emploi plus élevé qu’en 2020.

La France a fait état d’une hausse des démissions de 19,4 % en 2021. Contrairement aux idées reçues, il ne s’agissait pas d’un rejet du travail. Après avoir démissionné, les actifs reprenaient rapidement un emploi. Leur volonté était d’accéder à de meilleures conditions d’emploi dans un marché favorable. Ce phénomène a déjà été observé lors de précédentes reprises économiques, notamment dans les années 2000 avec la bulle Internet, comme en a fait état La Dares.

« Quiet quitting » et autopréservation

Le « quiet quitting », autre buzz word entendu à la sortie de la pandémie, témoigne d’une désillusion croissante vis-à-vis de l’investissement professionnel. Il s’agit moins d’une démission silencieuse que d’une stratégie d’autopréservation face à un travail perçu comme épuisant et dénué de sens. On pourrait le rapprocher de la notion de freinage observée dans les organisations scientifiques du travail, où chaque acte était chronométré.


À lire aussi : « Quiet quitting » : au-delà du buzz, ce que révèlent les « démissions silencieuses »


Pourquoi ces tendances refont-elles surface ?

Si les mesures pour faire face à la pandémie ont permis d’apporter plus de flexibilité et d’autonomie dans le travail, force est de constater que le retour à la normale s’est accompagné de peu de changements structurels. Au contraire, les tendances préexistantes ont été exacerbées : fin du télétravail dans certaines entreprises, conditions de travail rendues encore plus difficiles dans certains métiers, retour dans l’ombre de populations de travailleurs applaudi et considéré comme essentiels lors des temps les plus difficiles de la pandémie de Covid-19.

Deux actifs sur dix s’interrogent davantage sur le sens de leur travail

Dans ces conditions, l’après-pandémie a fait l’effet d’une douche froide laissant un goût amer à de nombreux salariés. Cela s’est traduit par une attention beaucoup plus forte au fait d’occuper un travail qui a du sens. En 2022, deux actifs sur dix s’interrogent davantage sur le sens de leur travail depuis la crise, un phénomène particulièrement marqué chez les jeunes, les cadres et les employés du secteur public.

S’agit-il d’un phénomène purement français ? Pas forcément si l’on regarde de l’autre côté de l’atlantique. Au Canada on note également une quête de sens accrue depuis la pandémie. Il semblerait donc que l’on ait affaire à un phénomène global. Alors, cinq années après le début de la pandémie de Covid-19, il est intéressant de se demander quel a été l’effet de la pandémie sur ce phénomène.

Transition professionnelle

Les évènements, qu’ils soient prévus ou non, influencent notre rapport au travail et nos choix de carrière. La pandémie de Covid-19, en particulier, a été un bouleversement majeur, parfois qualifié de choc de carrière en raison de ses effets sur les trajectoires professionnelles. Chez certaines personnes, cela peut influencer le sens qui est accordé au travail, car l’évènement vient changer l’ordre des valeurs et des priorités.

Cet évènement s’est accompagné de mesures de confinement qui nous ont poussés à changer nos habitudes de vie et de travail. Moins de temps dans les transports, plus de temps en famille, chez certaines personnes cela a créé les conditions pour revoir leurs priorités de vie. La conciliation travail-famille et la recherche d’un équilibre de vie ont été parmi les arguments les plus entendus par les professionnels de l’orientation qui recevaient des personnes amorçant une transition professionnelle. Certaines personnes ont saisi cette occasion pour aller vers un travail davantage porteur de sens à leurs yeux. D’autres personnes ont plutôt vécu cette période comme un évènement qui a participé à dégrader un sens qui n’était pas toujours très fort.

Baisse du sentiment d’utilité

Le travail à distance qui s’est imposé de manière spontanée, ainsi que l’arrêt de certaines activités, a créé un sentiment de perte de sens. Nos résultats montrent que les télétravailleurs à temps plein ont plus souvent connu une baisse de leur sentiment d’utilité et d’autonomie, en particulier dans les métiers considérés comme « non essentiels ».

De même, les personnes qui ont connu une période prolongée d’inactivité – plus de six mois – ont plus souvent exprimé une perte de sens, due notamment à l’absence des relations professionnelles et à la diminution de leurs responsabilités.

Aussi, l’étiquetage de certains métiers comme « non essentiels » a conduit les travailleurs concernés à remettre en question leur utilité sociétale et donc leur engagement professionnel. À l’inverse, ceux occupant des emplois essentiels ont souvent ressenti une plus grande fierté, mais aussi une surcharge et un manque de reconnaissance qui se sont fait sentir un peu plus tard.

Efforts non reconnus

La pandémie a montré qu’une nouvelle manière de considérer le travail était possible, en laissant plus d’autonomie aux salariés, en valorisant certaines professions dénigrées et pourtant essentielles. Mais ces avancées ont été temporaires. Les travailleurs ont fait un énorme effort d’adaptation pour faire face à la pandémie, et ils constatent aujourd’hui que cet effort n’a pas été reconnu. La revalorisation des métiers essentiels s’est souvent limitée à des primes ponctuelles, sans réelle refonte des conditions de travail. La flexibilité et l’autonomie, expérimentées à grande échelle avec le télétravail, ont été freinées par le retour forcé au bureau dans certaines organisations.

Beaucoup de travailleurs ont eu le sentiment d’avoir été floués. Et c’est cela qui a eu l’effet le plus néfaste sur le sens accordé au travail, lorsque les actes ne suivent pas les paroles.

La revalorisation du travail doit dépasser les simples déclarations pour se traduire par des actions concrètes. Il est nécessaire de repenser l’équilibre entre la contribution des salariés et la rétribution qu’ils reçoivent, d’offrir plus d’autonomie à ces derniers et de rapprocher les décisions du terrain. Le sens du travail ne peut être imposé de manière abstraite. Il repose sur la reconnaissance authentique et tangible de l’apport de chaque individu au bon fonctionnement de l’organisation, et cette reconnaissance doit aller au-delà des mots pour être réellement vécue au quotidien.

The Conversation

Elodie Chevallier est chercheuse associée au Centre de recherche sur le travail et le développement et membre du comité scientifique du CERIC.

14.04.2025 à 12:27

Pour sortir de la kakistocratie, il suffit d’affronter l’incompétence !

Isabelle Barth, Secrétaire général, The Conversation France, Université de Strasbourg

Être dirigé par des incompétents, ça n’arrive pas qu’aux autres. Et quand cette incompétence se propage, on est en kakistocratie. Pour en sortir, des actions concrètes sont possibles.
Texte intégral (1930 mots)

Devoir travailler pour (ou être dirigé par) des incompétents, c’est le cauchemar de nombreux salariés ! Ça n’arrive pas qu’aux autres. Et quand cette incompétence se propage dans toute l’organisation, on bascule dans la kakistocratie. S’il n’existe pas de solution magique pour en sortir, des actions concrètes sont possibles pour la prévenir ou en limiter les effets.


La kakistocratie au travail ? C’est la direction par des incompétents ! Et si toutes les organisations ne sont pas des kakistocraties (heureusement !), la kakistocratie se retrouve dans tous les secteurs d’activités.

Spontanément, elle est souvent associée aux grosses structures, à l’administration, au secteur public. En réalité, la taille ne joue aucun rôle et on retrouve aussi des personnes incompétentes à la tête de PME, d’ETI et même de start-up. C’est dire que tout le monde peut être, un jour ou l’autre, concerné. Or la kakistocratie nous interpelle vivement, car elle constitue l’inverse exact de ce qui nous est enseigné dès le plus jeune âge, cette idée selon laquelle « il faut être compétent pour réussir » !

Des conséquences négatives

Mon enquête sur le sujet montre que cette situation produit de nombreux effets, tous négatifs. Parmi ceux cités, citons la perte de performance, la dégradation de l’image de l’entreprise, l’absentéisme, un climat délétère, voire de la souffrance au travail…

Or, voir des incompétents recrutés, puis obtenir des promotions, pallier l’incompétence de son manager au prix de son temps et de son énergie, comprendre qu’un dirigeant notoirement incompétent restera en poste pour de nombreuses années, constituent des pertes de repères et produisent de la souffrance. Comment sortir de cette situation ?

Différentes formes d’incompétence

Face à une kakistocratie, de nombreuses personnes adoptent le comportement qui leur semble le plus adapté de leur point de vue : le désengagement. Cela peut prendre différentes formes, allant de la démission à l’absence. Sans oublier le « quiet quitting » qui consiste à faire le minimum demandé. Certains individus vont plus loin, jusqu’à dénoncer la situation, mais être un lanceur d’alerte est loin d’être simple ! D’autres encore adoptent la posture consistant à affronter la question de l’incompétence. Comment ?


À lire aussi : Victime d’un manager incompétent ? Bienvenue en « kakistocratie » !


Il faut tout d’abord distinguer l’incompétence métier de l’incompétence managériale. La première concerne les hard skills. Si elle est bien repérée, une formation ad hoc permet d’y remédier assez rapidement en général. L’incompétence managériale est plus complexe à gérer. D’abord, parce qu’elle est moins facile à objectiver et souvent diffuse dans l’organisation. En outre, ce type d’incompétence concerne… les dirigeants, ce qui rend plus difficile sa remise en cause. Pourtant, des actions concrètes et mobilisables pour éviter la propagation de ces insuffisances professionnelles sont possibles.

Tout commence dès le recrutement

Commençons par les méthodes les plus évidentes pour éviter que l’incompétence prenne sa place dans l’organisation et se développe au point de devenir une kakistocratie, et ce, dès le recrutement. Les concours qui confondent bagage de connaissances et passeport de compétences doivent être proscrits à tout prix. On le sait, une tête peut être bien remplie et bien faite, mais complètement à côté des attentes inhérentes au poste.

De même, il ne faut pas confondre les compétences d’expertise et de management. Pas plus que le meilleur joueur de football ne fait, le plus souvent, un bon entraîneur, le meilleur vendeur ne sera pas mécaniquement un bon chef des ventes. Ni le meilleur ouvrier un bon chef d’atelier… Éviter ce biais assez courant suppose de ne pas faire du management la seule voie de promotion. Car cette attitude amène des personnes à accepter un poste de manager pour des raisons aussi mauvaises que compréhensibles (l’augmentation de salaire, les avantages, la capacité à prendre des décisions, le pouvoir de faire…).

Le syndrome du fils du patron

La lutte contre toutes les formes de clanisme a aussi un rôle central à jouer, au moment du recrutement ou d’une promotion. Le critère pour l’un ou l’autre doit être les compétences du candidat, et non un lien familial, ou une proximité de formation – un candidat n’est pas bon parce qu’il a fait les mêmes études. Le fameux syndrome du « fils du patron » et toutes les formes de corporatisme doivent être combattus avec une volonté affirmée.

La lutte contre l’incompétence passe aussi par des actions de formation, à commencer par l’évaluation de la vraie compétence. Trop souvent apparences et compétences sont confondues, attribuant des qualités et un potentiel à des personnes sûres d’elles et sachant se mettre en avant. Prendre conscience de ces biais cognitifs pour mieux les combattre est une nécessité.

De même, une formation au management responsable a un rôle majeur. Dans cette optique, un salarié compétent apte à progresser dans l’entreprise ne doit pas être appréhendé comme un futur concurrent, auquel il convient de barrer la route. Au contraire, un bon manager sait faire grandir ses équipes et accepter que certains deviennent meilleurs que lui !


Abonnez-vous dès aujourd’hui !

Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).


Une question d’organisation

Par ailleurs, l’action contre la kakistocratie ne peut pas faire l’économie d’une réflexion sur l’organisation et sur les usages. Quatre voies principales sont à privilégier.

  • Mieux vaut privilégier les compétences internes que de recourir à des consultants externes. Chaque fois qu’une entreprise fait appel à des expertises extérieures (qui peuvent avoir leur utilité), elle envoie aussi un signal négatif à ses équipes qui ne chercheront plus à monter en compétences.

  • Une seconde voie à privilégier consiste à ralentir sur les changements d’organisation, la mobilité des personnes. Trop fréquentes, ces réorganisations permanentes ou presque font perdre toute possibilité de capitaliser sur ses compétences. La compétence a toujours un « coût d’entrée » et le retour sur investissement de cette acquisition n’est jamais instantané.

  • Il importe aussi de donner des marges de manœuvre aux personnes, sans les contraindre à suivre des scripts et des procédures rigides. Les premiers et les seconds ont pour effet de faire perdre toute initiative.

  • Enfin, être vigilant sur les routines qui s’installent et qui sont le nid des « compétences spécialisées » est essentiel. Il faut avoir en tête qu’il existe un moment critique dans le parcours des individus. Le moment où la remise en cause d’un diagnostic ou d’une marche à suivre n’est plus possible, car le salarié est persuadé de son hypercompétence, est critique.

L’incompétence, ça se pense aussi

Faire de l’incompétence un atout ! Un oxymore ? Non, mais il faut accepter de passer par plusieurs étapes. Ainsi, l’incompétence est à la fois une obsession managériale et un impensé. L’incompétence n’est vue que comme le contraire de la compétence. Dans la réalité, les choses sont plus complexes : la compétence et l’incompétence sont indéniablement liées.

Il faut rappeler quelques définitions. L’incompétence (comme la compétence) n’existe qu’en « action » et elle se définit par l’adéquation avec un poste, une fonction, une mission à un moment donné dans un contexte donné. On peut être un manager évalué très compétent dans une entreprise et ne plus l’être dans une autre.

On n’est jamais compétent ou incompétent « en soi ». Ce point est très important : trop souvent, l’incompétence dans un poste débouche sur un diagnostic d’incompétence d’une personne en général.

TED X Clermont-Ferrand 2023.

Nous sommes tous des incompétents

Accepter (en commençant par soi) qu’on soit tous incompétents en quelque chose ou pour quelqu’un. Ce qui amène à :

  • avoir une posture d’apprentissage permanent, aussi bien pour les hard skills que pour les soft skills ;

  • accepter de se faire aider, aller vers les autres (et pas seulement les sachants) et sortir de son silo professionnel pour apprendre ;

  • voir dans ses collaborateurs (et éventuellement son manager) un potentiel qui peut évoluer ;

  • accepter les erreurs et les voir comme des occasions d’apprendre (à condition qu’elles ne se répètent pas à l’identique), de façon à permettre des initiatives qui ne voient le jour qu’avec la confiance en soi. C’est d’ailleurs une des compétences managériales les plus importantes : savoir instaurer la « sécurité psychologique ». Il s’agit de remettre les personnes dans leur zone de compétences et de leur faire confiance.

Faire de l’incompétence une source d’inspiration

Une ouverture plus disruptive est de regarder faire ceux et celles qu’on a enfermés dans leur statut d’incompétents, car leurs « bricolages » (au sens de Lévi-Strauss) peuvent être des sources d’inspiration. Ils proposent d’autres chemins, d’autres façons de faire qui peuvent être inspirantes, et performantes !

L’incompétence, pensée, acceptée, peut alors devenir une source d’innovation et de créativité. Sortir de la kakistocratie passe donc par le management de l’incompétence. Pour cela, il faut l’apprivoiser afin qu’elle ne reste pas une obsession ni, encore moins, une condamnation.

The Conversation

Isabelle Barth ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

14.04.2025 à 12:27

Transformer le management : la démarche Grand 8

Thierry Nadisic, Professeur en Comportement Organisationnel, EM Lyon Business School

Thomas Misslin, Doctorant, Sciences de Gestion, Dauphine-PSL - Chef de projet, Executive Education, EM Lyon Business School

Voici les extraits de «&nbsp;Transformer le management&nbsp;: la démarche Grand&nbsp;8&nbsp;», un livre qui présente une démarche de transformation managériale à la fois fondée sur les recherches et validée par la pratique.
Texte intégral (1920 mots)
Nous avons nommé la démarche que nous vous présentons dans ce livre, «&nbsp;le Grand 8&nbsp;». De même que l’attraction foraine du même nom, elle vise à faire vivre aux managers d’une entreprise une expérience immersive et mémorable. Metamorworks/Shutterstock
Fourni par l'auteur

Dans des environnements chahutés, les entreprises cherchent à évoluer afin de répondre aux besoins économiques, sociétaux et environnementaux de l’ensemble de leurs parties prenantes. L’un de leurs leviers clés est leur transformation managériale. Celle-ci prépare l’encadrement à aider les collaborateurs à trouver plus de sens, de lien social, de compétence, d’autonomie et d’engagement dans leur travail. Voici les extraits de « Transformer le management : la démarche Grand 8 ». Ce livre présente une démarche d’accompagnement à ce type de transformation à la fois fondée sur les recherches et validée par la pratique.*


Nous consacrons une grande partie du temps et de l’énergie de nos vies à travailler dans des organisations, en particulier les entreprises. Nous le faisons car nous pensons que cela en vaut la peine : nous participons ainsi à mettre à la disposition de toute la société des biens et des services qui répondent à ses besoins, qu’il s’agisse de biens comme des plantes pour son jardin ou de services comme l’emprunt qui financera l’achat d’un nouveau chez soi. Ce sens collectif de notre action est l’un des avantages que nous retirons de notre collaboration, en plus du revenu de notre travail et du plaisir que nous ressentons dans la relation aux autres, nos collègues en particulier.

Depuis l’avènement de la nouvelle révolution industrielle fondée sur les technologies de l’information, le contexte stratégique est devenu plus incertain pour les organisations. Il faut s’adapter aux réseaux sociaux, à la digitalisation, à l’intelligence artificielle. Les entreprises doivent aussi se positionner de façon innovante pour continuer à répondre aux demandes changeantes de leurs clients. Plus largement faire face aux bouleversements des sociétés et des économies dus à la mondialisation, à l’arrivée de nouvelles générations sur le marché du travail, aux menaces sur notre environnement naturel. À ces bouleversements systémiques viennent s’ajouter des crises, qu’elles soient sanitaires ou liées à un sentiment d’insécurité géopolitique. Ces changements entraînent des transformations pour ce qui est de la manière de manager dans les organisations. Celles-ci réagiront en effet mieux face à un environnement incertain si elles aident leurs membres à développer une capacité de prise de décision plus autonome et une coopération plus fluide.


Abonnez-vous dès aujourd’hui ! Chaque lundi, des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).


C’est aux managers d’organiser ces nouvelles formes de prise de décision et de coopération en trouvant d’autres façons de faire que le traditionnel style directif. Cela implique de leur part une transformation comportementale afin de maîtriser de nouvelles compétences de management. Celles-ci peuvent consister à organiser le travail de façon plus transversale, à déléguer le pouvoir de décider et d’agir aux collaborateurs (approche souvent appelée empowerment) ou à mieux partager la vision de l’organisation avec leurs équipes. Ces compétences sont traditionnellement acquises par des formations. Ce que nous vous proposons avec ce livre, c’est la présentation d’une approche plus profonde qui vise à accompagner une véritable transformation des comportements managériaux, au service à la fois du projet de l’entreprise et des buts de chaque personne concernée.

Les comportements managériaux cibles peuvent être regroupés dans ce que l’on appelle « le modèle managérial cible de l’entreprise ». Ils impliquent en parallèle une transformation de son organisation et de ses processus de gestion. Par exemple des procédures fondées sur un contrôle hiérarchique étroit a priori de toute action seraient rapidement contradictoires avec le développement de l’empowerment des collaborateurs. Les changements comportementaux réalisés ne pourront être inscrits dans la durée que s’ils trouvent une organisation, une structure et des processus qui les soutiennent.

Dans ce livre, nous définissons le management comme l’activité consistant à coordonner l’action de plusieurs personnes au service d’un but commun. Quant au leadership, il désigne le processus d’influence entre le responsable d’un collectif et les membres de celui-ci […] Nous avons nommé la démarche que nous vous présentons dans ce livre « le Grand 8 ». De même que l’attraction foraine du même nom, elle vise à faire vivre aux managers d’une entreprise une expérience immersive et mémorable. Plus fondamentalement, elle se fonde sur « trois huit » : huit principes actifs qui sont les moteurs de l’acquisition de nouveaux comportements (par exemple le principe de co-construction) ; huit axes pédagogiques qui constituent le parcours que suivra tout participant (dont notamment le rodage des nouveaux comportements avec un groupe de pairs) ; et huit leviers de coopération qui permettent à tous les acteurs du Grand 8 d’avancer en bonne intelligence. Ces trois huit seront détaillés tout au long de chacune des trois parties de ce livre […]

[Si on détaille] la seconde partie du livre, [celle-ci] est composée des huit axes pédagogiques opérationnels du Grand 8 : le lancement, l’observation de l’état des comportements managériaux des participants et la fixation d’objectifs de développement, les séances dites synchrones (c’est-à-dire des moments où les participants sont réunis en même temps en groupes de session, que ce soit en présentiel ou en distanciel) pour acquérir de nouveaux comportements, le travail à distance, la coopération en groupes de pairs, l’utilisation d’un carnet de bord, la mise en œuvre de projets et la convention d’envol du parcours. Un lecteur qui voudrait avoir une vue complète de la démarche en action lira d’abord cette partie […] Le Grand 8 est une recette de cuisine : pour que le plat réussisse, il faut suivre des étapes, mais le plus important est la manière dont les ingrédients se mélangent. Nous rappellerons donc régulièrement dans cette deuxième partie qu’il convient de penser l’action des huit axes pédagogiques comme un système plutôt que comme une séquence.

Ce livre est le résultat d’expériences pratiques. Les auteurs ont pu, en tant que professionnels au sein de l’école de management EM Lyon Business School, accompagner les communautés de 80 à 850 managers au sein d’entreprises partenaires dans les secteurs de la banque, de la logistique, des services informatiques ou de la santé. L’évolution des comportements managériaux qui en a résulté a amené les équipes de ces managers à plus d’envie de s’engager, à des initiatives innovantes et à mieux coopérer. Les entreprises accompagnées ont pu mieux réaliser leurs objectifs stratégiques et leurs managers ont grandi et su favoriser le bien-être au travail de leurs collaborateurs. […] L’épilogue [du livre] montre les résultats concrets obtenus au travers d’une série de mesures, individuelles et collectives, de l’appropriation et de la mise en pratique au quotidien des comportements visés.

Enfin, le Grand 8 est fondé sur les dernières études en neurosciences, psychologie comportementale, pédagogie, théorie des organisations, management et accompagnement. Cette ouverture sur la recherche nous a amenés à le concevoir comme un système ouvert et évolutif. Nous vous donnons ici toutes les clés pour que vous puissiez le mettre en place à votre tour, que ce soit en tant que dirigeant, directeur des ressources humaines ou de la transformation ou responsable de la formation dans votre organisation ou en tant que professeur, consultant, coach ou formateur dans une entreprise partenaire.


Cet article a été écrit avec la participation de Claire Moreau, coach et directrice de programmes chez Humans Matter, et de Gilles Basset, consultant indépendant en Executive Education.

The Conversation

Thomas Misslin est chef de projet de programmes de développement managérial sur mesure dans le département executive education d'emlyon business school

Thierry Nadisic ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

14.04.2025 à 09:28

Google, antitrust enforcement and the future of European digital sovereignty

Anne C. Witt, Professor of Law, Augmented Law Institute, EDHEC Business School

Google’s antitrust worries are piling up in the US and in Europe. But the Trump administration isn’t pleased with EU regulatory efforts.
Texte intégral (1954 mots)
Google’s logo is visible at the company’s site in Cupertino, California, US. NorthSky Films / Shutterstock

Since its beginnings as a humble student start-up in 1998, Google has pulled off a meteoric rise. In 2025, its parent company, Alphabet, is a vast multinational technology conglomerate and one of the world’s most valuable companies. While much of Alphabet’s growth was internal, it also added to its empire through shrewd acquisitions, including of Android, DoubleClick and YouTube. Since 1998, it has acquired at least 267 companies.

Alphabet is a key player in many digital markets, including general search, browsers, online advertising, mobile operating systems and intermediation. Google Search, for example, is now the most widely used general search engine in the world. Globally, its market share has been at least 78% for the past 10 years.

Unsurprisingly, antitrust agencies, whose task is to protect competition, have been taking a close look at Google’s conduct and that of other tech giants. While having market power is not illegal if it is the result of a superior product, protecting such a position by means that are not meritorious is.


A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!


Google’s conduct under scrutiny

In recent years, there has been growing concern that Google may be using anticompetitive means to protect and extend dominant positions in core digital markets. In 2017, 2018 and 2019, the European Commission fined Google over €8 billion for abusing dominant positions in key markets – more than any other Big Tech company to date. A fourth investigation into Google’s behaviour in the advertising technology market, in which the European Commission is likely to request structural changes to Google’s advertising business, is nearing completion. The national competition agencies of the EU member states have also actively enforced EU and national abuse-of-dominance rules. Private antitrust class actions for damages are adding to Google’s woes.

In 2022, the EU enacted the Digital Markets Act (DMA) to create an additional tool for intervening against entrenched market power in core platform markets. The DMA regulates the behaviour of so-called gatekeeper companies, aiming to make markets more contestable for competitors and fairer for users. In September 2023, the European Commission designated Alphabet as a gatekeeper in no fewer than eight platform markets for the following services: Google Search, Google Maps, Google Play, Google Shopping, Google Ads, Chrome, YouTube and Google Android.

Within days of the DMA’s conduct rules becoming binding on Alphabet in March 2024, the European Commission opened the first noncompliance investigation to assess whether Google Search was continuing to treat Alphabet’s own services more favourably than its rivals’, and whether Google Play prevented app developers from steering consumers to other channels for better offers.

For the Trump administration, EU rules amount to non-tariff restrictions

The territorial scope of these rules is limited to services offered in Europe. They do not regulate how Google operates in the United States – this is subject to US antitrust law. Nonetheless, the European Commission’s enforcement actions have provoked the ire of the current US administration. In February 2025, the White House issued a memorandum titled “Defending American Companies and Innovators From Overseas Extortion and Unfair Fines and Penalties” that takes issue with European antitrust and regulatory measures against US companies. According to the Trump administration, the EU’s rules amount to non-tariff restrictions and unfair exploitation of US companies, and they interfere with American sovereignty. The memorandum stresses that Washington will not hesitate to impose tariffs and other actions necessary to mitigate the harm to the United States.

According to the European Union, such actions would amount to economic coercion and interfere with its legislative sovereignty to decide under what conditions services are offered on European soil. In 2022, likely with the possibility of a second Trump presidency in mind, it enacted the so-called Anti-Coercion Instrument, which allows the European Commission to impose a wide range of “response measures”, including tariffs and restrictions on imports, exports, intellectual property rights, foreign direct investment, and access to public procurement. Such response measures could be imposed on US digital services.

Potential for escalation

The situation has the potential to further escalate the risk of a trade war between Europe and the United States. However, the dispute over tech regulation does not appear to be about substantive antitrust principles per se.

In 2020, the US House of Representatives issued a bipartisan report stressing the need for the United States to address the lack of competition in digital markets and the monopoly power of dominant platforms like Amazon, Apple, Facebook and Google. The Federal Trade Commission and the Department of Justice subsequently brought antitrust lawsuits against all four companies, most of which are still pending.

The Department of Justice filed two separate antitrust suits against Google in 2020 and in 2023. In the first case, a Washington DC district court in August 2024 found Google guilty of violating section 2 of the Sherman Antitrust Act, and established that Google had attempted to protect its monopoly power in the market for general search through anticompetitive means. Judge Amit P. Mehta is now determining appropriate remedies, and the Department of Justice recently reiterated its request that the judge break up Google.

The second US case against Google is still pending. The accusations in it are similar to those underlying the European Commission’s ongoing investigation into Google’s behaviour in the market for advertising technology. While the case was initiated during the Biden administration, it has not (yet) been shut down since Trump returned to power. It’s also worth noting that the new head of the Federal Trade Commission has stressed that Big Tech is a main priority of his agency. There seems to be concern on both sides of the Atlantic that Google has been restricting competition. The crux of the discord, most likely, is that European regulators are telling US companies what to do – even if on European territory.

Europe lacks equivalents to Big Tech

The European Commission appears determined to keep enforcing its antitrust rules and the DMA. On March 19, 2025, it informed Alphabet that its preliminary assessment had shown that Google’s behaviour in search and in the Google Play Store was incompatible with the DMA. Also, the first noncompliance decisions against Apple and Meta under the DMA are expected shortly – even though the fines may well stay below the maximum 10% of a company’s global annual turnover allowed by the act, in view of its novelty.

Europe is not an insignificant market for Google and other US tech companies. In 2024, Google reportedly generated 29% of its global revenue, or $100 billion, in Europe, the Middle East and Africa. Europe has no equivalents to Google or other Big Tech companies, and the EU today imports 80% of its digital technology. In September 2024, the Draghi Report issued a stark warning to bloc leaders, highlighting waning geopolitical stability and the need for Europe to focus on closing the innovation gap with the US and China in advanced technologies. Less than five months later, the European Commission published the Competitiveness Compass, a roadmap to restoring Europe’s dynamism and boosting economic growth. Strong measures from the White House in retaliation for European antitrust and regulatory enforcement might just give this process additional impetus. President Trump cannot make European tech great again, because it never was great. But his policies may unintentionally help make it so.

The Conversation

Anne C. Witt ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

13.04.2025 à 13:07

L’effondrement des traités de limitation des armements met l’humanité entière en danger

Julien Pomarède, Associate professor in International Politics, Promoter of the WEAPONS Project (FNRS - 2025-2028) (Université de Liège) - Research Fellow REPI ULB. Promoter « WEAPONS » Research Project (FNRS - 2025-2028), Université de Liège

Tout l’édifice normatif construit depuis plus de soixante ans pour limiter ou interdire certains armements, notamment nucléaires, est en train de disparaître.
Texte intégral (3080 mots)

Ces dernières années, on observe un rapide délitement des conventions internationales interdisant ou encadrant les armements, nucléaires ou non. Exacerbé par les conflits récents, en particulier par la guerre d’Ukraine, ce processus, que les États justifient par leurs impératifs de sécurité immédiate, met en danger l’avenir de la sécurité internationale et, au-delà, rien de moins que l’habitabilité de notre planète.


Depuis la Seconde Guerre mondiale, les conventions internationales sur la limitation des armements ont joué un rôle clé dans la régulation des arsenaux militaires mondiaux. Certes, elles n’ont pas permis une abolition complète des armements particulièrement létaux et peu discriminants pour les civils. De même, les adhésions des États à ces conventions sont variables et leur transgression a été, et reste, régulière. Mais ces textes fournissent un cadre institutionnel, normatif, efficace et raisonnable dans les contraintes qu’ils font peser sur la marge de manœuvre des États à s’armer et à se défendre – un cadre qui subit aujourd’hui un délitement rapide.

Du TNP à New START, des décennies d’efforts de limitation des armements

Certaines des plus importantes de ces conventions ont été adoptées lors de la guerre froide, période historique inégalée en termes de prolifération des moyens physiques de destruction.

Sur le nucléaire, rappelons deux textes piliers : le Traité de non-prolifération des armes nucléaires (TNP, 1968), et le Traité sur les forces nucléaires à portée intermédiaire (INF, 1987), accord majeur passé entre les États-Unis et l’Union soviétique (puis la Russie).

En limitant la prolifération des armes nucléaires et en visant l’élimination des missiles à portée intermédiaire en Europe, ces accords ont permis de créer un environnement de contrôle et de réassurance entre les grandes puissances.

Les textes relatifs au contrôle des armes nucléaires ont également connu des évolutions significatives après la guerre froide, avec l’adoption du Traité sur l’interdiction des essais nucléaires (1996) et le New START (Start signifiant Strategic Arms Reduction Treaty, littéralement « traité de réduction des armes stratégiques »), signé en 2010 entre les États-Unis et la Russie, qui a pour objectif de limiter les arsenaux nucléaires stratégiques de chaque pays, en plafonnant surtout le nombre de têtes nucléaires déployées.

L’effet combiné de ces traités, dont ceux évoqués ne sont que des exemples d’un ensemble normatif plus vaste, a permis une réduction importante des stocks d’armes nucléaires, lesquels sont passés – pour le cumulé seul États-Unis/URSS puis Russie – d’un pic d’environ 63 000 au milieu des années 1980 à environ 11 130 en 2023.

Des efforts de désarmement dans d’autres secteurs ont été poursuivis après la fin de la guerre froide, comme la Convention d’Ottawa sur les mines anti-personnel (1997) et celle d’Oslo sur les bombes à sous-munitions (2008). Ces régimes se sont développés en raison surtout des pertes civiles causées par ces armements et de leur « violence lente ». Susceptibles de ne pas exploser au moment de leur utilisation, ces mines et munitions restent enterrées et actives après la période de guerre, ce qui tue et mutile des civils, pollue les souterrains, constitue un fardeau financier pour le déminage et freine voire empêche les activités socio-économiques (par exemple l’agriculture).

Une dégradation inquiétante

Le problème est que, dernièrement, tout cet édifice normatif construit ces soixante dernières années s’effrite et se trouve menacé de disparition.

En 2019-2020, les États-Unis se retirent des traités INF et Open Skies. Le traité Open Skies, signé en 1992, permet aux États membres d’effectuer des vols de surveillance non armés sur le territoire des autres signataires pour promouvoir la transparence militaire et renforcer la confiance mutuelle. En 2020-2021, la Russie rétorque en faisant de même.

Le New START a également connu une trajectoire accidentée. Lors de sa première présidence, Trump avait refusé à la Russie d’étendre la durée de validité de l’accord, le jugeant trop désavantageux pour les États-Unis. S’il fut ensuite étendu sous l’administration de Joe Biden, la participation de la Russie fait l’objet d’une suspension depuis février 2023, ce qui implique par exemple l’impossibilité d’effectuer des contrôles dans les installations russes (une des mesures de confiance prévues par le Traité). Au vu de la situation actuelle, le renouvellement de New START, prévu pour 2026, ne semble pas acquis.

Les effets de cette érosion normative ne sont pas moins inquiétants parmi les autres États dotés. Prenant acte de ces désengagements et en réaction aux livraisons d’armes des États-Unis à Taïwan, la Chine a fait savoir en juillet 2024 qu’elle suspendait ses pourparlers sur la non-prolifération nucléaire et a entamé une politique d’augmentation de ses arsenaux. Plus récemment encore, Emmanuel Macron a annoncé qu’une augmentation du volume des Forces aériennes stratégiques françaises serait à prévoir.

Le troisième âge nucléaire

Ces décisions ouvrent la voie à ce que certains qualifient de « troisième âge nucléaire ». Cette nouvelle ère, caractérisée par un effritement marqué de la confiance mutuelle, est d’ores et déjà marquée par une nouvelle course aux armements, qui allie politique de modernisation et augmentations quantitatives des arsenaux.

La reprise de la course aux armements ne fait qu’ajouter une couche d’incertitude supplémentaire et de tensions potentielles. Certaines de ces tensions, d’une ampleur plus vue depuis la fin de la guerre froide, se manifestent déjà ces dernières années : en 2017, les États-Unis et la Corée du Nord se sont mutuellement menacés de destruction nucléaire. Et depuis février 2022, la Russie a à multiples reprises brandi la menace d’un usage de la bombe nucléaire afin de dissuader les pays occidentaux de soutenir militairement l’Ukraine.

Dernier danger, non des moindres et qui se trouve décuplé par la reprise de la course aux armements : l’humanité n’est jamais à l’abri d’une défaillance technique des appareils de gestion et de contrôle de l’arme nucléaire.

On l’aura compris : agglomérés, ces facteurs nous font vivre dans une période particulièrement dangereuse. Et cela, d’autant plus que les évolutions concernant les autres types d’armements ne sont pas moins inquiétantes, en particulier dans le contexte des tensions entre la Russie et ses voisins directs liés à l’invasion de l’Ukraine. Certains pays ont quitté (Lituanie) et annoncé vouloir quitter (Pologne et les trois pays baltes) les conventions interdisant l’usage des mines anti-personnel et des bombes à sous-munitions. Même si, comme la Russie, les États-Unis n’ont pas adhéré à la convention d’Oslo, la livraison des bombes à sous-munitions à l’Ukraine consolide cette érosion normative globale en participant au déploiement de ces munitions sur les champs de bataille contemporains.

Un effondrement normatif injustifié à tous points de vue

Pour justifier le retrait ou la transgression des conventions internationales sur la limitation des armements (et des pratiques guerrières illégales plus généralement), l’argument principalement avancé est le suivant : cela permet de mieux dissuader et de mener la guerre plus efficacement.

Autrement dit, pourquoi prendre le risque de se mettre en position d’infériorité stratégique en s’astreignant à des limites que des pays qui nous sont hostiles ne se donnent pas la peine de respecter ? Pourquoi ne pas augmenter son seuil de brutalité, partant de l’idée que, dès lors, on aura plus de chances 1) de dissuader l’ennemi de nous déclarer la guerre et 2) si la dissuasion échoue, de sortir vainqueur du conflit ?

Cette réflexion, qui peut sembler cohérente au premier abord, repose en réalité sur une lecture simpliste des rapports politiques et des dynamiques guerrières. C’est une idée infondée et lourde de conséquences, à la fois pour la stabilité internationale, pour l’avenir de l’humanité et pour l’état environnemental de notre planète. Trois raisons permettent de donner corps à ce constat.

Tout d’abord, le fondement rationnel du démantèlement de cet appareil normatif est questionnable. Le nucléaire est un exemple frappant, à commencer par le Traité INF. Rappelons que, selon les estimations, l’usage de « quelques » centaines de bombes nucléaires suffirait à mettre en péril la quasi-entièreté de la vie sur Terre, par la combinaison de l’effet explosif et du cataclysme climatique qui s’en suivrait. En d’autres termes, les stocks post-guerre froide, même réduits à environ 13 000 aujourd’hui à l’échelle planétaire, sont déjà absurdes dans leur potentiel de destruction. Les augmenter l’est encore plus.

C’est pourquoi nombre d’experts estiment que la décision de Trump de retirer les États-Unis du Traité INF présente bien plus d’inconvénients que d’avantages, au premier rang desquels la reprise (devenue réalité) d’une course aux armements qui n’a pour conséquence que de dépenser inutilement des sommes astronomiques dans des arsenaux nucléaires (qui, rappelons-le, présentent la tragique ironie d’être produits pour ne jamais être utilisés) et de replonger l’humanité dans l’incertitude quant à sa propre survie.

Ajoutons à cela que l’on peut sérieusement douter de la capacité des États à gérer les effets d’une guerre nucléaire sur leurs populations. À cet égard, la comparaison avec l’épidémie de Covid-19 est instructive. Quand on voit que les gouvernements ont été incapables de contenir une pandémie infectieuse, en raison notamment des politiques de restriction budgétaire en matière de santé et de services publics plus généralement, on peine à croire qu’ils pourraient gérer la catastrophe sanitaire et médicale consécutive à des frappes nucléaires.

Passons maintenant au champ de bataille lui-même et à la remise en cause récente des accords sur les mines et les bombes à sous-munitions. S’affranchir de tels régimes n’a guère plus de sens, pour la simple raison que conduire la guerre plus « salement » n’a pas de lien avec une efficacité plus grande dans l’action militaire.

Les exemples historiques abondent, à commencer par les guerres récentes des grandes puissances. En Ukraine, l’armée russe est responsable d’un nombre incommensurable de crimes de guerre et utilise massivement des mines et des bombes à sous-munitions. Pourtant, cette litanie d’atrocités n’a pas amené plus de succès. La Russie s’est embourbée, sacrifie des soldats par dizaines de milliers, et du matériel en masse, pour des gains territoriaux qui restent limités au vu de la consommation en vies humaines et en ressources.

Le bilan de la guerre contre le terrorisme des États-Unis et de leurs alliés dans les années 2000-2010 n’est pas plus reluisant. Sans même compter le volume considérable de ressources allouées aux campagnes du contre-terrorisme militaire, la pratique étendue de la torture, les assassinats ciblés (par drones ou forces spéciales), le développement d’un archipel de centres de détention extra-légaux (type Guantanamo ou Black Sites (prisons secrètes) de la CIA), l’usage de munitions incendiaires en zone urbaine (bombes au phosphore blanc en Irak), tout ce déluge de violence n’a pas suffi à faire de la guerre contre la terreur autre chose qu’un échec cuisant aux conséquences encore aujourd’hui désastreuses.

En somme, effriter le régime d’interdiction des armes non discriminantes ne rend pas la guerre plus efficace mais la rend, pour sûr, plus meurtrière, plus atroce et étend ses effets létaux davantage au-delà de la guerre elle-même en blessant et en tuant encore plus de civils.

Enfin, la destruction de ces régimes de régulation engendrera des conséquences démesurées pour deux autres batailles bien plus essentielles à mener : le maintien de nos démocraties et de l’habitabilité de notre planète.

Éroder ces traités revient à s’aligner sur les pratiques sanglantes des régimes autoritaires, à commencer par la Russie ou même encore la Syrie qui, du temps de Bachar al-Assad et de la guerre civile, avait aussi fait un usage généralisé de mines et d’autres armes visées par ces conventions d’interdiction. Alors que la crédibilité internationale de nos normes démocratiques est déjà significativement écornée du fait de livraisons et soutiens militaires à des pays responsables de massacres, détruire ces régimes de régulation ne ferait qu’encourager plus largement le recours à ces types d’armes par tous les régimes, démocratiques ou non.

Se ressaisir avant qu’il ne soit trop tard

Enfin, et c’est au fond l’enjeu majeur, ces dynamiques augmentent l’inhospitalité de notre planète pour la vie humaine. Si les grandes puissances prenaient un tant soit peu au sérieux l’urgence climatique à laquelle nous sommes tous confrontés, un encadrement bien plus strict des activités militaires existerait dans le domaine.

Les institutions militaires sont responsables d’une pollution considérable et de destructions d’écosystèmes entiers, en raison des destructions environnementales provoquées par les armes/munitions elles-mêmes, de la consommation démesurée d’hydrocarbures et des activités entourant les armes nucléaires (extractions minières, tests, gestion des déchets). La remilitarisation qui s’annonce et l’effritement des traités de limitation des armements ne font qu’accélérer la catastrophe écologique vers laquelle on se dirige. À quoi bon continuer à militariser à outrance une planète qui tolère de moins en moins notre présence ?


À lire aussi : Guerre en Ukraine et destruction de l’environnement : que peut le droit international ?


Pour résumer, les conventions adoptées au cours des décennies passées ont permis de poser quelques limites raisonnables à une destruction humaine et environnementale de masse qui n’a fait que grossir, s’étendre et se normaliser depuis la seconde moitié du XIXe siècle.

Détruire ces régimes de régulation – sous le futile prétexte qu’on ne devrait pas s’imposer des limites que les autres ne se posent pas – ne présente que des désavantages.

Ce détricotage normatif va au-delà de la question seule des armements ; il reflète le mépris grandissant pour nos standards démocratiques et, au-delà, pour le vivant dans son ensemble.

The Conversation

Julien Pomarède a reçu des financements du Fonds National de la Recherche Scientifique (FNRS - Belgique).

13.04.2025 à 13:05

La semi-liberté, solution pour désengorger les prisons et réinsérer les détenus ?

Marion Vannier, Chercheuse en criminologie, Université Grenoble Alpes (UGA)

Le doublement des places en semi-liberté annoncé par Gérald Darmanin, ministre de la justice, interroge. Une politique de réinsertion sera-t-elle menée, ou s’agit-il uniquement de désengorger des prisons surpeuplées&nbsp;?
Texte intégral (1835 mots)

Alors que la surpopulation carcérale pousse le gouvernement à élargir les dispositifs alternatifs, le doublement des places en semi-liberté annoncé en janvier 2025 interroge. Cette annonce sera-t-elle accompagnée de moyens humains, sociaux et territoriaux indispensables à la réinsertion des détenus ?


Le 23 janvier 2025, lors d’un déplacement à l’École nationale de l’administration pénitentiaire (Enap) à Agen, le garde des sceaux, Gérald Darmanin, a dévoilé deux mesures majeures. La première concerne l’ouverture, prévue pour le 31 juillet 2025, d’un établissement pénitentiaire de haute sécurité spécialement réservé aux narcotrafiquants. En parallèle, il a annoncé le doublement des places en semi-liberté d’ici à 2027, pour atteindre 3 000 places au total. Tandis que la première mesure répond à une logique sécuritaire de contrôle et d’isolement, la seconde est présentée comme une réponse pragmatique à la crise de la surpopulation carcérale. Ensemble, ces annonces traduisent une volonté politique de concilier fermeté pénale et ouverture limitée à la réinsertion.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Comment réduire la surpopulation carcérale ?

L’étude des politiques pénales états-unienne a permis d’identifier trois approches principales pour résoudre la surpopulation carcérale : la construction de nouvelles prisons, la libération anticipée des détenus et la modification des lois pour réduire le recours à l’incarcération.

Un exemple récent de cette logique se trouve au Royaume-Uni, avec le programme Standard Determinate Sentences, dit SDS40, qui permettait la libération anticipée de certains détenus après 40 % de leur peine. Les infractions graves, comme le meurtre ou le harcèlement criminel, sont exclues du dispositif. Ce phénomène, qualifié de « bifurcation », vise à concilier des objectifs contradictoires et offrir ainsi un compromis politique, où la volonté de réduire l’emprisonnement pour certains s’accompagne du maintien strict de l’incarcération pour d’autres.

La situation actuelle en France reflète ce mécanisme, à ceci près que l’élément prétendument progressiste, à savoir le doublement des places en semi-liberté, mérite un examen critique. Plutôt que de traduire un véritable engagement structurel en faveur de la réinsertion, le doublement des places en semi-liberté annoncé par Gérald Darmanin semble relever d’un ajustement ponctuel face à la crise carcérale.

Certes, le ministre évoque des moyens supplémentaires, mais les détails concrets sur l’accompagnement social, éducatif ou médical restent flous. En l’absence d’une réforme profonde des conditions de mise en œuvre de la semi-liberté, cette mesure s’apparente davantage à une réponse pragmatique court-termiste qu’à une stratégie cohérente de réintégration et de justice sociale.

Qu’est-ce que la semi-liberté ?

La semi-liberté est un aménagement de peine permettant aux condamnés de quitter un centre de détention à des horaires définis pour exercer des activités extérieures (travail, formation, soins, vie familiale, etc.). Elle est accordée par le juge de l’application des peines] sous certaines conditions, et constitue souvent une phase probatoire avant une libération conditionnelle. Toutefois, la personne demeure en prison : toute absence non autorisée est considérée comme une évasion. Cette procédure a démontré son efficacité en termes de prévention de la récidive.

Les places en semi-liberté se répartissent entre 9 centres de semi-liberté (CSL, établissements autonomes) et 22 quartiers de semi-liberté (QSL, rattachés à un établissement pénitentiaire) soit 1 635 places disponibles en France, d’après la direction de l’administration pénitentiaire (2025).

Selon cette dernière, au 1er janvier 2025, le taux d’occupation était de 88 %, en forte augmentation par rapport à 2021 (68,8 %), ce qui illustre l’essor de ce dispositif. Cependant, la répartition de ces établissements est inégale. Certains se situent en zone rurale, mal desservie par les transports, limitant ainsi les opportunités de réinsertion. D’autres, comme celui de Grenoble bénéficient d’un ancrage urbain facilitant la transition vers la vie civile.

L’octroi d’une mesure de semi-liberté repose sur l’implication active du condamné dans un parcours d’insertion, incluant la recherche de soins, la réparation des dommages, la recherche d’emploi ou la participation à une formation et le maintien des liens familiaux. Cependant, ces efforts individuels ne suffisent pas. Il apparaît évident que l’efficacité de la semi-liberté dépend avant tout d’un accompagnement structuré pour reconstruire une trajectoire stable.

Des services d’insertion et de probation sous-dotés

Cependant, les services pénitentiaires d’insertion et de probation (Spip) en France sont confrontés à une charge de travail excessive et à des ressources financières limitées, ce qui entrave leur capacité à accompagner efficacement les personnes en semi-liberté, comme le montre un rapport du Sénat). Selon les chiffres communiqués par la direction de l’administration pénitentiaire pour 2024, il manque 327 conseillers pénitentiaires d’insertion et de probation, 61 directeurs pénitentiaires d’insertion et de probation, 51 psychologues, 45 coordinateurs d’activités culturelles et 36 assistants de service social.

Bien que le budget de l’administration pénitentiaire ait connu des augmentations, une part significative de ces fonds est allouée à la construction de nouvelles places de prison. Par exemple, en 2023, plus de 680 millions d’euros ont été consacrés à la construction de 15 000 places supplémentaires, avec un coût total estimé à 4,5 milliards d’euros d’ici 2027. Le projet de loi de finances pour 2024 prévoyait une augmentation de 3,9 % des dépenses de fonctionnement des Spip, en lien avec la création de 1 500 emplois, entre 2018 et 2022. Mais le projet de loi des finances 2025, adopté le 14 février, prévoit une diminution du budget alloué aux Spip, passant de 123,2 millions d’euros en 2024 à 121,8 millions d’euros en 2025, suscitant nombre d’inquiétudes quant au fonctionnement des aménagements de peine et de la réinsertion efficace des personnes détenues.

Repenser les parcours de réinsertion

Par ailleurs, il est impératif d’assurer un ancrage local des structures et un accès facilité aux transports, en les implantant stratégiquement selon les opportunités d’emploi. La localisation des centres de semi-liberté ne doit donc pas être aléatoire, mais pensée pour maximiser l’insertion professionnelle et sociale. L’implication des collectivités et des citoyens] est aussi un facteur clé, car elle permet de commencer à tisser des liens qui perdureront entre les personnes détenues et la communauté qu’ils cherchent à réintégrer. La réussite de la semi-liberté repose sur la collaboration entre l’administration pénitentiaire, les acteurs sociaux et les entreprises locales.

Il est enfin crucial que cette collaboration soit conçue de manière à reconnaître les détenus non seulement comme des individus à réhabiliter, à reformer, mais aussi comme des acteurs capables d’autonomie et dotés d’expériences uniques, comme j’ai tenté de le montrer dans l’ouvrage Prisoner Leaders : Leadership as Experience and Institution.

Le débat sur la semi-liberté et le phénomène de bifurcation observé invitent à une réflexion plus large sur le format carcéral. Certaines initiatives internationales, telles que Rescaled et Working in Small Detention Houses (Wish), inspirées des modèles nordiques, montrent l’intérêt de structures spécialisées et intégrées localement. Ces approches favorisent un accompagnement plus personnalisé et une transition progressive vers la liberté.

En France, le programme pilote Inserre suit cette logique en prévoyant la création d’une nouvelle catégorie d’établissement pénitentiaire, axée sur la réinsertion par le travail. La première structure de ce type verra le jour à Arras, en 2026], et illustre une volonté d’adapter les infrastructures carcérales aux défis de la réinsertion.

S’il est essentiel de repenser la place de la réinsertion dans les politiques pénales, en évitant une approche purement punitive, il est crucial d’imaginer la prison non pas comme un espace géographiquement et symboliquement isolé, mais comme une institution intégrée à la communauté, favorisant des liens continus entre les personnes détenues et les acteurs sociaux tout au long de leur peine, et non uniquement à sa fin. Cette nouvelle conceptualisation est fondamentale pour une réinsertion efficace, pour la prévention de la récidive et pour le maintien de la cohésion sociale.


Article écrit avec la collaboration de Céline Bertetto, Patrick Malle, Marie-Odile Théoleyre, Bénédicte Fischer, et Jean-Charles Froment.

The Conversation

Marion Vannier a reçu des financements du fond 'UK Research & Innovation'.

13.04.2025 à 13:05

La flexibilité électrique, ou comment décaler nos usages pour optimiser la charge du réseau

Etienne Latimier, Ingénieur énergies renouvelables électriques et réseaux F/H, Ademe (Agence de la transition écologique)

La hausse à venir de notre consommation électrique ainsi que le développement des énergies renouvelables impliquent d’optimiser davantage l’équilibre entre offre et demande.
Texte intégral (1407 mots)

La « flexibilité électrique », c’est-à-dire la capacité à ajuster production, distribution et consommation sur le réseau électrique pour répondre aux fluctuations de la demande, n’est pas un enjeu nouveau. Ce concept revêt une importance nouvelle face à l’impératif de décarbonation de l’économie. Cela permet par exemple d’éviter que la charge de tous les véhicules électriques au même moment de la journée ne mette en péril la stabilité du réseau.


Les débats sur l’énergie en France voient monter en puissance, depuis quelques mois, la notion de flexibilité électrique. De plus en plus d’entreprises françaises développent des outils dédiés à mieux piloter la demande en électricité.

Comprendre pourquoi cette notion, pourtant ancienne, prend aujourd’hui une ampleur nouvelle, implique d’observer les deux grandes tendances qui dessinent l’avenir du système énergétique français : la décarbonation et le déploiement des énergies renouvelables.

D’un côté, la France poursuit son effort de décarbonation de l’économie dans le but d’atteindre au plus vite ses objectifs de réduction des émissions de gaz à effet de serre. La Stratégie nationale bas carbone (SNBC) vise la neutralité carbone à l’horizon 2050. Cet enjeu requiert d’électrifier un maximum d’usages qui utilisaient des énergies thermiques. En premier lieu la mobilité, en encourageant le passage des véhicules thermiques aux électriques, mais aussi l’industrie, qui s’appuie encore beaucoup sur les fossiles à des fins de production de chaleur, et enfin le chauffage, pour lequel le gaz concerne encore 15 millions de foyers en France.

Malgré des mesures d’efficacité énergétique permises par la rénovation et des gains de rendement menés en parallèle, les nouveaux usages liés à la décarbonation commencent à engendrer une progression globale de la consommation électrique du pays.

De l’autre côté, pour répondre à ces besoins, la France incite au développement rapide des énergies renouvelables, avantageuses sur les plans économique et environnemental.

La Programmation pluriannuelle de l’énergie (PPE), actuellement en consultation, table sur une évolution de la part des énergies renouvelables dans le mix de production électrique française qui passerait de 25 % en 2022 à 45 % environ en 2050.

Piloter l’offre et la demande

Ces énergies se caractérisent par une production plus variable. En ce qui concerne le photovoltaïque et l’éolien, ils ne produisent d’électricité que lorsqu’il y a du soleil ou du vent. L’électricité étant difficile à stocker, la marge de manœuvre pour répondre à cette variabilité temporelle consiste à agir sur l’offre et la demande.

Jusqu’ici, c’est surtout par l’offre que le pilotage s’opérait, en s’appuyant le volume de production nucléaire et en réalisant simplement un petit ajustement à l’aide des tarifs heures pleines/heures creuses. Désormais, l’enjeu est de piloter l’offre différemment et d’actionner davantage le levier de la demande.

D’où l’utilité de la flexibilité électrique, par lequel le consommateur jouera un rôle plus important par ses pratiques de consommation.

Décaler nos usages

Comme évoqué précédemment, la seule alternative à la flexibilité électrique est le stockage de l’électricité. Or cette méthode est moins vertueuse. Elle présente un coût économique élevé même si le prix des batteries a diminué. En effet leur production engendre, par la pollution qu’elle génère, un coût environnemental peu cohérent avec la démarche de décarbonation menée en parallèle. Sans parler des risques à venir en matière d’approvisionnement, certains des métaux intégrés aux batteries étant considérés comme critiques.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Privilégier la flexibilité la majorité du temps – et garder la possibilité du stockage pour pallier les variations de production intersaisonnières – apparaît donc comme l’option la plus pertinente. L’idée est d’adapter la consommation à l’offre, en évitant de faire transiter l’électricité par des intermédiaires de stockage. Concrètement, cela consiste à viser, lors du suivi, un équilibre constant entre l’offre et la demande, en incitant les usagers à consommer davantage lorsque la production est importante. En particulier, dans le cas du solaire, en pleine journée.

En effet, la production solaire atteint aujourd’hui en France un niveau significatif en journée, même en hiver. Celle-ci est même supérieure à nos besoins au milieu de certaines journées d’été. Le surplus est, dans la mesure du possible, envoyé à l’étranger, mais cela ne suffit pas toujours pour l’utiliser dans sa totalité. Pour résoudre ce problème, la flexibilité électrique consiste à développer la logique des heures pleines heures creuses, en créant d’autres périodes tarifaires qui intègrent de nouvelles heures creuses en cœur de journée. C’est ce que la Commission de régulation de l’énergie commence à mettre en place.

Il s’agit par exemple d’inciter les consommateurs à décaler la recharge du million de véhicules électriques déjà en circulation en France – 18 millions attendus en 2035 – pendant les périodes de production solaire. Dans l’édition 2023 de son bilan prévisionnel, RTE estime que la consommation annuelle des véhicules électriques s’élèvera en 2035 à 35 TWH, contre 1,3 TWh en 2023. Il faudra donc éviter que toutes les voitures se retrouvent à charger en même temps au retour de la journée de travail.

Inciter le consommateur à décaler ses consommations

Encourager de tels comportements implique une incitation économique qui peut passer par des offres de fourniture électrique. Tout comme le tarif heures pleines/heures creuses qui existe déjà, mais dont les horaires vont être petit à petit modifiés.

D’autres offres plus dynamiques, proposant des plages horaires plus précises encore, différenciées au sein de la semaine, de la journée et de l’année, commencent aussi à émerger. L’offre EDF Tempo, par exemple, permet de payer plus cher son électricité pendant une période qui concerne les heures pleines de 20 journées rouges dans l’année, tandis que le reste du temps est plus avantageux financièrement.

La flexibilité électrique existe depuis les années 1980 mais elle peine encore à se développer. En effet, les citoyens sont davantage sensibles à la maîtrise de leur consommation. Les deux sont pourtant complémentaires : il s’agit non seulement de consommer moins mais aussi mieux. Pour cela, il est crucial de rendre ce type d’offres disponibles et surtout le plus lisibles possible pour les consommateurs en montrant leur facilité d’utilisation, même si certaines resteront orientées vers un public plus averti que d’autres.

Pour le consommateur cela implique de prendre certaines habitudes, mais ce décalage partiel de nos usages – lorsque c’est possible – ne concerne pas l’année entière. Surtout, il permet de contribuer à éviter le gaspillage d’électricité tout en réalisant des économies.

The Conversation

Etienne Latimier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

13.04.2025 à 13:03

African Credit Rating Agency : l’Afrique cherche à s’émanciper des agences de notation occidentales

Oussama Ben Hmiden, Professeur de finance, HDR, ESSCA School of Management

L’African Credit Rating Agency (Afcra) devient en 2025 la première agence africaine de notation financière. Une alternative aux grandes institutions comme Standard&nbsp;&amp;&nbsp;Poor’s, Moody’s et Fitch&nbsp;?
Texte intégral (2076 mots)
L’idée de l’Africa Credit Rating Agency (Afcra) est de construire une grille d’analyse qui épouse les réalités du continent, ses défis, mais aussi ses atouts souvent invisibilisés. StudioProX/Shutterstock

L’African Credit Rating Agency (Afcra), portée par l’Union africaine, devient en 2025 la première agence africaine de notation financière. Une alternative aux grandes institutions comme Standard & Poor’s, Moody’s et Fitch ?


L’année 2025 marque un tournant pour la finance africaine, avec le lancement attendu de l’African Credit Rating Agency (Afcra), portée par l’Union africaine. Prévue au second semestre, cette agence de notation continentale ambitionne de proposer des analyses de crédit sur mesure, alignées sur les réalités économiques du continent.

La notation de crédit est une évaluation de la capacité d’un émetteur – que ce soit une entreprise, une institution financière ou un État – à rembourser ses dettes. Elle constitue un instrument utile quant à la prise de décision de la part des fournisseurs de capitaux. Elle équivaut à un passeport pour le crédit offrant la possibilité d’accès à des capitaux étrangers. Dans le contexte d’une économie mondialisée, cet élargissement de l’accès au marché s’accompagne le plus souvent d’une diminution des coûts de financement, notamment au profit des émetteurs qui bénéficient d’une notation élevée.

Pourtant, le débat reste vif. Depuis des années, les notations des agences internationales Moody’s, Standard & Poor’s (S&P) ou Fitch, qui influencent directement le coût des emprunts des États africains, sont au cœur des polémiques. Alors que le continent cherche à attirer davantage d’investisseurs, une question s’impose : ces évaluations conçues à des milliers de kilomètres sont-elles vraiment adaptées aux défis et aux atouts uniques de l’Afrique ?

Oligopole mondial de la notation de crédit

Dans les années 1990, le paysage financier africain était marqué par une asymétrie frappante : seule l’Afrique du Sud arborait une notation souveraine. Quinze ans plus tard, en 2006, près de la moitié des 55 pays du continent – 28 États – restaient encore invisibles sur la carte des agences de notation. Si ces dernières présentent leurs analyses comme de simples opinions, leur impact est tangible : leurs notes influencent directement les décisions d’investissement et les taux d’intérêt appliqués aux États africains.

Leur domination oligopolistique soulève des critiques. Les notations, censées réduire l’asymétrie d’information entre investisseurs et États, sont jugées trop génériques. De nombreux experts et dirigeants africains critiquent des méthodologies de notation jugées inadaptées, car elles peinent à saisir les spécificités des économies locales. Fortement axées sur des données quantitatives, parfois biaisées, elles ne rendent pas toujours justice aux réalités africaines. Le manque de données locales fiables renforce cette limite, laissant place à une subjectivité accrue et à des évaluations menées par des experts souvent éloignés du contexte régional.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Prime de risque africaine

Sur le continent, une frustration grandit : celle d’une « prime de risque africaine ». Exagérée, imposée par des notations jugées trop sévères, elle ne refléterait pas les progrès économiques et structurels réalisés. Une étude du Programme des Nations unies pour le développement (Pnud) estime que cette surévaluation du risque entraînerait des surcoûts d’emprunt de plusieurs milliards de dollars par an pour les pays africains.

D’après ce rapport, la sous-évaluation des notations souveraines par les agences (S&P, Moody’s, Fitch) engendre un surcoût annuel estimé à 74,5 milliards de dollars pour les pays africains, dont, notamment, 14,2 milliards en surcoûts d’intérêts sur les dettes domestiques, 30,9 milliards en opportunités de financement manquées pour ces mêmes dettes et 28,3 milliards supplémentaires pour les eurobonds – des obligations ou titres de créance émis par un pays dans une monnaie différente de la sienne.

Variation entre les trois grandes agences de notation et les scores de la plate-forme Trading Economics
Variation entre les trois grandes agences de notation et les scores de la plateforme Trading Economics. UNDP

Les critiques portent sur deux aspects :

  • Les biais quantitatifs : les modèles standardisés ne reflètent pas toujours les réalités locales, en particulier l’impact des économies informelles. Ils sous-estiment le rôle essentiel des diasporas dans le financement des États. En 2024, selon un rapport de la Banque mondiale, les Africains vivant à l’étranger ont envoyé 100 milliards de dollars vers le continent, soit l’équivalent de 6 % du PIB africain.

  • Les lacunes qualitatives : le manque de données contextuelles conduit à des évaluations subjectives. En 2023, le Ghana a ainsi rejeté sa notation de Fitch, la qualifiant de « déconnectée des réformes en cours ». Plusieurs pays africains ont publiquement rejeté les notations qui leur ont été attribuées au cours des dix dernières années.

L’alternative : Africa Credit Rating Agency (Afcra)

Face à ces limites, une réponse Made in Africa a germé : la création de l’Africa Credit Rating Agency (Afcra), une agence de notation pensée par des Africains, pour des Africains. Portée par l’Union africaine, cette initiative ambitionne de réécrire les règles du jeu.

L’idée est de construire une grille d’analyse qui épouse les réalités du continent, ses défis, mais aussi ses atouts souvent invisibilisés. Au cœur du projet : des méthodes transparentes, nourries par des données locales et des indicateurs taillés sur mesure. Les indicateurs sur mesure pourraient inclure la valorisation des actifs naturels, la prise en compte du secteur informel et des mesures du risque africain réel plutôt que perçu. L’objectif est d’obtenir des notations plus complètes grâce à cette sensibilité contextuelle.

Asymétrie d’information

Les agences de notation se présentent traditionnellement comme des actrices clés pour atténuer les déséquilibres informationnels sur les marchés. Leur promesse est d’éclairer les investisseurs en évaluant les risques de crédit, permettant ainsi des décisions mieux informées. Cette légitimité, acquise au fil des décennies, repose sur un double pilier : l’innovation constante dans leurs méthodes d’analyse et une réputation forgée par leur influence historique sur les marchés.

Un paradoxe persiste. Le modèle économique dominant – où les émetteurs financent eux-mêmes leur notation – alimente des suspicions récurrentes de conflits d’intérêts.

Nos recherches interrogent cette tension à travers une analyse de l’évolution du secteur des agences de notation, des fondements théoriques de son existence et des risques liés à la concentration du pouvoir entre quelques acteurs.

Un constat émerge, l’opacité des critères méthodologiques et la technicité des modèles utilisés nourrissent autant la défiance que la dépendance des marchés. Les agences s’appuient sur des indicateurs quantitatifs – PIB, dette publique, inflation – et qualitatifs – risque politique, transparence gouvernementale –, dont les pondérations varient, aboutissant à des évaluations parfois incohérentes. Pour renforcer leur crédibilité, une exigence s’impose : rendre lisible l’invisible, en clarifiant les processus d’évaluation sans sacrifier leur nécessaire complexité.

Méthologies IA et ESG

Des recherches récentes explorent le potentiel des méthodologies d’intelligence artificielle (IA) et d’apprentissage automatique pour intégrer les facteurs ESG (environnementaux, sociaux et de gouvernance) dans l’évaluation du risque. Ces avancées visent à surpasser les limites des modèles traditionnels en capturant la complexité des relations entre les indicateurs ESG et le risque financier, avec pour objectif de renforcer la précision et la fiabilité des évaluations du risque pour favoriser une allocation du capital plus éclairée et durable.

Pour l’Afrique et l’Afcra, ces approches mettraient en lumière des atouts sous-estimés, comme la résilience du secteur informel ou certaines spécificités institutionnelles. Elles permettraient aussi de mieux comprendre les liens complexes entre les critères ESG et le risque financier propres au continent. L’objectif pour l’Afcra serait de créer des évaluations plus précises et adaptées, réduisant la « prime de risque africaine ».

L’essor d’agences régionales représente une avancée importante vers un système plus équilibré. Pour réussir, les gouvernements africains doivent coordonner leurs efforts, soutenir les initiatives locales et instaurer un dialogue constructif avec les agences internationales. L’Afrique est en marche vers une meilleure souveraineté financière. L’Afcra saura-t-elle relever le défi ?

The Conversation

Oussama Ben Hmiden ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

13.04.2025 à 13:03

Le retour de Murakami : « La Cité aux murs incertains », une plongée troublante entre deux mondes

Anne Bayard-Sakai, Professeure émérite de littératrue japonaise, Institut national des langues et civilisations orientales (Inalco)

Sept&nbsp;ans après son dernier roman, Haruki&nbsp;Murakami revient avec un nouvel ouvrage, «&nbsp;la Cité aux murs incertains&nbsp;».
Texte intégral (1797 mots)
Dans son nouveau roman, Murakami traite un des motifs qui l’obsèdent : les vies parallèles. Alma Pratt/Unsplash, CC BY

Sept ans après son dernier roman, Haruki Murakami revient avec un nouvel ouvrage, la Cité aux murs incertains, travaillant les motifs du réel, de l’irréel et des vies parallèles que nous pourrions mener.

Cet article contient des spoilers.


« Il me serait très délicat d’expliquer à quelqu’un qui mène une vie ordinaire que j’ai vécu pendant un certain temps dans une cité fortifiée. La tâche serait trop complexe », fait dire Haruki Murakami à son narrateur dans son dernier roman, la Cité aux murs incertains, dont la traduction française vient de paraître, deux ans après l’original en japonais. Et pourtant, dans le mouvement même où le narrateur renonce à cette tâche impossible, l’auteur, lui, s’y attelle, pour le plus grand plaisir de lecteurs qui dans l’ensemble mènent, probablement, des vies ordinaires.

Passer d’un monde à un autre, y rester, en revenir, y retourner, disparaître… S’il fallait résumer ce dont il est question ici, ce serait peut-être à cette succession de verbes qu’il faudrait recourir. Les fidèles de cet auteur majeur de la littérature mondiale en ce XXIe siècle le savent : la coexistence de mondes parallèles est l’un des thèmes centraux de son univers, et ce roman en offre une nouvelle exploration. Mais nouvelle, vraiment ? Ces mêmes lecteurs auront peut-être éprouvé en le découvrant une impression de familiarité un peu déconcertante, quelque chose qui relèverait de l’inquiétante étrangeté, l’« Unheimlich », chère à Freud.

« Selon Jorge Luis Borges, il n’existe qu’un nombre limité d’histoires qu’un écrivain peut véritablement raconter avec sincérité au cours de sa vie. En quelque sorte, nous ne sommes capables de traiter ce nombre limité de motifs que sous différentes formes et avec les moyens limités dont nous disposons », précise l’auteur dans une postface destinée à éclairer la genèse du roman.

Précision indispensable, car l’histoire qui nous est racontée ici, Murakami l’a déjà traitée à deux reprises. D’abord en 1980, dans une nouvelle jamais republiée depuis, qui porte le même titre que le roman de 2023 (à une virgule près, comme il l’indique). Puis en 1985, dans une œuvre particulièrement ambitieuse, la Fin des temps.

Abandonner sa propre ombre

Que partagent ces trois textes ? Un lieu hors du temps, une cité ceinte de hauts murs, à laquelle on ne peut accéder qu’en abandonnant sa propre ombre, et où le narrateur occupe la fonction de liseur de rêves. Mais cette matrice romanesque est prise dans des réseaux narratifs très différents, d’une complexité croissante. Si la nouvelle de 1980 est centrée sur la Cité, le roman de 1985 est construit sur deux lignes romanesques distinctes qui se développent dans des chapitres alternés et qui s’ancrent chacune dans un univers singulier dont l’un seulement correspond à la Cité entourée de remparts – toute la question étant de savoir comment ces lignes vont finir par se croiser.

Dans cette amplification ne se joue donc pas seulement une complexification du dispositif : c’est le lien même entre des univers différents qui s’affiche désormais au cœur du dispositif avec, en 2023, ce qui apparaît comme une intériorisation d’univers pluriels et comme introjectés.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Le roman débute avec un amour entre deux adolescents. Celui-ci se noue autour du récit qu’avant de disparaître, la jeune fille fait d’une « cité entourée de hauts murs », dans laquelle vit son être véritable tandis que seule son ombre est présente devant le jeune homme. Pour rejoindre celle qu’il a perdue, celui-ci va donc passer dans la Cité, en acceptant de se séparer de son ombre. Mais il n’y restera finalement pas, revient dans le monde (où il devient directeur d’une bibliothèque – et on sait l’importance et la récurrence de ces lieux dans l’œuvre de l’auteur), jusqu’au moment où, de nouveau, il franchira le mur d’enceinte de la Cité, avant d’en repartir…

Le narrateur est ainsi toujours pris lui-même dans une incertitude, où sa propre identité est remise en question, où la réalité s’effrite : est-il lui-même ou son ombre ? Y a-t-il un monde plus réel que l’autre ? Le narrateur dit :

« Dans ma tête se déroulait un conflit acharné entre le réel et l’irréel. Je me trouvais enserré entre ces deux mondes, à l’interface subtile entre le conscient et le non-conscient. Il me fallait décider à quel monde je voulais appartenir. »

Comme toujours dans les romans de Murakami, il n’y a pas de choix, les personnages ne sont pas maîtres de leur destin, ils sont mis dans l’incapacité de trancher.

« C’est comme si nous nous contentions d’empiler les hypothèses les unes sur les autres jusqu’à ce que, à la fin, nous ne soyons plus capables de séparer les hypothèses des faits »,

dit, à un moment donné, l’ombre et le narrateur, plus loin, d’enchérir :

« Tandis que j’étais là, seul dans la neige blanche, que je contemplais au-dessus de moi le ciel d’un bleu profond, j’avais parfois l’impression de ne plus rien comprendre. À quel monde est-ce que j’appartenais, à présent ? »

cite aux murs incertains Murakami

La question se pose à lui avec d’autant plus d’insistance que cette Cité est une ville racontée, par la jeune fille, par le narrateur, par l’auteur lui-même, que son existence est d’abord celle d’un discours, d’une production imaginaire, d’une fiction.

Mais la vie du narrateur hors de la Cité est, elle aussi, une fiction, celle inventée par l’auteur, d’où, pourrait-on dire, une indétermination sur la teneur en réalité de chacun des mondes, indétermination qui sape les certitudes du lecteur tout autant que celles du narrateur : quel est, en somme, l’univers de référence ? Murakami se garde bien de le dire.

Dans une interview, donnée à plusieurs journaux nationaux à l’occasion de la sortie du roman, Murakami explique :

« Il y a de multiples bifurcations dans la vie. Souvent je me demande ce que je serais devenu si j’avais pris à tel moment tel autre chemin. Dans un autre univers, je serais peut-être toujours patron d’une boîte de jazz. Je ne peux pas m’empêcher de penser que le monde dans lequel je suis, là maintenant, et un autre, qui n’est pas celui-là, sont intimement liés. »

Et il ajoute :

« Conscient et inconscient. Le présent qui est là, et un autre présent. Aller et venir entre ces deux mondes, voilà ce qui est au cœur des histoires que j’écris, et qui ressurgit toujours. Écrire des romans, pour moi, c’est sortir de ma conscience actuelle pour entrer dans une autre conscience, si bien que l’acte d’écrire et le contenu de que j’écris ne font qu’un. »

Si la Cité aux murs incertains occupe une place si cruciale dans son imaginaire qu’il ne cesse d’y revenir, c’est bien en définitive parce qu’elle est l’incarnation même – la mise en mots – de cet ailleurs, du temps, de l’espace, de la conscience, qui est au fondement de sa vision du monde et de son projet d’écriture.

The Conversation

Anne Bayard-Sakai ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

12.04.2025 à 16:57

Le déficit commercial entre les États-Unis et l’Union européenne : un déséquilibre plus structurel qu’il n’y paraît

Charlie Joyez, Maitre de Conférence en économie, Université Côte d’Azur

Quelle est la réalité du déficit entre les États-Unis et l’Union européenne&nbsp;? Quels biens sont concernés&nbsp;? Y a-t-il des évolutions alarmantes&nbsp;? Nos réponses en six graphiques.
Texte intégral (1698 mots)

Pour justifier sa politique unilatérale de droits de douane, le président des États-Unis Donald Trump mobilise le déficit commercial de son pays, notamment vis-à-vis de la « méchante » Union européenne. Quelle est la réalité de ce déficit ? Quels biens sont concernés ? Y a-t-il des évolutions alarmantes ?


L’aversion proclamée de Donald Trump pour les déficits commerciaux l’a rapidement poussé, dès le début de son second mandat, à dénoncer un déficit excessif (bien qu’exagéré) des États-Unis envers l’Union européenne (UE). Le taux historique de 20 % de droits de douane imposé aux importations européennes, annoncé en avril 2025 et suspendu depuis, vise tout d’abord à réduire ce déficit bilatéral. Malgré cette pause dans la politique des droits de douane, il convient d'étudier en détail la composition des causes du déficit entre les États-Unis et l'Union européenne.

Ce déséquilibre commercial entre les États-Unis et l’UE s’est en effet largement et rapidement dégradé ces dernières années, jusqu’à atteindre 169 milliards de dollars en 2023 (données de la base pour l’analyse du commerce international (Baci)), soit environ 0,6 % du PIB des États-Unis cette année-là.

Mais, au-delà de cette dégradation, il est possible de voir des changements structurels à l’œuvre qui sont inquiétants pour les États-Unis et pour leur compétitivité vis-à-vis du partenaire européen.

Aggravation récente du déficit

Le déficit commercial des États-Unis envers l’Union européenne n’est pas récent, et existe dès la création de l’UE au milieu des années 1990. Toutefois, il s’est largement aggravé ces dix dernières années, comme le montre la figure 1 ci-dessous. Cette détérioration s’explique facilement : la demande outre-Atlantique était stimulée par une croissance bien plus forte qu’en Europe.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


En effet, depuis 2008, la croissance cumulée des États-Unis atteint 27 % contre seulement 16 % dans l’UE. Une seconde raison est l’appréciation relative du dollar (inférieur à 0,8 € jusqu’en 2014, autour de 0,9 € depuis), rendant les biens européens moins chers pour le consommateur américain. Réciproquement, cet écart de taux de change limite la compétitivité des biens « Made in USA » sur le marché européen.

Cependant, cette évolution est également structurelle. Cela est visible si l’on regarde la composition des exportations de chacun, comme le reporte la figure 2, ci-dessous.

Les exportations européennes vers les États-Unis ne changent pas beaucoup sur la période, on remarque seulement une augmentation de la part de la section VI de la classification « Harmonized System » correspondant aux industries chimiques (et pharmaceutiques), de 20 % à 30 % du total. Les exportations européennes sont donc surtout concentrées sur les sections VI, XVI (machines et appareils) et XVII (matériel de transport) qui représentent, à elles seules, deux tiers des exportations européennes vers les États-Unis.

Fortes exportations de pétrole

À l’inverse, dans les exportations américaines vers l’UE, la part de l’industrie chimique se maintient (légèrement supérieure à 20 %), mais les autres points forts traditionnels (qui étaient, comme l’Europe, les sections XVI et XVII) diminuent assez sensiblement au profit des exportations de la section V (minéraux) et, tout particulièrement, de pétrole, depuis 2022.


À lire aussi : Décrochage de croissance entre la France, l’UE et les États-Unis : l’urgence d’un choc de productivité


Les exportations états-uniennes deviennent dès lors nettement plus concentrées que les exportations européennes, même si la tendance est notable dès 2020.

Cette concentration des exportations de chaque bloc dans leurs domaines respectifs va de pair avec une diminution du commerce intrabranche, c’est-à-dire de flux croisés (importations et exportations) de biens similaires, comme le montre l’indice de Grubel et Llyod :

Déficit en termes de valeur ajoutée

L’analyse ci-dessus, malgré son intérêt, reste profondément biaisée pour identifier ce qu’il y a d’« états-uniens » qui est consommé en Europe, et inversement. En effet, dans l’économie globalisée actuelle, les biens exportés des États-Unis vers l’UE ne sont pas forcément fabriqués aux États-Unis. À vrai dire, une part non négligeable de la valeur ajoutée de chaque exportation provient de l’étranger, et parfois même du pays « importateur ».

Ainsi une vision plus correcte des déficits bilatéraux consiste à regarder le déficit commercial non plus en valeur brute, mais en valeur ajoutée. C’est toute l’ambition du programme Trade in Value Added (Tiva) de l’OCDE. D’après ces données, qui s’arrêtent en 2020, le solde commercial en valeur ajoutée est encore plus à l’avantage de l’Union européenne à 27 que le solde commercial brut.

Ainsi, le solde commercial en valeur ajoutée diverge de plus en plus du solde commercial brut qui est au centre des discussions. En 2020, le déficit en valeur ajoutée est 1,79 fois supérieur au déficit observé en valeur brute, contre un rapport de 1,06 en 2000 !

Les consommateurs américains consomment donc de plus en plus de la valeur ajoutée créée en Europe – à travers la hausse des importations de l’UE, mais pas seulement. Et si la réciproque est vraie pour les consommateurs européens, jusqu’en 2019, la tendance est nettement moins marquée.

Complexité des biens échangés

Enfin, une dernière dimension à étudier est la qualité des exportations de chaque partenaire dans cette relation bilatérale. En effet, les spécialisations commerciales sont plus ou moins bénéfiques dans le sens qu’elles peuvent favoriser le pays exportateur ou, au contraire, se révéler perdantes pour lui.

Par exemple, un pays dont l’économie s’enferme dans une trop forte spécialisation en biens primaires risque de voir le déclin de l’industrie et à terme de la croissance, comme l’illustre l’exemple du « mal Hollandais » ou les « malédictions des ressources naturelles ».

Ce potentiel bénéfique des paniers de spécialisation a été labellisé « complexité économique ». Il se calcule à la fois pour chaque bien (un bien est-il plus ou moins « complexe » à produire ?), mais aussi au niveau des États (un pays exporte-t-il des biens complexes ou non ?).

Si, au début de la période observée, les scores de complexité des deux partenaires étaient similaires, et ce jusqu’en 2017 (voire supérieurs pour les États-Unis avant 2010), la complexité des biens exportés de l’UE vers les États-Unis augmente tendanciellement depuis 2015, quand elle baisse drastiquement depuis 2017 aux États-Unis. La forte spécialisation des États-Unis dans les combustibles fossiles et l’abandon relatif de la spécialisation dans l’industrie pèse donc sur la complexité des biens échangés.

Et les services ?

Les États-Unis voient donc leur déficit commercial avec l’Union européenne se dégrader fortement depuis dix ans. Cependant, ce déficit apparent est encore moins marqué que le décrochage du commerce en valeur ajoutée entre les deux blocs. Cela va de pair avec une réorientation structurelle des exportations américaines vers une plus grande part de ressources naturelles, qui explique une concentration des exportations, une plus faible part des échanges intrabranches dans le total et un décrochage de la complexité des exportations américaines, qui pourrait à terme profiter à l’Union européenne.

France 24, 2025.

Toutefois, il convient de noter que toutes ces observations ne prennent en compte que le solde du commerce en biens et ignorent la dimension du commerce de services.

On sait déjà que la prise en compte de ce commerce de services réduit des deux tiers le déficit commercial bilatéral des États-Unis avec l’Union européenne, grâce à leurs monopoles dans les nouvelles technologies.

Cependant, cela ne change pas notre conclusion principale, à savoir que ce décrochage dans le solde commercial des biens démontre un changement structurel profond des exportations américaines vers l’UE, qui abandonnent l’industrie de pointe pour se concentrer sur les deux autres extrémités du spectre : les ressources naturelles et les services numériques.

The Conversation

Charlie Joyez ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

12.04.2025 à 16:55

Pour lutter contre la désinformation sur les réseaux, tirer des leçons de la régulation audiovisuelle

Winston Maxwell, Directeur d'Etudes, droit et numérique, Télécom Paris – Institut Mines-Télécom

Nicolas Curien, Professeur émérite honoraire du CNAM, Académie des technologies

L’asymétrie entre la régulation des chaînes de télé et de radio et les réseaux sociaux est de moins en moins justifiée. La régulation pourrait être adaptée pour les algorithmes.
Texte intégral (2054 mots)

Les députés socialiste Thierry Sother et écologiste Jérémie Iordanoff tirent la sonnette d’alarme : l’outil principal de l’Union européenne pour lutter contre la désinformation sur les réseaux, le règlement sur les services numériques (DSA), est une « digue fragilisée ».

De la même façon, Viginum, le service de vigilance et protection contre les ingérences numériques étrangères, décrit la facilité avec laquelle l’algorithme de TikTok a pu être manipulé pour torpiller les élections roumaines et souligne que le même phénomène pourrait se produire en France, à travers TikTok ou d’autres grands réseaux.


La dérive désinformationnelle aujourd’hui observée sur les réseaux sociaux, et en particulier sur X, constitue un sérieux motif d’inquiétude, selon les députés Thierry Sother et Jérémie Iordanoff, qui appellent à mieux mobiliser les armes disponibles, voire à en créer de nouvelles. Le Brésil par exemple n’a pas hésité à interdire X sur son territoire jusqu’à ce que le réseau se conforme aux exigences d’un juge.

À la recherche de nouveaux outils réglementaires, la régulation de la radio et de la télévision, médias depuis longtemps confrontés au problème de désinformation, peut être une source d’inspiration.

Une telle approche nécessiterait d’être adaptée au fonctionnement des réseaux sociaux, en particulier en l’appliquant aux algorithmes de recommandation, qui sont à la source des bulles d’informations qui piègent les internautes.

Une asymétrie réglementaire entre réseaux sociaux et audiovisuel

Comme rappelé dans le rapport parlementaire, le règlement européen sur les services numériques (ou DSA) impose aux grands réseaux sociaux de déployer des outils pour enrayer la désinformation. Le DSA ne les oblige certes pas à vérifier chaque contenu posté par les utilisateurs, mais à mettre en place des mesures techniques appropriées pour réduire l’impact des contenus préjudiciables. Ceci représente une avancée majeure par rapport à la situation antérieure, en établissant un équilibre entre, d’un côté, la liberté d’expression sur les réseaux et, de l’autre, la protection des institutions et des citoyens européens contre des attaques perpétrées par l’intermédiaire de ces mêmes réseaux.

Au titre du DSA, la Commission européenne a entamé des procédures d’enquête et de sanction mais, selon les députés, les effets « tardent à se faire sentir et les investigations tendent à repousser l’action » : de fait, aucune sanction n’a été infligée à ce jour.

Ainsi que l’explique un récent rapport de l’Académie des technologies auquel les auteurs de cet article ont contribué, la désinformation est un phénomène ancien, que les règles de pluralisme ont su endiguer dans les médias audiovisuels, tout en préservant la liberté d’expression.

Dès lors, pourquoi ne pas appliquer ces mêmes règles aux grands réseaux sociaux ? Contrairement à ces derniers, les services audiovisuels sont strictement encadrés : selon le Conseil d’État, l’Arcom doit veiller à ce que les chaînes assurent une expression pluraliste des courants de pensée et d’opinion. Cette autorité a ainsi suspendu, en mars 2022 puis mars 2025, la diffusion de plusieurs chaînes de télévision russes, en raison de manquements manifestes à l’honnêteté de l’information.

Si TikTok était un service audiovisuel, il aurait sans doute déjà encouru de lourdes sanctions, voire des interdictions d’émettre. Pourquoi une telle différence de traitement ?


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Asymétrie de moins en moins justifiée

Trois principales raisons sont invoquées.

Tout d’abord, les réseaux sociaux ne choisissent pas les contenus postés par les utilisateurs, ils ne font que les héberger ; ils ne poussent pas un programme vers des téléspectateurs, les internautes venant chercher les contenus comme dans une bibliothèque. Aujourd’hui, ce motif de non-régulation semble beaucoup moins pertinent qu’au début des années 2000. En effet, les algorithmes de recommandation sélectionnent la plupart des contenus et les dirigent de manière ciblée vers les utilisateurs afin que ceux-ci restent connectés, avec, pour résultat, l’augmentation des recettes publicitaires des plateformes.

Ensuite, les réseaux sociaux n’exercent pas le même impact que la télévision. En 2013, la CEDH a ainsi rejeté l’idée que les réseaux sociaux auraient une influence équivalente à celle de la télévision, en estimant que

« les choix inhérents à l’utilisation d’Internet et des médias sociaux impliquent que les informations qui en sont issues n’ont pas la même simultanéité ni le même impact que celles qui sont diffusées à la télévision ou à la radio ».

Ce raisonnement, recevable au début des années 2010, ne l’est clairement plus aujourd’hui, alors que 53 % des jeunes de 15 à 30 ans s’informent principalement à travers les réseaux sociaux, l’incidence relative de la télévision s’étant significativement réduite.

Enfin, les canaux hertziens de la télévision constituent une ressource rare, propriété de l’État. Les chaînes qui exploitent ce spectre radioélectrique, ce qui n’est pas le cas des services numériques, doivent en retour respecter des obligations de service public, comme le pluralisme. Cet argument perd de sa force aujourd’hui, car l’évolution des marchés numériques a spontanément créé une rareté de choix pour les internautes, en plaçant quelques grandes plateformes en position oligopolistique de gate keepers dans l’accès à l’information.

Si la diversité des contenus disponibles en ligne est théoriquement quasi infinie, leur accessibilité effective est quant à elle régie par le petit nombre des algorithmes des plus grandes plateformes. Le pouvoir né de cette concentration sur le marché de l’accès à l’information justifie pleinement une régulation.

Vers des algorithmes pluralistes…

À l’évidence, la « matière » régulée ne serait pas les contenus postés sur les plateformes par les utilisateurs, mais l’algorithme de recommandation qui organise les flux et capte l’attention des visiteurs. Cet algorithme devrait être considéré comme un service de télévision et se voir imposer des règles de pluralisme, à savoir l’obligation de mettre en avant des informations impartiales et exactes et de promouvoir la diversité des opinions exprimées dans les commentaires.

Si l’idée d’un « algorithme pluraliste » apparaît séduisante, la complexité de sa mise en œuvre ne peut être ignorée. Considérons un individu qu’un algorithme a piégé à l’intérieur d’une bulle informationnelle et qui se trouve donc privé de pluralisme. S’il s’agissait d’un service de télévision, il conviendrait d’inclure dans le flux les points de vue de personnes en désaccord avec les contenus prioritairement mis en avant. Une approche difficile à appliquer à un algorithme, car elle exigerait que celui-ci soit capable d’identifier, en temps réel, les messages ou personnes à insérer dans le flux pour crever la bulle sans perdre l’attention de l’internaute.

Une approche alternative consisterait à accorder une priorité croissante à la diffusion d’informations issues de tiers de confiance (fact-checkers), au fur et à mesure que l’utilisateur s’enfonce dans un puits de désinformation. Ce dispositif s’approche de celui des community notes utilisé par X ; des chercheurs ont néanmoins montré qu’il n’est pas assez rapide pour être efficace.

Selon une troisième approche, les messages provenant de sources identifiées comme problématiques seraient coupés. Ce procédé radical a notamment été utilisé par Twitter en 2021, pour suspendre le compte de Donald Trump ; son emploi est problématique, car la coupure est une procédure extrême pouvant s’apparenter à la censure en l’absence d’une décision de justice.

Mesurer le degré d’artificialité, une approche qui fait ses preuves

Une dernière approche envisageable s’inspire des instruments multifactoriels utilisés par les banques dans la lutte contre le blanchiment de capitaux. Les contenus seraient marqués d’un score de risque de désinformation et les scores élevés « dépriorisés » dans le système de recommandation, tandis que seraient rehaussés les poids des informations issues de sources journalistiques plus fiables.

Le score de risque serait calculé à partir d’au moins deux critères : le degré d’artificialité dans la diffusion du message, indiquant la vraisemblance du recours à des bots ; et le degré d’artificialité dans la création du contenu, indiquant la vraisemblance d’une génération par l’IA. Un tel indicateur double est proposé par l’Académie des technologies dans son rapport. Des outils d’IA vertueux pourraient par ailleurs aider au calcul du score, ou encore à l’identification d’informations de confiance, permettant de contrer les messages litigieux.

Les plateformes objecteront qu’une obligation de pluralisme violerait la liberté d’expression. C’est en réalité tout le contraire : selon la Cour européenne des droits de l’homme, le pluralisme préserve la liberté d’expression et le débat démocratique, en prévenant la manipulation de l’opinion.

Le pluralisme a fait ses preuves dans l’audiovisuel, il est temps désormais de l’appliquer aux grands réseaux sociaux, même si les modalités techniques restent à définir.

The Conversation

Winston Maxwell fait partie du groupe de travail sur l'IA Générative et la mésinformation de l'Académie des Technologies. Il a reçu des financements de l'Agence nationale de Recherche (ANR).

Nicolas Curien est membre fondateur de l'Académie des technologies, où il a piloté en 2023-2024 le groupe de travail "IA générative et mésinformation". Il a été membre du Collège du CSA (devenu Arcom), de 2015 à 2021, et membre du Collège de l'Arcep, de 2005 à 2011.

50 / 50
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Lava
La revue des médias
Le Grand Continent
Le Monde Diplo
Le Nouvel Obs
Lundi Matin
Mouais
Multitudes
Politis
Regards
Smolny
Socialter
The Conversation
UPMagazine
Usbek & Rica
Le Zéphyr
  CULTURE / IDÉES 1/2
Accattone
Contretemps
A Contretemps
Alter-éditions
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  IDÉES 2/2
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
Philo Mag
Terrestres
Vie des Idées
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
 
  FIABILITÉ LIMITÉE
Contre-Attaque
Issues
Korii
Positivr
Regain
Slate
Ulyces
🌓