LePartisan.info À propos Podcasts Fil web Écologie Blogs REVUES Médias
Souscrire à ce flux
L’expertise universitaire, l’exigence journalistique

ACCÈS LIBRE UNE Politique International Environnement Technologies Culture

▸ les 50 dernières parutions

17.04.2025 à 16:27

Covid, chikungunya : à La Réunion, une gestion des crises sanitaires entre héritages coloniaux et volonté de participation citoyenne

Amandine Payet-Junot, Consultante Recherche et développement en sciences sociales, Université de la Réunion

Pascale Chabanet, Directrice de recherche, spécialiste des récifs coralliens, Institut de recherche pour le développement (IRD)

Valery Ridde, Directeur de recherche, Institut de recherche pour le développement (IRD)

Emmanuel Macron se rendra sur l’île de La Réunion dans la semaine du 21 avril. Les crises sanitaires récentes – Covid, chikungunya – ont été gérées de façon verticale depuis Paris. Elles ont suscité méfiance et colère dans la population.
Texte intégral (1709 mots)

Emmanuel Macron se rendra sur l’île de La Réunion dans la semaine du 21 avril. Les crises sanitaires récentes – Covid, chikungunya – ont signalé l’approche verticale et autoritaire du pouvoir hexagonal. Une étude post-Covid montre pourquoi ces politiques de santé, imposées sans concertation avec les populations locales, ont suscité méfiance et colère. Partager la responsabilité avec les communautés s’avère indispensable pour une gestion de crise efficace.


Les débats contemporains mettent en évidence l’héritage colonial persistant dans les politiques coercitives de santé publique. Dans les territoires ultramarins, la gestion centralisée des crises sanitaires a souvent montré ses limites. La situation sanitaire à Mayotte après le passage du cyclone Chido en est une nouvelle illustration, entre frustrations et colères des populations concernées.

Le cas de la crise du chikungunya à La Réunion en 2006

Sur l’île de La Réunion, la réponse de la santé publique contre le chikungunya, virus transmis par un moustique, a été marquée par une intervention tardive, un manque de moyens adaptés et une coordination jugée insuffisante. Ces carences ont été particulièrement mal vécues sur place, donnant le sentiment que La Réunion était un « sous territoire ».

Face à la pandémie de Covid-19 en 2020, la France a-t-elle appris de ses erreurs ? Manifestement, non. Certaines analyses montrent que l’approche relevait davantage de l’infantilisation des populations – à coups de communications fondées sur la menace et sur la peur, s’accompagnant de moyens répressifs – plutôt que sur une démarche de renforcement de leur pouvoir d’agir (empowerment).

Cette politique autoritaire est en contradiction, notamment, avec le mouvement de promotion de la santé réaffirmé lors de l’adoption de la Charte d’Ottawa, en 1986. Celle-ci insiste sur la nécessité de permettre aux individus et aux communautés d’exercer un contrôle effectif sur les déterminants de leur santé, afin de pouvoir l’améliorer de manière autonome et durable.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Si la centralisation des décisions présente l’avantage de favoriser une coordination rapide et cohérente des mesures de riposte, elle comporte le risque de passer à côté des spécificités et des besoins propres à chaque territoire. C’est pourquoi ces directives suscitent souvent des réticences. À La Réunion, des contestations publiques ont démontré la méfiance vis-à-vis de la vaccination contre le Covid ou des restrictions de déplacement.

Enquête sur les Réunionnais au moment de la crise du Covid

À partir de 53 entretiens qualitatifs réalisés entre février et mai 2021, nous avons observé une grande variabilité dans les perceptions à l’égard du virus et des mesures sanitaires prises par les autorités.

Pour une partie des personnes interrogées, le Covid-19 était une menace réelle et dangereuse, justifiant des règles strictes, tandis que d’autres minimisaient son impact, voire remettaient en cause son existence, une posture repérée dans 42 % des discours analysés.

Indépendamment de ces divergences d’opinions, notre étude montre que l’usage d’une communication anxiogène a contribué à renforcer certaines croyances conspirationnistes, présentes dans 42,2 % des discours, en particulier celles mettant en doute l’existence même de la maladie ou la véracité du nombre de cas déclarés. L’adhésion aux consignes émises par les autorités de santé en fut amoindrie, réduisant l’efficacité des préconisations sanitaires.

Un État autoritaire et défaillant

Par ailleurs, 28 % des discours analysés reflètent une perception des mesures comme imposées « d’en haut ». Comme le dit un participant : « Je pense que le préfet est obligé de suivre le gouvernement. »

En outre, face à des prescriptions telles que la fermeture tardive de l’aéroport ou l’instauration de couvre-feux partiels, les éléments de discours suggèrent un scepticisme marqué, en particulier dans un territoire ultramarin où les frustrations historiques liées aux inégalités sociales restent vives. L’exemple de la crise du chikungunya en 2005-2006 en est une illustration frappante : la mobilisation effective de l’État ne s’est intensifiée qu’au début de l’année 2006, soit près d’un an plus tard, laissant une trace indélébile dans la mémoire collective réunionnaise.

L’étude révèle que la vie sociale, familiale et communautaire occupe une place centrale dans le quotidien des Réunionnais, et que certaines mesures – telles que les couvre-feux ou l’interdiction des pique-niques du dimanche – ont été vécues comme des atteintes directes à leur mode de vie traditionnel.

Dans ce contexte, une co-construction des décisions avec les acteurs locaux aurait permis de mieux concilier les impératifs de santé publique et les formes de sociabilité propres au territoire. Même lorsque des structures régionales comme l’Agence régionale de santé (ARS) sont présentes, leur dépendance aux cadres nationaux crée une rupture face à des stratégies jugées pénibles et inadaptées.

Le rôle crucial de la science et des populations locales

L’étude menée à La Réunion est un exemple probant bien que des activités de courtage en connaissances – c’est-à-dire la transmission utile des savoirs scientifiques vers les décideurs et acteurs de terrain – s’avèrent indispensables. En mettant en lumière la pluralité des représentations du Covid-19 – de la remise en question de son existence à la dénonciation des gestions politiques –, cette étude montre que les réactions face aux mesures sanitaires sont étroitement liées aux expériences passées, aux pratiques sociales et aux imaginaires collectifs.

Dans ce cadre, la science a un rôle essentiel à jouer, non seulement pour comprendre ces perceptions, mais également pour s’appuyer sur des approches qualitatives, participatives et inclusives. La recherche permet ainsi aux populations de devenir non de simples destinataires des décisions, mais des acteurs de la santé communautaire.

Une communication transparente, insistant sur le choix de mots précis, non alarmistes, favorise la compréhension du public. C’est tout l’inverse d’expressions comme « confinement obligatoire » ou « danger imminent », utilisées à l’excès par les autorités.

Des formulations telles que « protection collective » ou « mesure de précaution solidaire » véhiculent, au contraire, une dimension plus positive et engageante de responsabilité partagée.

Ebola en Afrique de l’Ouest : une gestion impliquant les acteurs locaux

Impliquer les acteurs locaux fonctionne. Ainsi, lors de l’épidémie d’Ebola en Afrique de l’Ouest, face à l’hostilité initiale des populations, les autorités ont revu leur approche en s’appuyant sur les leaders religieux, les chefs de village et les relais communautaires pour construire des messages de prévention culturellement adaptés. Des relais communautaires ont été utilisés pour faire passer les messages dans les langues locales. Les protocoles funéraires étaient pensés pour respecter les règles sanitaires, mais aussi les rites religieux des locaux.

Comme vient de le confirmer Santé publique France, la pandémie de Covid-19 a été une nouvelle occasion manquée de lutte contre les inégalités sociales de santé.

Au-delà de la seule efficience des mesures sanitaires, c’est la capacité à reconnaître les savoirs, les expériences et les voix des territoires qui constitue un levier primordial pour construire une relation de confiance durable. En ce sens, les crises sanitaires deviennent des occasions non seulement de protéger, mais aussi d’émanciper les populations face aux incertitudes à venir.

The Conversation

Amandine Payet-Junot est membre de l'association de psychologie positive de l'océan indien.

Pascale Chabanet a reçu des financements de l'Europe, Etat Français, Région Réunion

Valery Ridde a reçu des financements de l'ANR, de la FRM, de l'INSERM, Enabel, OMS, Banque Mondiale

17.04.2025 à 12:53

Les premières images d’un calamar colossal dans les fonds marins prises par des scientifiques

Kat Bolstad, Associate Professor of Environmental Science, Auckland University of Technology

Les premières images attestées d’un calamar colossal juvénile dans son habitat naturel montrent un animal délicat et gracieux, aux antipodes du cliché de « monstre », trop répandu.
Texte intégral (1383 mots)

Les premières images attestées d’un calamar colossal juvénile dans son habitat naturel montrent un animal délicat et gracieux, aux antipodes du cliché de « monstre », trop répandu.


Le calamar colossal (Mesonychoteuthis hamiltoni) est une espèce qui a été décrite pour la première fois en 1925 à partir de restes de spécimens trouvés dans l’estomac d’un cachalot pêché à des fins commerciales. Un siècle plus tard, une expédition a permis de capturer les premières images attestées de cette espèce dans son habitat naturel. Elle nous montre un spécimen juvénile de 30 centimètres, à une profondeur de 600 mètres, près des îles Sandwich du Sud, à mi-chemin entre l’Argentine et l’Antarctique.

Une fois adultes, les calamars colossaux peuvent cependant atteindre jusqu’à sept mètres et peser jusqu’à 500 kilogrammes, ce qui en fait les invertébrés les plus lourds de la planète. Mais l’on sait encore très peu de choses sur leur cycle de vie.

Première observation d’un calamar colossal juvénile dans son environnement naturel. Crédit : Schmidt Ocean Institute.

Ces images inédites d’un jeune calamar colossal dans une colonne d’eau sont le fruit d’un heureux hasard, comme c’est souvent le cas dans l’étude de ces calamars d’eau profonde.

Elles sont apparues lors de la diffusion en direct d’un véhicule télécommandé dans le cadre de l’expédition de la Schmidt Ocean Institute et d’Ocean Census, partie à la recherche de nouvelles espèces et de nouveaux habitats en eaux profondes dans l’Atlantique sud, principalement sur les fonds marins.

Ceux qui étaient derrière l’écran ont alors eu la chance de voir un calamar colossal vivant dans son habitat en eaux profondes, bien que son identité n’ait été confirmée qu’ultérieurement, lorsque des images en haute définition ont pu être visionnées.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Jusque-là, notre meilleure source d’information sur les calamars colossaux était les baleines et les oiseaux marins car ils sont bien plus doués que nous pour les trouver.

De fait, il faut avoir en tête que les calamars colossaux, qui vivent dans un immense environnement sombre et tridimensionnel, nous évitent sans doute activement, ce qui explique en partie pourquoi nous venons seulement de filmer cette espèce dans son habitat naturel.

Car la plupart de nos équipements d’exploration des grands fonds sont volumineux, bruyants et utilisent des lumières vives lorsque nous essayons de filmer ces animaux. Or, le calamar colossal peut, lui, détecter et éviter jusqu’aux cachalots en plongée, qui produisent probablement un signal lumineux puissant lorsqu’ils descendent dans les eaux profondes et dérangent les animaux bioluminescents, comme notre colosse des abysses.

Les calamars les plus habiles à esquiver ces prédateurs ont pu se reproduire et transmettre leurs gènes depuis des millions d’années. Leur population actuelle est donc constituée d’animaux dotés d’une grande acuité visuelle, qui évitent probablement la lumière et sont capables de détecter un signal lumineux à plusieurs mètres de distance.

La beauté délicate de ces animaux des grands fonds

Le calamar colossal fait partie de la famille des calamars de verre (Cranchiidae), un nom qui fait référence à la transparence de la plupart des espèces. L’océan Antarctique compte trois espèces connues de calamars de verre, mais il peut être difficile de les distinguer sur des images vidéos.

Des chercheurs de l’organisation Kolossal, dont l’objectif était de filmer le calamar colossal, ont ainsi pu observer en 2023 un calamar de verre de taille similaire lors de leur quatrième mission en Antarctique. Mais comme les éléments caractéristiques permettant d’identifier un calamar colossal – des crochets à l’extrémité des deux longs tentacules et au milieu de chacun des huit bras plus courts – n’étaient pas clairement visibles, son identité exacte n’a donc pas été confirmée.

Cependant, sur les dernières images produites par l’Institut Schmidt de l’océan, les crochets du milieu du bras sont visibles sur le jeune spécimen immortalisé par les images. Celui-ci ressemble malgré tout beaucoup aux autres calamars de verre. En grandissant cependant, on suppose que les calamars colossaux perdent probablement leur apparence transparente et deviennent une anomalie au sein de la famille.

Si l’idée paradoxale d’un « petit calamar colossal » en amusera plus d’un, ces images mettent également en évidence la grâce méconnue de nombreux animaux des grands fonds, aux antipodes des préjugés que l’on peut avoir trop souvent sur les supposés monstres des profondeurs et les contenus en ligne racoleurs sur ces derniers qui seraient une simple « matière à cauchemars ».

Ce calamar colossal ressemble plutôt à une délicate sculpture de verre, avec des nageoires d’une musculature si fine qu’elles sont à peine visibles. Ses yeux iridescents brillent et ses bras gracieux s’étendent en éventail à partir de la tête.

À l’âge adulte, le calamar colossal peut certes être un prédateur redoutable, avec ses bras robustes et sa panoplie de crochets acérés, capable de s’attaquer à des poissons de deux mètres de long. Mais la première observation attestée que nous avons de ce calamar dans les profondeurs de la mer nous donne surtout matière à s’émerveiller en voyant cet animal élégant, qui prospère dans un environnement où l’homme a besoin de tant de technologie, ne serait-ce que pour le voir à distance.

Plus étrange que la science-fiction

Jusqu’à récemment, peu de gens pouvaient participer à l’exploration des grands fonds marins. Aujourd’hui, toute personne disposant d’une connexion Internet peut être derrière l’écran pendant que nous explorons ces habitats et observons ces animaux pour la première fois.

On ne saurait trop insister sur l’importance des grands fonds marins. Ils abritent des centaines de milliers d’espèces non découvertes, c’est probablement là que la vie sur Terre est apparue et ils représentent 95 % de l’espace vital disponible sur notre planète.

On y trouve des animaux plus splendides et plus étranges que nos imaginations les plus créatives en matière de science-fiction. Des calamars qui, au début de leur vie, ressemblent à de petites ampoules électriques avant de devenir de véritables géants ; des colonies d’individus où chacun contribue au succès du groupe ; des animaux dont les mâles (souvent parasites) sont exceptionnellement plus petits que les femelles.

Cette première observation attestée d’un calamar colossal peut en cela nous inspirer en nous rappelant tout ce qu’il nous reste à apprendre.


L’expédition qui a filmé le calamar colossal est le fruit d’une collaboration entre l’Institut Schmidt de l’océan, la Nippon Foundation-NEKTON Ocean Census et GoSouth (un projet commun entre l’université de Plymouth, le GEOMAR Helmholtz Centre for Ocean Research et le British Antarctic Survey).


The Conversation

Kat Bolstad ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

17.04.2025 à 11:52

La réalité diverse du vélo à la campagne, derrière les clichés de grands sportifs ou de néo-ruraux militants

Alice Peycheraud, Doctorante en géographie, Université Lumière Lyon 2

Jadis omniprésent dans la ruralité, le vélo hors la ville a du mal à s'implanter dans nos imaginaires. Qui sont donc les cyclistes des routes de campagne ? Pas seulement des sportifs ou néo-ruraux.
Texte intégral (3151 mots)
Le vélo était omniprésent dans les villages jusque dans les années 1970. Pxhere, CC BY

Jadis omniprésent dans la ruralité, le vélo hors la ville a du mal à s’implanter dans nos imaginaires. Qui sont donc les cyclistes des routes de campagne ? Pas seulement des sportifs ou des néo-ruraux montre une nouvelle recherche, qui pointe également le fort potentiel cyclable de nos campagnes.


Mais qui sont donc les cyclistes s’aventurant sur les routes de campagne ? Les forçats du Tour de France, évidemment ! Et les touristes, de plus en plus nombreux à sillonner les véloroutes. Ces images s’imposent instantanément. Mais lorsque l’on pense aux déplacements du quotidien, l’imaginaire se grippe.

Y a-t-il seulement des cyclistes « de tous les jours » dans le rural, en dehors de stakhanovistes de la petite reine ou de militants convaincus ?

Une pratique rurale longtemps en perte de vitesse

Pédaler dans les territoires ruraux n’est certes pas une évidence. Le vélo était pourtant omniprésent dans les villages jusque dans les années 1970. Depuis, sa présence n’a fait que s’étioler. S’il est difficile d’obtenir des données aussi précises que pour les métropoles, les chiffres généraux sur la fréquentation vélo tendent à montrer que la dynamique peine à s’inverser.

Alors qu’en ville, le vélo, pratique et rapide, représente un avantage comparatif vis-à-vis de la voiture, les contraintes rencontrées dans les territoires ruraux semblent barrer la voie à la bicyclette.

Le territoire y est en effet organisé par et pour la voiture : non seulement les ruraux parcourent au quotidien des distances deux fois plus importantes qu’en ville, mais les routes comme l’urbanisme des bourgs sont pensés pour l’automobile. De fait, 80 % des déplacements s’y effectuent en voiture.

Les ruraux sont ainsi pris en étau par un modèle fondé sur l’automobile, à la fois préjudiciable écologiquement et excluant socialement, mais nécessaire pour pouvoir habiter ces territoires.

Près de la moitié des trajets font moins de 5 km

Pourtant, il existe un potentiel cyclable dans le rural, où près de la moitié des trajets concernent des distances de moins de 5 km. De fait, les observations et la soixantaine d’entretiens menés dans trois territoires ruraux, le Puy-de-Dôme, la Saône-et-Loire et l’Ardèche, dans le cadre de ma thèse de géographie, montrent qu’il y a bel et bien des cyclistes dans le rural, utilisant leur vélo pour aller au travail, faire les courses ou tout autre activité du quotidien.

Croisés sur les marchés, dans les cafés ou dans des associations pro-vélo, les profils rencontrés sont variés : autant d’hommes que de femmes, des retraités, des cadres comme des employés. Se pencher sur leurs pratiques et sur leurs engagements, c’est aussi s’intéresser à la complexité des territoires ruraux qu’ils parcourent et aux nouvelles façons d’habiter ces espaces, au-delà des images d’Épinal.


Visuel d'illustration de la newsletter Ici la Terre représentant la planète Terre sur un fond bleu.

Abonnez-vous dès aujourd'hui.

Pour suivre au plus près les questions environnementales, retrouvez chaque jeudi notre newsletter thématique « Ici la Terre ».


Au-delà des seuls sportifs, des manières de rendre le vélo envisageable pour le plus grand nombre

L’émergence du vélo électrique (dont le nom complet demeure « vélo à assistance électrique », dit VAE) a grandement contribué à rendre les déplacements cyclistes envisageables par le plus grand nombre, tempérant les distances et les reliefs parfois prononcés. Dans des espaces ruraux souvent concernés par le vieillissement de la population, le déploiement de cette technologie n’a rien d’anodin. Le vélo électrique est d’ailleurs particulièrement valorisé par les retraités actifs.

Fabrice (65 ans, retraité, Saône-et-Loire) a ainsi fait coïncider son passage à la retraite avec l’achat d’un vélo électrique et repris une pratique cycliste abandonnée depuis l’adolescence. Le vélo électrique, en modulant les efforts, permet aussi à un public plus jeune d’effectuer plus régulièrement des trajets jugés exigeants. Cet outil ne peut toutefois pas porter à lui seul l’espoir d’un développement du vélo dans le rural. D’abord, parce qu’il reste coûteux ; ensuite, parce qu’il faut le penser en regard du contexte de pratique.

La sécurité et le manque d’aménagement sont souvent les premiers arguments opposés à la pratique du vélo à la campagne.

De fait, certaines routes départementales s’avèrent inhospitalières pour la plupart des cyclistes. Pourtant limiter le rural à ce réseau de « grandes routes » serait oblitérer sa richesse en routes secondaires et en chemins agricoles. Ceux-ci représentent un vivier d’alternatives, ne nécessitant pas toujours d’aménagement supplémentaire, si ce n’est un effort de jalonnement et d’information de la part des collectivités.

Cela peut passer par l’indication d’un itinéraire conseillé par un panneau, ou par une carte des itinéraires, parfois assortie des temps estimés pour les trajets, comme cela a été fait dans le Clunisois. La connaissance des itinéraires alternatifs permet d’envisager le rural au-delà du seul prisme automobile.

Les cyclistes valorisent d’ailleurs le sentiment de découverte lié à cette façon différente de s’approprier leur territoire.

Se déplacer à vélo dans le rural, ce n’est pas que faire de longues distances

Au gré des stratégies mises en place par chaque cycliste, différentes stratégies se dessinent. Une part des cyclistes, souvent des hommes jeunes ayant une pratique sportive par ailleurs, affrontent de longues distances et les routes passantes sans trop d’appréhension. Mais la majorité des cyclistes rencontrés, dont les profils sont variés, roule en utilisant le réseau secondaire, évitant les situations anxiogènes, sur des distances plus courtes. Ce sont ces pratiques qui gagnent le plus à être accompagnées par des politiques publiques.

Le vélo de Jeanne, septuagénaire, attaché sans trop de précaution devant un café du bourg auvergnat où elle réside depuis toujours
Le vélo de Jeanne, septuagénaire, attaché sans trop de précaution devant un café du bourg auvergnat où elle réside depuis toujours. Peycheraud, 2022, Fourni par l'auteur

Enfin, une dernière partie des enquêtés cantonne sa pratique du vélo aux centres-bourgs, n’investissant quasiment jamais l’espace interurbain. Les petites centralités constituent un maillage essentiel de l’espace rural, polarisant les services de proximité. Se déploient en leur sein de nombreux déplacements, facilement effectués à vélo. Or, ces mobilités cyclistes, loin d’être rares, sont parfois banalisées par les cyclistes eux-mêmes.

Pourtant, elles participent à nourrir les sociabilités locales particulièrement valorisées par les habitants de ces territoires. Jeanne, septuagénaire et secrétaire de mairie à la retraite, rencontrée dans un petit bourg auvergnat, expliquait ainsi qu’elle habitait là « depuis toujours », se déplaçant invariablement à vélo, et que tout le monde la connaissait ainsi. Si le fait de pouvoir s’arrêter et discuter est le propre des déplacements cyclistes en général, dans les espaces ruraux, cela nourrit également un idéal de « vie villageoise ».

Pédaler dans le rural, c’est donc aussi investir la proximité, tant spatiale que sociale.

Choisir le vélo contre la voiture… mais aussi par plaisir

La mobilité ne se définit pas seulement par ses dimensions matérielles et fonctionnelles : elle est toujours porteuse de sens et de valeurs. Dans les discours, trois justifications reviennent très régulièrement pour expliquer le choix du vélo : il est économique, écologique et bon pour la santé. Pour Madeleine (60 ans, fonctionnaire territoriale, Puy-de-Dôme),

« C’est le côté économique, et aussi écologique. Je regarde les deux. Je n’ai pas plus de priorités sur l’un ou sur l’autre. »

Nathanaël (42 ans, ouvrier intérimaire, Puy-de-Dôme) explique que « vendredi, je suis venu avec le vélo. C’est qu’en faire, me permet de ne plus avoir mal au genou ». Certes ces raisons se retrouvent aussi chez les cyclistes urbains. Toutefois, dans le rural, elles s’expriment tout particulièrement en référence à l’omniprésence de la voiture et à son poids dans les modes de vie.

Prendre le vélo, c’est aussi faire le choix d’échapper à la norme automobile, chère et polluante, dominante dans ces territoires. Néanmoins, rares sont les cyclistes ruraux à ne pas avoir de voiture, souvent perçue comme une nécessité. Le vélo doit ainsi trouver sa place dans des organisations quotidiennes plus ou moins remaniées. Pour certains, le vélo n’est qu’une mobilité adjuvante, seulement utilisé lorsque les conditions sont jugées favorables : une météo clémente, un temps disponible suffisant… D’autres engagent une réflexion plus radicale sur leur mode de vie, choisissant de « ralentir » et de réduire le nombre de leurs déplacements pour les effectuer essentiellement en vélo.

Limiter les raisons de faire du vélo à ces justifications rationalisées serait toutefois oublier que le plaisir constitue une motivation centrale.

On roule aussi et surtout pour soi. Bien sûr, cette dimension affective du vélo n’est pas l’apanage des ruraux. Néanmoins, l’environnement rural colore tout particulièrement la pratique : la relation à la nature et aux paysages est largement plébiscitée par les cyclistes rencontrés. L’une évoquera les biches croisées de bon matin, l’autre le plaisir de passer par des chemins habituellement réservés aux vététistes. Le vélo du quotidien dans le rural incarne parfaitement la porosité grandissante entre les loisirs et les activités « utilitaires » qui caractérise la société contemporaine.

Le vélo à la campagne n’est pas qu’une pratique importée de la ville

Si certains territoires continuent de perdre des habitants, le rural a globalement renoué avec l’attractivité résidentielle. Il serait tentant de voir dans cette dynamique démographique le vecteur de développement du vélo du quotidien dans le rural. Des néo-ruraux fraîchement arrivés importeraient ainsi leurs habitudes acquises en ville, où l’on assiste à un retour des déplacements cyclistes. Ce type de profil existe, mais n’épuise pas la diversité des trajectoires des cyclistes rencontrés. Quelques nuances méritent ainsi d’être évoquées.

D’une part, jusque dans les années 1990, on pratiquait davantage le vélo dans les territoires ruraux qu’en ville. Certains cyclistes, la cinquantaine passée et ayant toujours habité le rural, ont ainsi connu une pratique ininterrompue tout au long de leur vie et roulent parfois encore avec des vélos dotés eux-mêmes d’une certaine longévité (photo 2).

Yann, 71 ans, vient faire réparer son vieux Peugeot, lors d’un atelier de réparation itinérant. Peycheraud, 2022, Fourni par l'auteur

D’autre part, les parcours des cyclistes croisés amènent à considérer la complexité des liens qui s’établissent entre pratiques urbaines et rurales du vélo. Les trajectoires résidentielles ne sont pas linéaires et se composent souvent d’allers-retours entre ville et campagne, ce qui colore la pratique.

Mariette, retraitée de 65 ans, a par exemple grandi et appris à pédaler dans un village de Saône-et-Loire. L’acquisition d’une voiture lui fait arrêter le vélo. Elle ne le reprendra que vingt ans plus tard, arrivée à Grenoble, motivée par la dynamique cyclable de la ville. À la retraite, elle retourne dans son village d’enfance mais continue le vélo, électrique cette fois, poussée par la rencontre avec d’autres cyclistes locaux.

Souvent le passage en ville, les socialisations qui s’y jouent, marquent un jalon pour la pratique du quotidien. Mais il s’inscrit dans un ensemble d’autres temps d’apprentissage et de rencontres. Le prisme du vélo permet donc d’insister sur les circulations qui s’établissent entre urbain et rural, plutôt que sur leur opposition tranchée.

Il existe de multiples façons de se déplacer à vélo dans le rural, des plus banalisées aux plus engagées, en fonction des stratégies et des motivations de chacun. Elles s’inscrivent toutefois dans une organisation globale de la ruralité et des mobilités qui la constituent. L’accompagnement de ces pratiques repose donc sur la prise en compte de leur diversité, ainsi que sur une réflexion collective des transitions possibles et souhaitables dans ces territoires.

The Conversation

Alice Peycheraud ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

16.04.2025 à 17:16

Promenade dans les romans de Mario Vargas Llosa, l’un des grands auteurs de la littérature hispanophone

Carmen Márquez Montes, Profesora Titular de Literatura española, Universidad de Las Palmas de Gran Canaria

L’œuvre de Mario Vargas Llosa, des années 1960 à 2023, est riche, audacieuse et singulière.
Texte intégral (2203 mots)

Reconnu comme l’un des grands romanciers de la littérature hispanophone, l’académicien Mario Vargas Llosa s’est éteint le 13 avril 2025. Né au Pérou, en 1936, il était le dernier représentant encore en vie du « boom » latino-américain. Sa carrière prolifique s’est étendue sur plus de six décennies. C’était un « écrivain total », capable d’écrire avec la même habileté des romans, des essais, des pièces de théâtre et des articles journalistiques.


Il a reçu le prix Prince des Asturies en 1986, le prix Cervantès en 1994 et le prix Nobel de littérature en 2010, pour n’en citer que quelques-uns. Il a été récompensé pour une œuvre narrative monumentale qui a évolué en termes de sujets et de style, du réalisme social brut de ses débuts aux expérimentations formelles et aux réflexions historiques et morales de ses créations les plus récentes.

Un début « total »

Mario Vargas Llosa a fait irruption sur la scène littéraire dans les années 1960, au plus fort du « boom », avec des romans d’un réalisme social marqué et d’une ambition totalisante.

Le premier, la Ville et les Chiens (1963, ndlr : les dates indiquées sont celles de première publication en espagnol), est un portrait cru de la vie dans un collège militaire péruvien, dans lequel il explore la violence, la hiérarchie militaire et la fracture morale de la société de Lima. La narration innovante de cette œuvre, avec ses multiples points de vue et ses sauts dans le temps, témoignait déjà de l’esprit expérimental de l’auteur.

Avec la Maison verte (1966), un roman à la structure complexe entrelaçant différentes intrigues, d’un bordel sur le sable de Piura à la jungle amazonienne, et défiant la linéarité temporelle, il s’est imposé comme un maître dans l’art de construire des récits pluriels. Avec Conversation dans la cathédrale (1969), il pousse l’expérimentation à son paroxysme. Il y réalise une fresque monumentale du Pérou, sous la dictature de Manuel Odría, à travers une polyphonie de voix et un contrepoint temporel élaboré.

Bien que divers par leur intrigue et leur ton, ces premiers romans ont en commun une vision panoramique et critique de la société péruvienne, ainsi qu’une structure complexe. En raison de ces caractéristiques, les critiques les ont regroupés sous l’appellation de « romans totaux », faisant allusion à une œuvre qui aspire à englober la réalité dans toute sa complexité. Vargas Llosa, à l’instar d’autres auteurs du « boom », a poursuivi cette ambition.

Le Péruvien a également souligné l’influence de William Faulkner (la multiplicité des narrateurs, les sauts temporels) et celle de Gustave Flaubert (la construction rigoureuse, le narrateur impassible) :

« Flaubert m’a appris que le talent est une discipline tenace et une longue patience. Faulkner, que c’est la forme – l’écriture et la structure – qui élargit ou appauvrit les thèmes. »


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Le « vrai mensonge »

À partir des années 1970, il diversifie ses registres narratifs et atténue partiellement la vocation totalisante de ses premiers romans.

Dans Pantaleón et les visiteuses (1973), il s’aventure dans la satire humoristique en racontant l’histoire d’un capitaine de l’armée chargé d’organiser un service de prostituées pour les garnisons de l’Amazonie. Parodique, critique voilée du militarisme et de la bureaucratie, il adopte un style plus léger et plus linéaire. Malgré l’apparente simplicité, il ne renonce pas à construire plusieurs intrigues parallèles en « contrepoint » et à changer de perspective.

Les œuvres suivantes entrent dans le domaine de la métalittérature et de l’autoréférence, ainsi que dans l’exploration des genres populaires. Un exemple remarquable est la Tante Julia et le scribouillard (1977), qui a une forte base autobiographique. Le jeune protagoniste, l’alter ego de l’auteur, y alterne son histoire d’initiation littéraire et amoureuse avec les histoires loufoques écrites par un scénariste excentrique diffusées à la radio. Ces deux plans narratifs diffèrent par le style et le ton : le premier est conversationnel et à la première personne, tandis que le second est folklorique et à la troisième personne.

Il s’est également attaqué à des récits à connotation politique et historique. Dans la Guerre de la fin du monde (1981), il se place dans le Brésil du XIXe siècle pour recréer l’insurrection de Canudos à l’aide d’une documentation historique méticuleuse. De son côté, Histoire de Mayta (1984), structuré comme une enquête sur un soulèvement trotskiste raté au Pérou, présente de multiples témoignages contradictoires sur un protagoniste fictif.

La technique consistant à présenter des versions divergentes d’un même événement réel dans une fiction renforce l’idée de l’auteur selon laquelle le roman est un « vrai mensonge ». Vargas Llosa avait déjà réfléchi à la « vérité du mensonge » dans des essais antérieurs. Il y soulignait comment la littérature crée un monde propre, avec ses propres règles et une authenticité différente, mais non moins valable que la réalité objective. Dans Pantaleón et les visiteuses (1973), il s’aventure dans la satire humoristique en racontant la mission insolite d’un capitaine de l’armée chargé d’organiser un service de prostituées pour les garnisons de l’Amazonie. Parodique et critique voilée du militarisme et de la bureaucratie, il adopte un style plus léger et plus linéaire. Malgré l’apparente simplicité, il ne renonce pas à construire plusieurs intrigues parallèles en « contrepoint » et à changer de perspective.

Jouer avec les genres

Qui a tué Palomino Molero ? (1986) est un court roman policier qui se déroule dans le Pérou rural des années 1950. Malgré son apparence de simple roman policier, il incorpore une critique sociale et un courant de dénonciation sous-jacent. Dans l’Homme qui parle (1987), deux fils narratifs alternent – l’un essayiste, raconté par un alter ego de Vargas Llosa, et l’autre fictionnel, raconté à partir de la culture Machiguenga de l’Amazonie – pour questionner l’acte de narration et l’appropriation culturelle.

À travers la figure du conteur oral, il explore le pouvoir et les limites de la narration en tant que vecteur d’identité. Il s’est aventuré dans la narration érotique avec l’Éloge de la marâtre (1988), un court roman au ton badin et provocateur qui, à travers les jeux sexuels d’un noyau familial bourgeois, expérimente la sensualité et l’esthétique de l’art pictural.

Ces explorations dans différents sous-genres révèlent un Vargas Llosa aux multiples facettes, prêt à « jouer » avec différentes conventions littéraires. Il l’a toujours fait en conservant un style reconnaissable : une prose sobre et précise, une construction rigoureuse et une réflexion subtile sur la société péruvienne ou la nature de la fiction.

Après la politique

Après son aventure politique, au cours de laquelle il fut candidat à la présidence péruvienne et perdit face à Alberto Fujimori, il poursuivit sa carrière littéraire. Ces romans montrent, d’une part, un certain retour à un réalisme plus classique et, d’autre part, une prédilection pour l’histoire et la dénonciation politique.

Un exemple précoce est Lituma dans les Andes (1993). Il y reprend le personnage du garde Lituma, présent dans les romans précédents, pour développer une histoire policière dans une communauté andine isolée, dévastée par la violence de la guérilla. L’écrivain combine des éléments de mystère avec la tension politique de la période terroriste du Sentier lumineux, ajoutant une nuance mythique en évoquant la légende des « pishtacos » ou êtres mangeurs d’hommes.

La Fête au bouc (2000) traite de l’histoire de la dictature de Rafael Leónidas Trujillo en République dominicaine, avec une narration polyphonique qui se déroule en deux périodes. Alors qu’en 1961, l’action se concentre sur les derniers jours et l’assassinat du tyran, en 1996, une Dominicaine, Urania Cabral, retourne dans son pays et affronte ses traumatismes personnels. L’œuvre allie un travail documentaire historique rigoureux à une exploration psychologique pénétrante du pouvoir et de ses abus.

Tours et détours de la vilaine fille (2006) est une autre incursion dans la narration sentimentale contemporaine qui se déroule dans différentes villes du monde sur plusieurs décennies. L’histoire suit la relation intermittente entre Ricardo Somocurcio – un Péruvien rêveur – et la « vilaine fille », une femme énigmatique aux multiples identités.

Lauréat du prix Nobel de littérature

Dans ses œuvres les plus récentes, Vargas Llosa a continué à explorer l’histoire et la politique, avec la présence de personnages historiques ou exemplaires qui incarnent des idées et des valeurs.

Le Rêve du Celte (2010) s’inspire de la vie de Roger Casement, diplomate irlandais qui a dénoncé les atrocités du colonialisme au Congo et en Amazonie au début du XXe siècle. Dans le Héros discret (2013) et Aux Cinq Rues, Lima (2016), il voyage dans le Pérou contemporain. Dans Temps sauvages (2019), il récupère certains personnages de la Fête au bouc pour raconter l’histoire convulsive du Guatemala des années 1950. Et dans Je vous dédie mon silence (2023), dernier roman écrit sur le ton de l’héritage personnel, de la musique et de l’utopie artistique, il revisite l’identité nationale et l’utopie sociale.

Vargas Llosa a également écrit des pièces de théâtre, des essais, des articles et d’autres textes. On peut citer la pièce de théâtre la Demoiselle de Tacna (1981), l’essai l’Orgie perpétuelle (1975), sur Madame Bovary, de Flaubert, et la Vérité par le mensonge (1990), un recueil d’essais sur les romans universels dans lequel Vargas Llosa analyse le pouvoir de la fiction pour construire des vérités alternatives.

L’évolution créative et esthétique de Mario Vargas Llosa témoigne de la capacité d’un écrivain à se réinventer sans jamais trahir son essence.

The Conversation

Carmen Márquez Montes ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

16.04.2025 à 17:15

De l’Elysée à la Société générale : ce que le départ d’Alexis Kohler dit des liens entre public et privé

Charles Thibout, Docteur en science politique, Centre européen de sociologie et de science politique (CESSP) et chercheur associé à l'IRIS, Université Paris 1 Panthéon-Sorbonne

Alexis Kohler, le secrétaire général de l’Élysée, rejoint la Société générale. Au-delà des rituelles accusations de pantouflage, que dit ce départ des liens entre les sphères publique et privée ?
Texte intégral (1836 mots)

Le secrétaire général de la présidence de la République a rejoint la Société générale. Au-delà des rituelles accusations de pantouflage, que dit ce départ des liens entre les sphères publique et privée en France ?


Que va faire Alexis Kohler à la Société générale ? L’annonce du départ du secrétaire général de l’Élysée vers la troisième plus grande banque française pose la question des logiques qui sous-tendent de telles circulations professionnelles. Certes, la pratique du « pantouflage », ou « revolving door », n’est pas nouvelle. En revanche, elle met en lumière et questionne les multiples facteurs de copénétration des sphères publique et privée.

Pour prendre la mesure du départ du secrétaire général de la présidence de la République vers la Société générale, il n’est pas inutile de rappeler que le recrutement de transfuges de l’État par de grandes entreprises, en particulier pour représenter leurs intérêts auprès des institutions publiques, est une pratique ancrée dans le fonctionnement de ces firmes.

Un phénomène de plus en plus courant…

En France, le pantouflage a pris une forme « quasi institutionnelle » à partir de la fin du XIXe siècle. D’abord circonscrit aux polytechniciens, il se diffuse et intervient de plus en plus tôt dans la carrière des hauts fonctionnaires. Ainsi, en 2012, près de 15 % des comités exécutifs du CAC 40 étaient composés d’anciens membres de cabinets ministériels ou présidentiels. Bien sûr, les revolving doors varient selon les positions occupées et les secteurs de l’État. Le phénomène concerne ainsi 62 % des inspecteurs des finances, entre 1958 et 2008. Dans la vaste enquête quantitative qu’il a conduite dans le Lobbying en France (2018), Guillaume Courty note qu’un quart environ des lobbyistes en activité sont d’anciens assistants parlementaires et/ou d’anciens membres d’un cabinet ministériel.

Dans un dossier récemment publié par la revue Politix, Sébastien Michon et Cécile Robert identifient quatre types de déterminants des revolving doors liés aux trajectoires politiques et professionnelles : ils se situent plutôt à droite du champ politique, concernent des individus occupant une position de direction ou dotés d’une reconnaissance sur un secteur d’action publique spécifique ; ce sont plutôt des hommes jeunes ayant suivi un cursus économique et étant passés par Bercy au cours de leur carrière.

Brouillage de la frontière public-privé…

Ce type de parcours n’est donc pas inédit, tant s’en faut. Et Alexis Kohler n’est pas non plus le premier haut fonctionnaire à avoir été recruté par la Société générale ; que l’on pense à Daniel Bouton, inspecteur général des finances, ex-PDG et désormais président d’honneur de la Société générale, ou, plus récemment, à Francis Donnat, conseiller d’État passé par la direction des affaires publiques de Google France, avant de devenir secrétaire général de la même banque.

Les revolving doors sont avant tout la marque d’un champ du pouvoir économique « structuré par la proximité avec l’État ». Les grandes entreprises qui évoluent sur le marché français, fussent-elles étrangères, ont intégré cette variable.

Dans ma thèse récemment soutenue, j’ai montré que, sur les 28 lobbyistes en poste chez Google France entre 2012 et 2023, 25 ont évolué dans le secteur public, dont 18 au sein de l’État ou du secgteur paraétatique (organes exécutifs et législatifs, administrations centrales, autorités administratives indépendantes ou établissements publics). Le phénomène n’est d’ailleurs pas propre à cette firme. Sur les 87 représentants d’intérêts des multinationales du numérique en poste en 2022 (Amazon, Apple, Facebook, Google, IBM, Microsoft, Oracle, Snap, TikTok, Twitter et Uber), 46 ont évolué au sein de l’État au cours de leur carrière (53 %).


À lire aussi : Technocratie : oui, il existe des élites attachées à l’intérêt général


Ces circulations professionnelles mettent en lumière ce qu’Antoine Vauchez et Pierre France qualifient de « brouillage » de la frontière public-privé. Ces trajectoires se trouvent légitimées au sein de l’État, tant par la diffusion de pratiques gestionnaires issues du privé dans les administrations (new public management) que par la promotion de nouvelles formes de gouvernement au plus près des acteurs privés (régulation), telles que pratiquées par les autorités administratives indépendantes (Cnil, Arcom, Arcep…), par exemple.

À tel point que d’anciens hauts fonctionnaires, élus ou collaborateurs peuvent se sentir justifiés à franchir cette frontière sans rien renier de leur ethos public. Ainsi de ce haut fonctionnaire français recruté au début des années 2010 par Google, entreprise pâtissant pourtant d’une réputation sulfureuse d’antiétatisme farouche. Or, ce transfuge justifiait sa nouvelle activité par une forme de continuité avec le service de l’État, la multinationale du numérique devenant un moyen légitime, à ses yeux, de servir l’intérêt général par d’autres voies que celles de la puissance publique, en incitant, par exemple, son entreprise à accroître ses investissements en France et à participer de cette façon à la richesse nationale.

De l’accumulation privée d’un capital public

Mais que cherchent les grandes entreprises en recrutant de tels profils ? Le débat scientifique oscille entre deux réponses : ou bien, en priorité, des ressources relationnelles et un carnet d’adresses, ou bien, plutôt un savoir-faire, notamment une connaissance et une capacité techniques de participation au processus de prises de décisions publiques.

Ces deux types de ressources ne sont d’ailleurs pas incompatibles. C’est tout l’intérêt de l’usage des concepts bourdieusiens de « capital politique » et de « capital bureaucratique » que de rendre compte d’un travail de valorisation des atouts des transfuges au cours de leur reconversion et dans leurs nouvelles fonctions. Les recrutements s’insèrent ainsi dans une stratégie d’« appropriation privée d’un capital bureaucratique » qui, comme le souligne Sylvain Laurens, met en exergue le pouvoir de structuration des marchés économiques par les institutions publiques.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Ces recrutements révèlent aussi, comme l’a montré Guillaume Courty, que l’« influence » – concept par bien des aspects insaisissable – n’est jamais aussi nette que lorsque acteurs publics et privés se trouvent en situation d’« homologie sociale », qu’ils partagent une même vision du monde et sont, par conséquent, susceptibles de poser un diagnostic et d’élaborer des solutions convergentes à un même problème.

Un écheveau d’interdépendances

Si l’on pousse le raisonnement un cran plus loin, la multiplication des revolving doors accentue l’interpénétration des logiques d’action, des principes de perception et d’appréciation du monde, bref, des « intérêts » entre sphères publique et privée. Plutôt que de « capture » des gouvernants et des législateurs par des intérêts privés, il vaudrait donc mieux voir dans ces circulations professionnelles le signe d’un dense écheveau d’interdépendances entre l’État et le marché, le champ politico-bureaucratique et le champ économique.

Et puis, par ces recrutements, les entreprises ne s’approprient pas seulement des savoir-faire ou un carnet d’adresses. Elles accrochent à leur « façade institutionnelle » une symbolique qui les délie de l’image traditionnelle de l’entreprise (intéressée uniquement par le profit, mue par des intérêts particuliers) et qui, à l’inverse, les inscrit dans l’universel, le désintéressement (au sens du refus de l’intérêt économique), le souci de l’intérêt général et la recherche du bien commun. Autant de principes valorisés dans et par l’État… et qu’incarnent ces transfuges.

Finalement, une revolving door comme celle d’Alexis Kohler met tout aussi bien en lumière le « déplacement du champ du pouvoir vers le pôle du pouvoir économique » que la force de gravité, toujours présente, de l’État. L’État et ses administrations sont toujours au cœur des circuits de légitimation des entreprises ; ils en « rationalisent les mises en récit […], et ce, faisant actualisent la façon dont se légitime leur inscription dans l’ordre social ».

Certes, bien des indices de privatisation de l’État alimentent l’actualité, et ces trajectoires du public vers le privé en sont un témoignage. Pour autant, comment ne pas voir dans le recrutement du secrétaire général de la présidence de la République par la Société générale, le pouvoir, toujours ressuscité, de l’État sur la structuration du champ économique ; de la puissance publique sur le marché ?

The Conversation

Charles Thibout ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

16.04.2025 à 17:15

Que peut le droit de la concurrence face à la puissance d’Alphabet-Google ?

Xavier Parisot, Dr. en Management Stratégique de l'Innovation, Institut Mines-Télécom Business School

Les activités de Google ont été mises à l’amende par les autorités antitrust, ces quinze dernières années, pour un total de 10 milliards d’euros. Elles poussent la régulation de la concurrence dans l’économie numérique mondiale à s’adapter.
Texte intégral (1486 mots)

Les activités de Google ont été mises à l’amende par les autorités antitrust depuis quinze ans pour un total de 10 milliards d’euros poussant la régulation de la concurrence dans l’économie numérique mondiale à s’adapter. Mais en est-elle capable ?


Google, géant technologique fondé en 1998, est devenu un acteur incontournable dans la recherche en ligne, la publicité numérique, les systèmes d’exploitation mobiles et les services cloud. Cette position dominante a suscité l’attention des autorités antitrust à travers le monde, qui accusent l’entreprise d’abus de position dominante et de pratiques anticoncurrentielles.

Pour comprendre cette situation, il est nécessaire de revenir sur les principes fondamentaux du capitalisme. Le capitalisme repose sur plusieurs règles qui structurent son bon fonctionnement économique et social : propriété privée, libre entreprise, libre concurrence, libre-échange, régulation des prix par le marché…

La recherche de la maximisation des profits conduit à l’accumulation de capital favorisant les investissements nécessaires pour stimuler la productivité, l’innovation et l’efficacité économique sur le long terme. L’État est chargé principalement de garantir le respect des lois, de protéger la propriété et d’assurer un cadre favorable aux échanges économiques. Il intervient pour corriger les inégalités et réguler le marché, habituellement, sans restriction majeure.

Neutralisation de la concurrence

Toutefois, comme le souligne Fernand Braudel dans Civilisation matérielle, économie et capitalisme, le capitalisme, en quête de profits maximaux, tend à éliminer la concurrence en instaurant des positions dominantes. Il note que les corporations concernées, souvent proches du pouvoir, disposent de la force nécessaire pour neutraliser la concurrence la majeure partie du temps. Son analyse met en évidence la manière dont le capitalisme peut entraver le fonctionnement naturel de l’économie de marché en restreignant la concurrence. La concentration des marchés – c’est-à-dire la diminution du nombre de concurrents sur les marchés – conduit à l’émergence d’oligopoles ou de quasi-monopoles. Elle peut être accélérée par des pratiques anticoncurrentielles car ces dernières limitent l’entrée de nouveaux concurrents innovants. Par conséquent, la concentration ralentit aussi souvent l’innovation.


À lire aussi : DMA : la nouvelle législation européenne suffira-t-elle à encadrer les GAFAM ?


Les lois antitrust sont des instruments législatifs visant à préserver la concurrence en empêchant les entreprises d’adopter de tels comportements anticoncurrentiels, notamment les abus de position dominante et les accords restrictifs de marché. Elles constituent un cadre juridique destiné à limiter la concentration excessive du pouvoir économique et à garantir un fonctionnement efficace des marchés en empêchant la constitution de monopoles abusifs ou de cartels et en interdisant les ententes secrètes entre entreprises visant à fixer les prix ou se partager le marché.

À cette fin, les fusions et acquisitions sont surveillées par les états pour éviter la domination d’un acteur unique ; des prix justes sont garantis et l’innovation est encouragée par le maintien d’une concurrence saine. En Europe, l’article 102 du Traité sur le fonctionnement de l’Union européenne interdit l’abus de position dominante. Aux États-Unis, la loi Sherman de 1890 est la première loi antitrust visant à interdire les monopoles et les pratiques anticoncurrentielles.

Accumulation d’accusations

Dans le cas de Google, l’accumulation des accusations tant en Europe qu’aux USA conduit la Commission Européenne à ouvrir une enquête pour abus de position dominante, dès 2010, sur la base de 18 plaintes officielles. Depuis cette date, l’Union européenne a mené plusieurs enquêtes antitrust contre Google, aboutissant à des amendes dépassant les 8 milliards d’euros. Ces enquêtes ont porté sur divers services, notamment Google Shopping, le système d’exploitation Android et Google AdSense.

En 2020, l’UE a également lancé une enquête approfondie sur les pratiques publicitaires de Google. En 2021, c’est au tour de la France d’infliger 220 millions d’euros d’amende à Google pour abus de position dominante. En mars 2025, l’Union européenne a intensifié son application des règles antitrust en vertu du Digital Markets Act (DMA), ciblant des entreprises comme Google pour avoir prétendument favorisé leurs propres services au détriment de ceux de leur concurrence.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Aux États-Unis, le département de la justice (DOJ) a intenté plusieurs actions en justice contre Google. En octobre 2020, il a engagé une action pour monopolisation illégale du marché des moteurs de recherche. En janvier 2023, une autre action est entamée contre la monopolisation illégale du marché de la technologie publicitaire. Le procès a débuté le 9 septembre 2024 et s’est conclu le 27 septembre. Les arguments finaux ont été présentés le 25 novembre 2024.

Verdict attendu

Bien que la juge fédérale Leonie Brinkema ait indiqué qu’elle rendrait sa décision dans un délai court, le verdict est toujours attendu. Par ailleurs, en mars 2025, Google a accepté de payer 100 millions de dollars pour régler un recours collectif aux USA intenté en 2011, accusant l’entreprise de surfacturer les annonceurs en ne fournissant pas les remises promises et en facturant des clics publicitaires en dehors des zones géographiques ciblées.

Ces actions ne se limitent pas aux pays occidentaux. Ainsi, en 2022, la Corée du Sud (30 millions de dollars) puis l’Inde (160 millions de dollars) attaquent également Google pour abus de position dominante. Ces poursuites reflètent une volonté accrue des autorités européennes et américaines, entre autres, de réguler les pratiques des grandes entreprises technologiques. Les règlements financiers, bien que substantiels, représentent toutefois une petite fraction des revenus de Google. Mais ils signalent une tendance croissante des annonceurs et des régulateurs à contester les pratiques commerciales de l’entreprise.

France 24, 2024.

Un groupe en évolution perpétuelle

Plusieurs facteurs ralentissent la réaction des États face aux pratiques déloyales de Google. La législation est dépassée par la rapidité des transformations numériques. Et les procédures judiciaires sont trop longues tout spécialement lorsqu’elles sont internationales. Les sanctions sont tardives et inefficaces face à la capacité de Google à trouver des solutions pour contourner les régulations après chaque condamnation. Les amendes sont faciles à absorber et leurs montants ne poussent pas l’entreprise à changer de stratégie.

Google préfère payer des amendes et ajuster ses pratiques que de modifier en profondeur son modèle économique. De plus, Google dispose d’un lobbying puissant qui freine les décisions politiques. Tous ces éléments font de Google un quasi-monopole trop puissant pour être facilement démantelé. Toutefois, cette possibilité reste encore discutée aux USA.

Les multiples actions antitrust contre Google reflètent une prise de conscience mondiale des défis posés par la domination des grandes entreprises technologiques. Le résultat des affaires en cours pourrait redéfinir le paysage digital et établir de nouveaux précédents en matière de régulation de la concurrence dans l’économie numérique. Ils pourraient même conduire à l’émergence de nouveaux organes régulatoires plus adaptés.

The Conversation

Xavier Parisot ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

16.04.2025 à 17:13

L’Île-de-France pourrait-elle être autonome sur le plan alimentaire ?

Agnès Lelièvre, Maître de conférences en agronomie, AgroParisTech – Université Paris-Saclay

Christine Aubry, Fondatrice de l’équipe de recherche INRAE « Agricultures urbaines », UMR Sadapt, AgroParisTech – Université Paris-Saclay

Clotilde Saurine, Animatrice de réseau sur le sujet de l'alimentation, AgroParisTech – Université Paris-Saclay

Doudja Saïdi-Kabeche, Enseignante-Chercheuse en siences de Gestion, AgroParisTech – Université Paris-Saclay

Fanny Provent, Ingénieure agronome

Seuls 2 % des produits alimentaires consommés en Île-de-France sont locaux. Une réalité qui interpelle quand on sait que la région est par ailleurs une terre agricole qui exporte, par exemple, ses céréales.
Texte intégral (3464 mots)
Culture maraîchère en Île-de-France. Fourni par l'auteur

Seulement 2 % des produits alimentaires consommés en Île-de-France sont locaux. Une réalité qui interpelle quand on sait que la région est par ailleurs une terre agricole qui exporte par exemple ses céréales. Pourrait-on dès lors remédier à cette situation ?


L’Île-de-France, région la plus riche du pays, concentre 30 % du PIB et une forte proportion de diplômés, tout en jouissant d’une réputation internationale. Cependant, elle est presque totalement dépendante de l’extérieur pour son alimentation, avec seulement 2 % des produits alimentaires provenant de la région selon une étude de 2017 et 5 à 7 jours d’autonomie en cas de crise.

Ces chiffres posent à la fois des questions de sécurité, de souveraineté et d’autosuffisance, et interrogent l’ensemble du système alimentaire, de la production à la consommation.

Du champ jusqu’à l’assiette, comment peut-on l’expliquer et comment, surtout, pourrait-on rendre l’Île-de-France plus autonome sur le plan alimentaire ?

Production francilienne.
Production francilienne. Fourni par l'auteur

Une autonomie alimentaire francilienne très faible

Commençons par un paradoxe : en Île-de-France, la production de céréales est très excédentaire par rapport aux besoins régionaux (3,2 millions de tonnes de blé en 2019, selon FranceAgriMer, qui, transformées en farine, représentent plus du double de la consommation de farine des 12 millions de Franciliens. Pourtant, le bassin de consommation importe de la farine, car une forte proportion de ce blé est exportée (70-80 %). Une étude précise le détail des 1,6 million de tonnes de nourriture venant de province qui entrent en Île-de-France chaque année : principalement des fruits et légumes, de l’épicerie, des boissons sans alcool et des produits laitiers. Elle nous permet également d’apprendre que les produits animaux, eux, ne satisfont qu’à peine 2 % de la consommation et que la production de fruits et légumes, correspond à moins de 10 % de la consommation régionale.

Pourtant, la région était maraîchère au moins jusqu’au début du XXe siècle. En 1895, l’Île-de-France était autonome, à près de 95 %, en fruits et légumes et, en 1960, on comptait encore plus de 20 000 ha de légumes diversifiés dans la région (environ 2 000 ha aujourd’hui).

Sur la partie la plus urbanisée, seuls 0,6 % des aliments consommés sont produits aujourd’hui dans la Métropole du Grand Paris (MGP), qui inclut Paris et 130 communes environnantes, et au moins 30 % des aliments consommés à Paris proviennent de l’international. Ce constat une fois posé, est-il envisageable aujourd’hui d’améliorer l’autonomie alimentaire de la Région ?

Production francilienne.
Production francilienne. Fourni par l'auteur

Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


L’agriculture urbaine, une voie d’autonomisation ?

L’agriculture urbaine est parfois présentée comme un moyen de conquérir de nouveaux terrains productifs en ville pour produire localement, en particulier des fruits et légumes. Cependant, les travaux de l’agroécologue Baptiste Grard montrent qu’en mettant en production la totalité des 80 hectares de toits cultivables à Paris, on fournirait au maximum 10 % des fruits et légumes consommés par les Parisiens.

De plus, la portance de ces toits et d’autres contraintes peuvent limiter la surface réellement cultivable. Malgré un soutien fort de la Mairie, la surface en production intramuros n’est passée que de 11 ha en 2014 à 31 ha en 2020.

Pour rendre l’Île-de-France plus autonome sur le plan alimentaire, il faudrait donc encourager les collectivités à utiliser davantage d’aliments issus de l’agriculture périurbaine.

Culture maraichère en Île-de-France. Fourni par l'auteur

La restauration collective : une voie d’autonomisation alimentaire et d’évolution de l’agriculture locale ?

Celle-ci paraît particulièrement bien indiquée pour alimenter la restauration collective, notamment publique (écoles, crèches, collèges, lycées, hôpitaux publics, Ehpad publics, prisons), qui représente en Île-de-France près de 650 millions de repas annuels servis, dont plus de 50 % en secteur scolaire. Elle constitue donc une source majeure d’influence sur l’alimentation des habitants et peut devenir un levier pour l’évolution de l’agriculture de proximité vers des formes plus durables, encouragées en cela par la loi Égalim.

Le périurbain francilien, en Seine-et-Marne, Yvelines, Val-d’Oise et Essonne, participe de plus en plus à cette dynamique. On voit en effet croître le nombre d’exploitations diversifiant leurs productions vers des légumineuses et légumes de plein champ à destination de la restauration collective, notamment en production biologique, avec l’influence notable de la Coop bio d’Île-de-France,créée en 2014.

Il s’agit pour l’essentiel de céréaliers diversifiés ou de maraîchers d’assez grande taille (au moins une dizaine d’hectares) sur des espèces spécifiques (salades, carottes, pommes de terre…). Les plus petites exploitations maraîchères (moins de 5 ha), très diversifiées en légumes, dont beaucoup se sont installées ces dix dernières années avec un fort soutien des collectivités locales, sont moins orientées vers ce débouché, qui exige d’importants volumes à un prix relativement bas et induit beaucoup de contraintes de référencement pour les producteurs, d’où l’intérêt de formes mutualisées de commercialisation.

C’est ainsi que certaines collectivités préfèrent passer directement en régie agricole pour leur restauration collective à l’image de Mouans-Sartoux (Alpes-Maritimes) dans la Région Paca, ou de Moissy-Cramayel (Seine-et-Marne) ou Villejuif (Val-de-Marne) en Île-de-France. La régie agricole est une ferme municipale dont le foncier appartient à la Ville et dont le personnel est salarié municipal.

Ce rôle structurant de la restauration collective a permis, en 2023, de lancer l’association AgriParis Seine, élargissant la notion de « local » à 250 km autour de Paris et visant à structurer des filières d’agriculture durable par l’achat public, en parcourant la Seine, du Havre jusqu’au nord de l’Yonne, le fleuve servant de voie majeure d’approvisionnement à terme. Dans le même temps, le schéma directeur de la Région Île-de-France envisage d’autres logiques, avec un projet de ceinture maraîchère autour de Paris.

Des formes d’agricultures urbaines inclusives et utiles pour des publics précaires

Soutenant, à travers la restauration collective, l’agriculture francilienne, les collectivités espèrent aussi lutter avec elle contre le fléau de la précarité alimentaire, qui s’est accrue ces dernières années : l’Agence nouvelle des solidarités actives la chiffre aujourd’hui dans une fourchette de 12 à 20 % de la population, avec de fortes disparités intrarégionales sur le nombre d’habitants touchés et l’intensité de cette précarité, qui va de pair avec une forte prévalence des maladies de la nutrition (diabète, obésité). L’agriculture urbaine (intra et périurbaine) peut-elle jouer des rôles intéressants pour mieux alimenter des personnes en précarité ?

Les jardins collectifs (familiaux, partagés, au bas d’immeuble), plus de 1 300 en Île-de-France en 2019, y contribuent directement par une autoproduction alimentaire, variable mais qui peut être non négligeable selon la taille des jardins et l’implication des jardiniers : elle pouvait représenter, en 2019, en jardins familiaux, plus de 1 500 € d’économie par an sur les achats de fruits et légumes d’une famille, et probablement plus aujourd’hui étant donné l’inflation. Avec l’augmentation de la pauvreté et la demande accrue de jardins collectifs depuis la crise Covid, il serait nécessaire de mener une étude sur les rôles quantitatifs et économiques, dans les territoires franciliens, des diverses formes de jardinage collectif.

En périurbain, les jardins d’insertion, dont ceux du réseau Cocagne, revendiquent plus de 140 000 paniers solidaires par an au niveau national. En Essonne, les jardins du Limon fournissent, eux, 550 paniers solidaires par semaine.

Le réseau des Amap d’Île-de-France (elles sont 290 en 2023) propose aussi, depuis 2021, des paniers solidaires ou des livraisons de surplus à des épiceries ou restaurants solidaires. Forme de solidarité éthique de base, cette fourniture reste cependant très confidentielle en termes quantitatifs.

De plus, la production d’aliments n’est pas tout, il faut pouvoir et savoir cuisiner les produits, ce qui n’est pas toujours possible (par absence d’équipements) lorsqu’on vit en hôtel social, en hébergement d’urgence ou dans d’autres logements précaires. C’est pour faciliter l’intégration de ces produits frais dans l’alimentation de publics en difficulté que des structures associatives combinent jardinage et transformation alimentaire.

L’importance de la démocratie alimentaire

À l’instar de la dynamique observée partout en France, se mettent en place en Île-de-France, des initiatives pour favoriser l’accessibilité à des produits de qualité pour toutes, s’appuyant sur des principes de « démocratie alimentaire » : expérimentations de caisse alimentaire locale, transferts monétaires « fléchés » vers des produits durables (Vit’Alim par Action contre la faim et le Conseil départemental de Seine-Saint-Denis), comités locaux pour l’alimentation et la santé (PTCE Pays de France)…

C’est un enjeu sérieux que de structurer l’analyse des retours d’expériences à en tirer, car de cela dépend la capacité de diffuser des modèles alternatifs proposés pour transformer le système alimentaire de façon pérenne. Le projet Territoire zéro précarité alimentaire (TZPA) (terme proposé par le Labo de l’ESS), mené par le réseau Agricultures urbaines et précarité alimentaire de la chaire Agricultures urbaines (Aupa), vise précisément à évaluer les impacts de plusieurs de ces initiatives sur la « sécurité alimentaire durable » dans les territoires concernés.

Il reste capital de pouvoir mieux évaluer scientifiquement, du point de vue de la lutte contre la précarité alimentaire, ces diverses initiatives, des Amapm aux régies agricoles, ce à quoi travaille la chaire Agricultures urbaines (AgroParis Tech).

En Île-de-France, l’autonomie alimentaire reste faible en raison des orientations actuelles des systèmes de production et des marchés. Devenir plus autonome implique non seulement une production locale accrue, mais aussi la transformation et la distribution régionales des produits. La restauration collective et la lutte contre la précarité alimentaire sont deux leviers essentiels, souvent imbriqués ensemble : les collectivités signalent souvent que la restauration collective scolaire représente déjà une forme de lutte contre la précarité alimentaire des enfants, si toutefois les cantines scolaires sont bien accessibles à tous.

Ces deux sujets sont impactés par les politiques publiques et souvent limités par un manque de coordination et de moyens. Un meilleur soutien financier et une évaluation rigoureuse des initiatives locales pourraient inspirer des politiques publiques plus efficaces et durables. Là, la recherche en lien étroit avec les acteurs politiques et de terrain est fortement convoquée. Il va sans dire qu’elle aussi manque aujourd’hui de moyens pour cela.

The Conversation

Agnès Lelièvre a reçu des financements de l'Union Européenne à travers sa participation à des projets JPI Urban Europe, Horizon 2020 et Horizon Europe

Christine Aubry, Clotilde Saurine, Doudja Saïdi-Kabeche et Fanny Provent ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.

16.04.2025 à 17:13

Cambodge : les migrations méconnues qui ont précédé l’arrivée au pouvoir des Khmers rouges

Adélaïde Martin, Doctorante en science politique, Université Paris Nanterre – Université Paris Lumières

Il y a 50 ans, après une longue guerre civile, les Khmers rouges entraient dans Phnom Penh et devenaient les maîtres d’un pays qu’un petit nombre de ressortissants avait quitté, plus ou moins précipitamment, dans les années, mois et jours précédents.
Texte intégral (2666 mots)

Le 50e anniversaire de la prise de Phnom Penh par les Khmers rouges le 17 avril 1975 donne lieu à de nombreuses réflexions consacrées au génocide qui s’est ensuivi. Mais c’est aussi l’occasion de braquer le projecteur sur un aspect méconnu : les migrations depuis le Cambodge au cours des années précédentes, en situation de guerre civile.


On connaît du Cambodge les migrations des réfugiés consécutives au génocide (1975-1979), souvent confondues ou assimilées dans les pays d’accueil aux déplacements parallèles partant des États voisins, le Vietnam et le Laos.

Le nombre des départs, le traitement des personnes déplacées à la frontière thaïlandaise, la mobilisation atypique autour de leur accueil ont focalisé l’attention politique et médiatique. Les dynamiques migratoires antérieures sont, quant à elles, bien moins connues. S’enracinant dans l’histoire de la (dé)colonisation et de la guerre froide, elles sont déterminantes dans la formation des premiers groupements cambodgiens en France, aux États-Unis, au Canada ou en Australie.

Exil politique et politique en exil : des années 1950 à la guerre civile

Dans les années 1950 et 1960, les départs en exil concernaient principalement les milieux anti-coloniaux et réformateurs. Rappelons les faits. Proclamée en novembre 1953 après 90 ans de colonisation française, l’indépendance du Cambodge est ratifiée internationalement en 1954 par les accords de Genève. Écartés des négociations et craignant des représailles, près d’un millier de combattants indépendantistes et de sympathisants communistes de la première heure prennent la direction de Hanoï. Pour eux, la capitale du Nord Vietnam sera à la fois une base de repli, un espace de regroupement et un lieu de formation en matière technique et militaire.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Tantôt roi, tantôt premier ministre, tantôt chef d’État, Norodom Sihanouk domine la scène politique nationale pendant plus de 15 ans. Les mouvements de gauche sont progressivement exclus de la représentation parlementaire et voient leurs effectifs réduits par les vagues de répression. Des stratégies d’opposition en dehors des institutions du régime sont adoptées : certains prennent le maquis, d’autres trouvent refuge en France.

C’est à partir de 1967-1968 que démarre l’escalade politique et militaire qui plonge le Cambodge dans un conflit civil. La guerre qui se déroule entre d’une part le Sud Vietnam, soutenu par les États-Unis, et d’autre part le Nord Vietnam, déborde désormais sur les territoires cambodgiens limitrophes. Dans la capitale, les tensions politiques internes se cristallisent autour de la présence accrue de troupes vietnamiennes sur le sol national, menant à la destitution de Sihanouk au début de l’année 1970 et à l’instauration d’un nouveau régime allié aux Américains : la République khmère.

À l’étranger au moment de cet événement, Sihanouk s’installe en République populaire de Chine et forme une alliance de circonstance avec ses anciens ennemis, les Khmers rouges. Leur insurrection, insérée dans des rébellions localisées contre le pouvoir central, gagne du terrain depuis les périphéries. Un organe de représentation politique est constitué en mai 1970 : le Gouvernement royal d’union nationale du Kampuchéa (GRUNK). Il est composé de proches de Sihanouk qui l’accompagnaient, d’une poignée de diplomates en exercice qui le rejoignent, de personnalités communistes installées à Paris ou ayant pris le maquis. Officiellement basés à Pékin, ses membres sont en réalité dispersés entre la France, la Chine, l’URSS et les zones dites « libérées » au Cambodge.

Mao Zedong (à gauche) et Zhou Enlai (premier ministre chinois) entourent Norodom Sihanouk lors d’une parade sur la place Tian’anmen à Pékin, mai 1970.

À Phnom Penh, Sihanouk et ses ministres sont condamnés in absentia, tandis que leurs proches restés au pays connaissent des périodes d’incarcération ou de résidence surveillée pour leurs liens supposés ou avérés avec l’insurrection. Deux des fils de Sihanouk quittent le Cambodge en 1973, l’un pour Aix-en-Provence où il devient enseignant à la Faculté de droit ; l’autre pour Pékin, puis Belgrade, avant de s’installer à Créteil en 1976. S’opèrent aussi des départs vers la France de hauts fonctionnaires se déclarant en faveur du GRUNK.

Si les départs survenant en période de guerre civile (1970-1975) ne concernent plus uniquement des opposants de gauche, il faut aussi tenir compte de ceux qui se politisent à l’étranger et ne sont pas identifiés comme des détracteurs du régime à leur départ. Les luttes qui se déroulent au Cambodge s’exportent en effet dans les espaces fréquentés par les ressortissants. C’est le cas au sein de la Maison du Cambodge à la Cité internationale universitaire de Paris, où se multiplient les tensions entre les étudiants en faveur de l’insurrection d’un côté, les résidents et la direction proches du pouvoir républicain de l’autre. Après la mort d’un étudiant en début 1973, le pavillon cambodgien est évacué puis fermé.

Dans cet environnement fortement polarisé, le choix d’un camp politique tend à s’imposer à tous, y compris à ceux dont les motivations initiales à la mobilité n’apparaissent pas principalement politiques.

Des migrations internes plus nombreuses que les migrations internationales en temps de guerre

En temps de guerre, l’émigration ne se réduit pas aux groupes d’opposants au régime de la République khmère. À partir de 1970, c’est moins le changement des conditions politiques que l’aggravation progressive du conflit qui amène d’autres profils à partir ou à rester à l’étranger. Ces migrations internationales constituent un fait minoritaire par rapport aux catégories internes déplacées.

Les violences de la guerre, dont les frappes aériennes états-uniennes intensives entre 1969 et 1973 visant les troupes communistes vietnamiennes et cambodgiennes, ainsi que la déstabilisation accrue de l’économie par la guerre, provoquent principalement des déplacements à l’intérieur des frontières nationales. Les centres urbains, qui absorbent une grande partie des migrations internes, sont toujours sous contrôle du pouvoir central en 1973, alors que les forces insurgées occupent plus des deux tiers du Cambodge. L’économie s’effondre, avec des pénuries d’essence, de nourriture et de produits de première nécessité ; les prix flambent et les productions agricoles s’amenuisent.

En 1974, les Khmers rouges contrôlent près de la moitié de la population et bloquent toutes les voies de communication terrestres. Dans un tel contexte, ceux qui rejoignent des pays occidentaux disposent de différentes ressources (moyens financiers, bagage culturel, relations sociales), voire ont déjà tissé une familiarité avec l’étranger (liens linguistiques, professionnels, amicaux, conjugaux ou familiaux).

Un continuum entre migrations volontaires et migrations contraintes

L’exil s’inscrit souvent dans des pratiques préexistantes de voyages d’études ou de circulation fonctionnelle. Le contexte de forte déstabilisation tend à pérenniser les déplacements internationaux de diplomates, d’enseignants, de fonctionnaires, d’entrepreneurs, ainsi que les mobilités pour études de jeunes diplômés. Le conflit engendre aussi le départ à l’étranger d’enfants, d’adolescents et de jeunes adultes. Il s’agit pour certains d’éviter l’enrôlement forcé dans l’armée républicaine ; pour d’autres, de se mettre à l’abri des roquettes et obus tirés par les Khmers rouges sur la capitale au cours de différentes offensives pendant les saisons sèches - qui touchent aussi les lieux d’instruction.

La situation continue de se détériorer début 1975, alors que la capitale se retrouve isolée du reste du pays et de nouveau visée par des tirs d’artillerie. Les départs à l’étranger s’accroissent, incluant aussi ceux de hauts dignitaires du régime. Accompagné de Chhang Song, ministre de l’Information de juin 1974 à mars 1975, Lon Nol, président de la République depuis 1972, quitte le pays le 1er avril pour Hawaï. Le président du Sénat devenu président par intérim, Saukham Khoy, et le ministre de la Culture, Long Botta, partent le 12 avril au cours d’une opération d’évacuation par hélicoptères organisée par l’ambassade états-unienne.

Saukham Koy arrive sur le porte-avions USS Okinawa après son évacuation de Phnom Penh le 12 avril 1975. Marine Corps Historical Collection/Wikimedia

D’autres envoient leur famille à l’étranger ou quittent le pays par leurs propres moyens, et ce jusqu’à la matinée du 17 avril.

Avec la chute de Phnom Penh, les ressortissants cambodgiens à l’étranger ne peuvent plus retourner librement dans le pays et leur émigration devient bien plus durable qu’ils ne s’y attendaient initialement. Par exemple, Ouk Thonn, président de la Société khmère de raffinage de pétrole, qui se trouvait en déplacement professionnel, s’installe avec sa femme à Paris, où le couple possède un appartement et où leurs enfants résident déjà.

Des départs de membres d’une même famille échelonnés sur plusieurs années aux départs précipités à l’arrivée au pouvoir des Khmers rouges, en passant par les personnes bloquées à l’étranger, les temporalités et les modalités d’émigration sont variables. La distinction entre migrations forcées et souhaitées paraît peu opérante pour ces exilés, tant les logiques s’entremêlent.

Une estimation encore difficile

Aujourd’hui, il est encore difficile d’estimer le nombre de Cambodgiens dans les pays occidentaux en 1975, du fait des statuts administratifs disparates, des temporalités variables d’arrivée et des cas de migrations secondaires. Les étudiants et professionnels en mobilité semblent représenter une grande partie de cette « première vague » d’exil, aux États-Unis comme en Australie ou au Canada.

Dans le cas des quelque 5 000 Cambodgiens recensés en 1975 aux États-Unis, on retrouve, outre les personnes en formation, des individus évacués ou accueillis face à l’arrivée imminente au pouvoir des Khmers rouges. Par le parrainage des nouveaux arrivants, ceux qui ont poursuivi des études dans les universités d’État californiennes seraient à l’origine de ce qui deviendra la plus importante communauté cambodgienne à l’étranger, Long Beach.

En ne prenant en compte que les titulaires d’un permis de séjour, les Cambodgiens en France seraient passés de 1 016 en 1969 à 3 829 en 1974 (+80 % entre 1972 et 1973). Ils étaient alors très inégalement répartis sur le territoire : à titre d’exemple, Rennes n’aurait compté que 19 Cambodgiens en 1974. Venus initialement en tant qu’étudiants ou sous d’autres auspices, ils ont pu obtenir a posteriori le statut de réfugié, ou rester sous d’autres modalités. Dès le début de la guerre civile, des facilités administratives sont accordées aux ressortissants cambodgiens en France, préfigurant les choix politiques effectués pour les migrations ultérieures.

The Conversation

Adélaïde Martin a reçu des financements de l'Institut de recherche sur l'Asie du Sud-Est contemporaine (IRASEC).

16.04.2025 à 17:12

La géopolitique au secours d’Erdogan

Nora Seni, Professeure à l'Institut français de géopolitique (Université Paris 8), ancienne directrice de l'Institut français d'études anatoliennes (Istanbul), rédactrice en chef du site observatoireturquie.fr, chercheuse associée à l’EHESS, École des Hautes Études en Sciences Sociales (EHESS)

Partenaire d’importance pour une Europe focalisée sur sa défense aussi bien que pour les États-Unis, qui voient en elle un acteur majeur au Proche-Orient, la Turquie d’Erdogan peut tranquillement réprimer à l’intérieur.
Texte intégral (2069 mots)

Plus de mille personnes ont déjà été arrêtées pour avoir participé aux manifestations de protestation contre l’arrestation du maire d’Istanbul. Les derniers médias indépendants sont harcelés en Turquie, et le caractère répressif du régime ne cesse de se renforcer. Pour autant, les contestataires ne peuvent guère s’attendre à un soutien ferme en provenance de l’étranger et spécialement d’Europe et des États-Unis : l’UE et l’administration Trump ont toutes deux besoin d’Erdogan pour des raisons géopolitiques.


Le président turc Recep Tayyip Erdogan a fait emprisonner le 19 mars dernier. Ekrem Imamoglu, maire d’Istanbul et candidat de l’opposition en vue de la prochaine élection présidentielle. On peut sans doute inscrire ce geste dans le spectre de « l’effet Trump ». On l’imagine en effet se demandant, à l’instar du président des États-Unis, pourquoi il devrait s’embarrasser du droit et des libertés. Il a donc envoyé derrière les barreaux le maire élu d’une ville de près de vingt millions d’habitants. Il ne s’attendait peut-être pas à ce que cette mesure provoque immédiatement un vaste mouvement de protestation qui, près d’un mois plus tard, ne faiblit pas.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Aux manifestations massives, tenues dans de nombreuses villes du pays, s’est ajoutée une nouvelle forme d’action : le boycott des entreprises liées aux chaînes de télévision proches du pouvoir (c’est le cas de la quasi-totalité des chaînes autorisées dans le pays), qui ne diffusent aucune image de ce mouvement. Le mot d’ordre semble être suivi, malgré les arrestations et les licenciements parmi ceux qui relaient l’appel au boycott. La presse a pu diffuser les images de commerces fermés ou vides, et de rues populeuses d’Istanbul désertées.

On peut se demander si la participation des commerçants et des usagers de la ville n’est pas en train de changer la nature de ce mouvement, le faisant passer de protestation spontanée vouée à un pourrissement rapide à un soulèvement d’une partie conséquente de la population. Une situation qui peut faire penser, toutes choses égales par ailleurs, à la grève en Iran des commerçants du bazar, les bazari, qui a donné le coup de grâce au régime du chah lors de la révolution des mollahs en 1979. Mais la comparaison s’arrête là. Aujourd’hui, la géopolitique vient à la rescousse du régime d’Erdogan : les puissances internationales ne feront sans doute rien de concret pour soutenir le mouvement de contestation.

La Turquie et la nouvelle politique de défense européenne

L’urgence d’élaborer une nouvelle doctrine de la sécurité européenne a renouvelé l’intérêt de l’UE pour la Turquie et pour sa puissance militaire.

On le sait, la Turquie est réputée posséder la deuxième armée la plus puissante au sein de l’OTAN (800 000 hommes). Selon le site Globalfirepower elle est classée neuvième au monde en 2025, après l’armée japonaise et devant l’armée italienne. Elle doit en partie son succès à ses drones militaires, le TB2 Bayraktar, du nom du gendre du président turc. Elle produit et exporte ces drones dont elle a pu exhiber l’efficacité lors de ses interventions en Libye, contre le général Haftar en 2020, au Haut-Karabakh, la même année, contre les Arméniens et auprès des forces azerbaïdjanaises, et en Ukraine contre l’invasion russe en 2022.

Cette armée s’est professionnalisée et reconfigurée après le coup d’État manqué de juillet 2016. L’industrie turque de l’armement a connu un essor considérable ces vingt dernières années. Quelque 2 000 entreprises sont engagées dans ce secteur qui exporte ses produits dans 170 pays et dont la dépendance à des fournisseurs étrangers n’est plus que de 30 %.

En termes de puissance militaire, l’intérêt pour l’UE de pouvoir compter sur la Turquie pour l’élaboration d’une stratégie de défense est difficilement contestable. Cependant, cette élaboration vise in fine à défendre le modèle de démocratie européenne. Un paradoxe saute aux yeux : il est question de défendre les institutions et usages démocratiques européens en s’associant avec un régime qui n’en a cure. Depuis l’incarcération du maire d’Istanbul, la presse emploie à juste titre le vocable « autocratie » pour qualifier le régime turc, dont le président a achevé de détricoter l’État de droit et les contre-pouvoirs dans son pays.

Washington, arbitre des relations turco-israéliennes en Syrie

De l’autre côté de l’Atlantique, Donald Trump a plusieurs fois signifié publiquement son admiration pour le président turc et pour la poigne avec laquelle il dirige les affaires de son pays. Recep Tayyip Erdogan n’aurait peut-être pas eu l’audace d’incarcérer Ekrem Imamoglu sous une autre présidence que celle de Trump. Cela dit, au-delà des inclinaisons des hommes qui gouvernent, les intérêts stratégiques de Washington et d’Ankara sont fortement imbriqués, autant dans des relations transactionnelles complexes que dans ce qui subsiste de leur alliance pendant la guerre froide, au Proche-Orient comme en Europe.

Leurs actions ont été complémentaires en Ukraine où c’est avec les drones turcs que l’armée ukrainienne a arrêté la première attaque des chars russes. En Syrie, en revanche, les États-Unis maintiennent quelque 2 000 hommes déployés en soutien aux Forces démocratiques syriennes (FDS). Celles-ci, dominées par les Kurdes, sont combattues par la Turquie, qui bombarde régulièrement leurs positions dans le nord de la Syrie. Les troupes dont dispose Ankara dans le nord syrien ont soutenu les forces rebelles syriennes depuis le début de la guerre civile en 2011, et l’administration actuelle de Damas dépend énormément du soutien turc. Alors que Washington commence seulement à tenter de définir une position claire au sujet de la nouvelle administration syrienne, Ankara fait désormais pression sur l’administration Trump pour obtenir la levée des sanctions imposées à la Syrie sous Bachar Al-Assad.

Une rivalité militaire se joue entre Israël et la Turquie sur le territoire et dans les airs syriens. La protection d’Israël constituait jusqu’au 7 avril la priorité absolue à partir de laquelle Donald Trump allait choisir – pensait-on – une ligne stratégique dans cette région. Mais le 7 avril, le président américain a une fois de plus renversé la table en annonçant depuis la Maison Blanche et en présence de Benyamin Nétanyahou que les États-Unis entamaient des pourparlers directs avec l’Iran ! Or pour établir et maintenir un dialogue avec Téhéran, les États-Unis n’auront pas trop du concours de la Turquie.

Le flou de la politique américaine concernant la Syrie a vraisemblablement favorisé les forces turques qui ont commencé à construire une base militaire à l’intérieur de la base aérienne de Menagh, dans le nord d’Alep. Israël est déterminé à empêcher la Turquie d’accroître sa présence militaire, aérienne et terrestre en Syrie. Dans la nuit du 2 au 3 avril, son aviation a détruit plusieurs bases aériennes près de Homs et de Hama. L’État hébreu compte sur le couloir syrien pour que, le jour venu, ses avions puissent frapper l’Iran, et il craint que des connivences entre la Turquie et l’Iran n’autorisent les survols de la Syrie par des appareils iraniens apportant des équipements destinés au Hezbollah.

Dans ce face-à-face entre Turquie et Israël, sur les airs et le territoire syrien, Trump a assuré Nétanyahou de son soutien tandis qu’Erdogan a appelé, dans son prêche de fin de Ramadan, à la destruction totale de « l’État sioniste d’Israël ». Pour préserver l’État hébreu, les États-Unis devront contenir, sans la froisser, la Turquie où ils possèdent plusieurs bases militaires, dont une à Incirlik qui héberge 50 missiles nucléaires B-61.

Washington a néanmoins d’autres cartes dans son jeu. Ankara souhaite instamment réintégrer le programme de construction des avions furtifs F-35 et aussi, acquérir des avions F16. C’est pour cela que le ministre turc des Affaires étrangères Hakan Fidan a récemment rencontré son homologue Marco Rubio à Washington. Il en est revenu bredouille. La visite, sur le point d’être programmée, d’Erdogan à la Maison Blanche a été renvoyée à une date indéterminée. Le temps sans doute de voir jusqu’où iront les retombées de l’emprisonnement d’Ekrem Imamoglu.

Hakan Fidan a poursuivi sa tournée à Paris le 2 avril. Il y a rencontré des hauts responsables militaires et du renseignement. La visite a été très peu ébruitée dans l’Hexagone. Cela n’a pas empêché Fidan de déclarer que l’Europe devait reconsidérer sa politique de défense et que cela ne pouvait se faire sans la participation de la Turquie. Faut-il se résigner à penser que les exactions du président turc ont encore de beaux jours devant eux ?

The Conversation

Nora Seni ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

16.04.2025 à 17:11

Déconstruire les idées reçues sur les violences conjugales par l’anthropologie

Rougeon Marina, UCLy (Lyon Catholic University)

L’anthropologie appréhende les violences conjugales comme un problème social complexe mêlant crise du modèle patriarcal, conditions de vie subies, problématiques de santé mentale, normes érotiques et affectives sexistes.
Texte intégral (2000 mots)

L’anthropologie permet d’appréhender les violences conjugales comme un problème social complexe touchant tous les milieux. Plusieurs problématiques sont souvent associées : crise du modèle patriarcal, exclusion sociale, santé mentale, représentations érotiques et affectives sexistes… La violence des hommes appartenant à des milieux privilégiés reste un défi pour la recherche, la justice et les politiques publiques.


Le procès du féminicide de Chahinez Daoud, commis il y a quatre ans par celui qui était alors son mari, place à nouveau au cœur de l’actualité l’aboutissement le plus tragique des violences conjugales, perpétrées par des hommes sur des femmes avec lesquelles ils sont mariés ou avec qui ils vivent. Ce type de crime, dont la visibilité tend à augmenter, est légion en France et ailleurs.

Aux côtés d’autres formes de violences, celles dites conjugales s’érigent progressivement dans nos sociétés comme intolérables au sens moral : elles relèvent de plus en plus de l’inacceptable et de l’insupportable. Si nombreux sont les penseurs – tels Hobbes, Rousseau ou encore Freud – à avoir mis en avant la violence comme un phénomène proprement humain, consubstantiel au sujet vivant, libre et conscient, les institutions apparaissant alors comme décisives pour « maîtriser » les phénomènes de violence. Mais les travaux d’anthropologues contemporains, basés sur des enquêtes de terrain approfondies, signalent d’autres pistes pour penser et comprendre la violence conjugale : elle constitue une production sociale.

Dans la recherche en sciences sociales, elle est comprise de façon plutôt consensuelle en lien avec les questions de genre, apparaissant comme une forme de contrôle social qu’exercent des hommes sur des femmes. Le sexisme ordinaire constitue la principale cause sociale de cette violence : les hommes se percevant comme supérieurs aux femmes, ils s’autoriseraient à adopter à leur égard une attitude violente, en vue de les dominer.

En outre, de nombreux travaux montrent que cette violence ne peut être définie par un geste physique seul. Elle est constituée d’un ensemble d’éléments qui convergent : relation d’emprise ; cumul de diverses formes de violences (verbales, psychologiques, physiques, sexuelles, économiques) ; répétition des épisodes de violence ; gravité de leurs conséquences.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Toutefois, d’autres aspects que le genre entrent en ligne de compte, comme l’imbrication profonde de la violence conjugale avec d’autres formes de violence structurelle, qui alimentent l’exclusion sociale et l’humiliation ; ces violences se trouvent au cœur des rapports de classe, de racialisation, et de colonialité. Comprendre les violences conjugales pour ensuite proposer des cadres de prise en charge aux personnes concernées invite donc à tenir compte de leurs ancrages socio-économiques et de leurs statuts, très divers.

Cette diversité va à rebours de l’idée préconçue selon laquelle il y aurait un profil privilégié d’agresseur ; autrement dit, qu’il y aurait plus de violence de la part d’hommes racisés des classes populaires, souvent issus de l’immigration, quand les enquêtes quantitatives montrent que les viols sont commis dans tous les milieux sociaux.


À lire aussi : Existe-t-il des profils types d’auteurs de violences conjugales ?


On constate par contre une condamnation plus importante d’agresseurs en situation économique précaire. Les positions sociales, et les rapports de pouvoir qui leur sont liés, ont leur importance au moment du (dé) voilement judiciaire de ces violences, quand on considère que « la plupart des hommes des milieux favorisés n’apparaissent nullement impressionnés par l’appareil judiciaire et bataillent au sens propre du terme pour se défendre, servis en cela par d’évidentes ressources (financières et intellectuelles notamment) que leur fournit leur position sociale », comme le montre la sociologue Véronique Le Goaziou. À ce titre le procès des viols de Mazan ouvre une brèche importante dans la condamnation d’agresseurs davantage insérés socialement.

Comprendre les violences conjugales à partir d’enquêtes localisées

Bo Wagner Sørensen a mené il y a une trentaine d’années une recherche de terrain dans la capitale du Groenland, Nuuk, pour s’intéresser aux façons par lesquelles, dans les cas de violences conjugales, les habitants percevaient la violence et l’expliquaient. Selon eux, celle-ci risquait d’éclater quand la femme menaçait « la position sociale de son mari en tant qu’époux, père ou homme dans la famille, aussi bien que sa masculinité et son honneur ».

L’anthropologue y voyait l’un des effets de la modernisation de la société locale s’exprimant au cœur de la vie intime : les places occupées par les hommes et les femmes s’en trouvaient bouleversées, ces dernières accédant à une autonomie financière et adoptant des comportements s’éloignant d’une forme de docilité attendue. Pour ces hommes, l’usage de la violence était perçu comme une façon de rétablir les frontières de genre. Phénomène sexué, la violence conjugale à Nuuk devait être comprise par Sørensen comme un « geste planifié dans l’ordre social ».

Toutefois ce qui se joue dans les années 1990 dans la société groenlandaise n’est pas si différent d’autres contextes socioculturels. Des mécanismes communs sont ainsi mis en évidence par les chercheurs.

La violence conjugale comme production sociale

Les anthropologues contribuent à construire un savoir à rebours de plusieurs « justifications sociales » de la violence conjugale, qui contribuent d’ailleurs à la rendre invisible ou à l’euphémiser. Ces justifications sont de deux ordres : la naturalisation et la pathologisation. La première repose sur l’idée que les hommes sont naturellement violents, et traduit une conception particulière de certaines émotions, comme la colère. Elles exerceraient en eux une pression si forte qu’irrépressiblement, la violence surgirait tel un débordement non intentionnel. La seconde justification sociale commune de la violence conjugale est la pathologisation des agresseurs : elle serait le résultat d’un déséquilibre mental, et donc le symptôme d’un mal-être masculin.

Pour s’éloigner de ces justifications, les chercheurs se mettent à l’écoute du vécu des acteurs de la violence conjugale. C’est le cas de Dolorès Pourette qui a recueilli en 2002 en Polynésie française des récits d’hommes astreints à un suivi psychiatrique suite à un jugement pour ce type de violences. Elle signale que ces actes sont liés pour eux à une remise en question de l’autorité masculine dans le couple, dans une société colonisée aux rôles masculins et féminins bien démarqués jusqu’alors.

Ces différents travaux mettent en lumière les rapports complexes entre masculinités, changement social et santé mentale, dans des contextes où le modèle patriarcal se trouve mis à mal non pas à l’issue de luttes collectives, mais de par des conditions de vie souvent subies. Faisant notamment référence à une recherche sur les trafiquants de drogue portoricains immigrés à New York, Marie-Elisabeth Handman écrit : « quand les hommes sont dominés, que ce soit par la colonisation ou la relégation dans des banlieues qui cumulent les handicaps sociaux, ils sont privés des attributs [socialement] conférés à la masculinité (entre autres, être les pourvoyeurs de fonds des familles) et ce sont les femmes qui paient le prix fort de cette dévirilisation ». Au cœur de la violence conjugale, il y a bien des enjeux de pouvoir mais aussi des enjeux normatifs.

S’inscrivant dans le sillon foucaldien, les psychanalystes Laurie Laufer et Thamy Aiouch ont montré que les rapports de pouvoir s’articulent au sein de l’intime, à partir d’un dispositif de « reproduction des normes de genre et des stéréotypes des rôles sexués », et que les conflits qui peuvent dégénérer en violences sont souvent déclenchés par ce dispositif.

Que peut-on espérer ?

Traiter la violence conjugale comme un problème social et non comme un problème moral a des implications. Plusieurs pistes de travail se dégagent, et sont investies différemment par les acteurs de la société civile. La question de la prise en charge des acteurs de violence en est une, importante et nécessaire, bien que cette voie demeure encore peu « attrayante » socialement – on attend davantage une réponse uniquement punitive – peu pensée, et donc peu audible.

Une autre piste, plus structurelle, consiste en un travail de « transformation des normes érotico-sociales », comme l’évoquait déjà Freud en son temps, notamment par un suivi clinique. Cela implique aussi de se mettre à l’écoute des chercheurs en sciences sociales qui mettent le doigt sur la complexité des rapports entre le social, le normatif et l’affectif, et apportent ainsi des éléments pour redéfinir les normes de la masculinité encore dominante, en-dehors des injonctions à la virilité.

L’anthropologie est certainement la discipline la plus encline à dissiper la confusion que cette complexité peut créer, « grâce à la présence prolongée des chercheurs sur le terrain, à leur écoute attentive des différents acteurs ». Elle a un rôle important à jouer en se saisissant du sujet des violences conjugales, encore trop peu étudié de nos jours. Surtout, « la violence des hommes blancs des classes moyennes et supérieures demeure largement impensée ». Il faut s’en emparer pour œuvrer à une plus grande compréhension de ce phénomène, à rebours des préjugés et de la production sociale d’un silence imposant sur le sujet.

The Conversation

Rougeon Marina ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

16.04.2025 à 13:45

Pope Francis and Laudato Si’: an ecological turning point for the Catholic Church

Bernard Laurent, Professeur, EM Lyon Business School

Pope Francis’s encyclical, Laudato Si’, was published almost 10 years ago. This environmental text sought to move the Catholic Church and its concern with the Earth back into a leading role.
Texte intégral (2063 mots)
In Laudato Si’, Pope Francis called for a radical break with consumerist lifestyles. Ricardo Perna/Shutterstock

On May 24, 2015, Pope Francis signed his encyclical Laudato Si’ – “Praise be to you” in medieval Italian. This letter to Roman Catholic bishops was no half measure: it took many Catholics by surprise with its uncompromising conclusions and call for an in-depth transformation of our lifestyles. In France, it managed to bring together both conservative currents – such as the Courant pour une écologie humaine (Movement for a Human Ecology), created in 2013 – and more open-minded Catholic intellectuals such as Gaël Giraud, a Jesuit and author of Produire plus, polluer moins : l’impossible découplage ? (Produce more, Pollute Less: the Impossible Decoupling?).

The Pope was taking a cue from his predecessors. Benedict XVI, John Paul II and Paul VI had also expressed concern about the dramatic effects of an abusive exploitation of nature on humanity:

“Man is suddenly becoming aware that by an ill-considered exploitation of nature he risks destroying it and becoming in his turn the victim of this degradation.”

What does Pope Francis’s encyclical teach us? And how does it reflect the Catholic Church’s vision, and his own?


A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!


The “green” pope

In the text, Pope Francis describes a situation in which the environment is deteriorating rapidly:

“There is […] pollution that affects everyone, caused by transport, industrial fumes, substances which contribute to the acidification of soil and water, fertilizers, insecticides, fungicides, herbicides and agrotoxins in general.” (§-20)

Laudato Si’ was published by the Vatican on June 18, 2015, a few months prior to the Paris climate conference. For the “green” pope, the aim was to raise public awareness around the challenges of global warming by creating a relational approach that included God, human beings and the Earth. It was the first time an encyclical had been devoted wholly to ecology.

In it, the Pope voiced his concern about the effects of global warming:

“Warming has effects on the carbon cycle. It creates a vicious circle which aggravates the situation even more, affecting the availability of essential resources like drinking water, energy and agricultural production in warmer regions, and leading to the extinction of part of the planet’s biodiversity.” (§-24)

Criticizing a “technocratic paradigm”

Since Pope Leo XIII’s Rerum Novarum, the various social encyclicals have consistently rejected the liberal idea of a society solely regulated by the smooth functioning of the market. The French sociologist of religion Émile Poulat summed up the Church’s position perfectly in 1977 in his book Église contre bourgeoisie. Introduction au devenir du catholicisme actuel, in which he writes that the Church “never agreed to abandon the running of the world to the blind laws of economics.”

In 2015, Pope Francis rejected technical solutions that would not truly be useful, as well as the belief in the redeeming virtues of a self-regulating market. He accused “the technocratic paradigm” of dominating humankind by subordinating the economic and political spheres to its logic (§-101). His comments are reminiscent of the unjustly forgotten French Protestant philosopher Jacques Ellul and his idea of a limitless “self-propulsion” of technology, which has become the alpha and omega of our societies.

Jacques Ellul in his office
For Jacques Ellul, technology is anything but neutral since it represents genuine power driven by its own movement. Wikimedia, CC BY-SA

The pope’s charge against the supposed virtues of the market was spectacular. Among others, he criticized the following:

  • overconsumption in developed countries:

“Since the market tends to promote extreme consumerism in an effort to sell its products, people can easily get caught up in a whirlwind of needless buying and spending.” (§-203);

  • the glorification of profit and a self-regulating market:

“Some circles maintain that current economics and technology will solve all environmental problems.” (§-109);

  • the hypertrophy of speculative finance:

“Politics must not be subject to the economy, nor should the economy be subject to the dictates of an efficiency-driven paradigm of technocracy.” (§-189);

  • the unequal distribution of wealth in the world:

“In fact, the deterioration of the environment and of society affects the most vulnerable people on the planet: […] the gravest effects of all attacks on the environment are suffered by the poorest.” (§-48);

  • the unequal levels of development between countries, leading Francis to speak of an “ecological debt” owed by rich countries to the least developed ones (§-51).

Social justice and shrinking growth

In Francis’s words, the goals of saving the planet and social justice go hand in hand. His approach is in keeping with the work of the [economist Louis-Joseph Lebret, a Dominican, who in 1941 founded the association Économie et humanisme. Father Lebret wanted to put the economy back at the service of humankind, and work with the least economically advanced countries by championing an approach based on the virtues of local communities and regional planning.

Pope Francis, for his part, is calling for a radical break with the consumerist lifestyles of rich countries, while focusing on the development of the poorest nations (§-93). In Laudato Si’, he also wrote that developed countries’ responses seemed insufficient because of the economic interests at stake (§-54).

This brings us back to the principle of the universal destination of goods – the organizing principle of property defended by the Catholic Church’s social doctrine, which demands that goods be distributed in such a way as to enable every human being to live in dignity.

In addition to encouraging the necessary technical adjustments and sober individual practices, Pope Francis is urging citizens in developed countries not to be content with half measures deemed largely insufficient. Instead, he is calling for people to make lifestyle changes in line with the logic of slowing growth. The aim is to enable developing countries to emerge from poverty, while sparing the environment.

“Given the insatiable and irresponsible growth produced over many decades, we need also to think of containing growth by setting some reasonable limits and even retracing our steps before it is too late. […] That is why the time has come to accept decreased growth in some parts of the world, in order to provide resources for other places to experience healthy growth.” (§ -193).

Nearly 10 years on, Laudato Si’ resonates fully with our concerns. In the United States, Vice President JD Vance and Secretary of State Marco Rubio, who both identify as Catholic, would be well advised to read it anew.

The Conversation

Bernard Laurent is a member of the CFTC and of the IRES Scientific Council

16.04.2025 à 10:14

Comment la Lune s’est-elle formée ?

Guillaume Paris, Géochimiste, chargé de recherche CNRS au Centre de recherches pétrographiques et géochimiques de Nancy, Université de Lorraine

La Lune serait née d’un immense cataclysme : la collision entre notre planète et une autre, aujourd’hui disparue, appelée Théia.
Texte intégral (1253 mots)

*La Lune serait née d’un immense cataclysme : la collision entre notre planète et une autre, aujourd’hui disparue, appelée Théia. *


La Lune est là, au-dessus de nous, toujours changeante, parfois absente et pourtant toujours présente. Saviez-vous qu’elle n’a pas toujours été là ? En effet, la Terre, à sa naissance, n’était pas accompagnée de son satellite. Comment s’est-elle formée ? Qui donc, en la regardant, pourrait imaginer le cataclysme qui est à son origine ?

Pour répondre à cela, il nous faut remonter loin, très loin dans le temps, peu de temps après la formation du système solaire, qui débuta voilà environ 4,567 milliards d’années. Des poussières, des gaz et des débris de glace tournent autour du Soleil, s’accrètent, s’agglutinent, commencent à former des petits corps qui grossissent peu à peu. Entre ces planétésimaux et autres embryons planétaires, c’est la guerre. Ils tournent autour du Soleil avec des trajectoires qui peuvent se croiser les unes les autres. Ils entrent en collision, explosent, fondent sous le choc, se reforment.

C’est dans ce contexte un peu chaotique que se stabilisent les futures Vénus, Mercure, Mars… proches du Soleil. Et, bien sûr, la future Terre, que les scientifiques imaginent dépourvue de Lune à sa naissance. Peu à peu, la Terre s’approche de sa taille actuelle.

Environ 60 millions d’années après la formation du système solaire, une autre planète, probablement de la taille de Mars, croise le chemin de la Terre et la percute brutalement. Ce corps céleste a été baptisé Théia, du nom du Titan mère de Séléné, déesse de la Lune dans la mythologie grecque. Sous le choc ce cet impact géant, Théia est pulvérisée, une partie de la Terre aussi.

Schéma de l’hypothétique impact géant entre la Terre et Théia
Schéma de l’hypothétique impact géant entre la Terre et Théia. Charlestpt/Wikipedia, CC BY

Instantanément, la surface de la Terre fond, probablement sur des centaines de kilomètres de profondeur, générant ainsi un nouvel océan de magma dont le refroidissement et la réorganisation chimique auraient peu à peu donné naissance au manteau terrestre, ainsi qu’aux océans et à l’atmosphère. Suite à ce cataclysme, les débris de Théia et des morceaux de la Terre auraient refroidi en se mettant en rotation autour de la Terre. Peu à peu, une partie d’entre eux se serait accrétée pour donner naissance à la Lune.


Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Bien sûr, on ne peut pas être sûr, et il existe différentes théories. Des scientifiques ont suggéré que la Lune aurait pu se former indépendamment avant d’être « capturée » dans l’orbite de la Terre, ou bien s’accréter en même temps que la Terre. D’autres ont proposé que la Lune se serait « arrachée » d’une jeune Terre qui tournait trop vite sur elle-même. Mais ces deux hypothèses n’arrivent pas à expliquer un certain nombre d’aspects que nous connaissons des compositions de la Terre et de la Lune, comme le fait que cette dernière est plus pauvre en fer, ou encore l’orbite et les paramètres de rotation de la Terre et son satellite. À l’inverse, la théorie de l’impact géant permet d’expliquer la pauvreté en eau de la Lune par rapport à la Terre, même si elle est sans doute moins sèche que ce que les scientifiques ont longtemps pensé. Enfin, cette théorie permet aussi d’expliquer pourquoi la Lune s’éloigne peu à peu de la Terre de 3,8 centimètres par an.

Ainsi, initialement proposée en 1946, la théorie s’est imposée dans les années 1970, notamment suite au retour d’échantillons lunaires de la mission Apollo 11. Depuis, l’hypothèse de l’impact géant est celle qui fait le plus consensus, même si certaines observations résistent encore à cette théorie. Quel sera le mot de la fin ? Pour le moment, Lune ne le sait !

The Conversation

Guillaume Paris a reçu des financements de CNRS Terre et Univers et de l'ANR.

16.04.2025 à 10:13

70 ans après la mort d’Einstein, une horloge atomique sur la station spatiale internationale pour tester la relativité générale

Didier Massonnet, Chef de projet Pharao, Centre national d’études spatiales (CNES)

Martin Boutelier, Centre national d’études spatiales (CNES)

Soixante-dix ans après la mort d’Albert Einstein, les scientifiques travaillent toujours activement à vérifier les prédictions de la relativité générale, toujours aussi puissante, mais toujours en conflit avec la mécanique quantique.
Texte intégral (2312 mots)
L’horloge atomique Pharao sera accrochée sur la station spatiale internationale pour mesurer précisément comment le temps s’écoule quand elle est un peu plus lointaine de la Terre, donc soumise à une gravité plus faible. Programme Aces-Pharao de l’ESA, CC BY

Soixante-dix ans après la mort d’Albert Einstein, les scientifiques travaillent toujours activement à vérifier les prédictions de la relativité générale, toujours aussi puissante, et toujours en conflit avec la mécanique quantique.

La mission spatiale Pharao, qui doit décoller le 21 avril 2025, fait partie de ces efforts. Son horloge atomique va mesurer le temps très précisément, pour comparer comment il s’écoule à la surface de la Terre et à l’altitude de la station spatial internationale.


Soixante-dix ans après la disparition d’Albert Einstein, sa théorie de la relativité générale est l’un des deux piliers fondamentaux sur lequel s’appuie la science pour expliquer l’Univers. Les succès de cette théorie sont nombreux et elle a été largement vérifiée, en particulier appliquée à l’infiniment grand.

Son grand défaut ? Elle n’est pas compatible en l’état avec l’autre pilier fondamental sur lequel s’appuie la physique, la théorie quantique des champs, autrement appelée mécanique quantique. Alors, comment réconcilier ces deux théories ? Quelles modifications faut-il faire pour les rendre compatibles ? Y a-t-il une nouvelle physique encore inconnue qui pourrait surgir de cette incompatibilité ?

Pour progresser sur ces questions, il est essentiel de vérifier les deux théories actuelles à des niveaux toujours plus précis, afin d’identifier d’éventuelles déviations qui pourraient conduire à les retoucher à la marge, avec l’espoir que ces retouches ouvrent la voie vers une compatibilité entre elles, voire vers une théorie englobant les deux.


Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Une horloge atomique dans l’espace pour vérifier la relativité générale

Une telle expérience de vérification sera lancée vers la station spatiale internationale (ISS) le 21 avril prochain. Cette expérience, appelée ACES (Atomic Clock Ensemble in Space), est conduite sous l’égide de l’ESA, l’agence spatiale européenne. L’élément principal est une horloge atomique d’une précision exceptionnelle, appelée Pharao et développée par l’agence spatiale française, le CNES.

L’objectif est de mesurer avec une précision inégalée une prédiction étrange de la relativité générale : la masse d’un objet modifie l’écoulement du temps dans son entourage. Plus vous êtes proche de cette masse ou plus la masse est grande, plus le temps s’écoule lentement. Cette prédiction atteint son paroxysme à la limite des trous noirs, où le temps… s’arrête !

Pour notre petite Terre, cet effet est moins spectaculaire : à 400 kilomètres d’altitude, soit l’altitude de l’ISS, un astronaute vieillit plus vite que son jumeau resté sur Terre d’une seconde tous les 300 ans. À l’altitude des systèmes de positionnement par satellite (Galileo, GPS, Beidou et Glonass volent à plus de 20 000 kilomètres d’altitude), cet effet est plus important. S’il n’était pas corrigé, la précision de positionnement de ces systèmes serait dégradée.

L’objectif de Pharao est de mesurer ce ralentissement très faible avec une précision inégalée. Pour ce faire, il faut que notre horloge ne se trompe pas de plus d’une seconde en 300 millions d’années, soit une dérive de deux dixièmes de seconde depuis la disparition des dinosaures ; ou de façon équivalente, de moins d’une minute depuis le Big Bang, le début du temps ! Traduit en termes de distances, cela reviendrait à mesurer une année-lumière au mètre près…

Vue schématique du refroidissement des atomes dans l’horloge atomique Pharao qui décolle le 21 avril pour la station spatiale internationale. CNES/ill./VOUILLON Jean, 2005, Fourni par l'auteur

Pour pouvoir vérifier que Pharao bat le temps moins vite dans l’espace que sur Terre, il faut pouvoir la comparer de façon très précise à des horloges restées au sol. Pour cela, elle est accompagnée de deux systèmes chargés de cette comparaison : un lien microonde qui permet de communiquer le temps au sol lorsque l’ISS survole un laboratoire métrologique abritant une horloge atomique, ainsi qu’un lien laser permettant de définir des « tops » de synchronisation entre le sol et l’espace.

L’horloge Pharao est une horloge très exacte mais également très complexe et qui a besoin de temps pour obtenir sa précision ultime. Pour remplir cette mission, elle est épaulée par deux autres horloges, moins exactes mais permettant d’initier et de garder le temps. D’une part, un oscillateur à quartz ultra stable est intégré à Pharao et permet d’initialiser grossièrement son heure, lui permettant d’interroger les atomes avec une fréquence déjà proche de leur fréquence de référence.

D’autre part, un maser utilisant l’atome d’hydrogène (une horloge atomique d’un autre type), maintient la référence de temps pendant les phases de réglage. L’effet de ces réglages peut alors être mesuré par rapport à cette référence.

Une horloge atomique sur la station spatiale internationale

Pharao volera accrochée à l’extérieur de l’ISS, sur un balcon du module européen Colombus. Même si les années de l’ISS sont désormais comptées avec une mise hors service suivie d’une désorbitation envisagées pour 2030, Pharao aura largement le temps de remplir ses objectifs.

Installer cette horloge à bord de l’ISS présente des avantages et des inconvénients : parmi les avantages, on trouve des occasions de transports fréquents, des niveaux de radiation modérés, des services de commandes et de communication éprouvés ainsi que des moyens de positionnement, d’attitude, de chauffage/refroidissement et d’alimentation électrique.

Parmi les inconvénients, on trouve le fait que l’ISS vole au final assez bas… si Aces avait été placée sur une orbite géostationnaire (à 36 000 kilomètres de la surface de la Terre), l’effet de relativité générale serait douze fois plus marqué, améliorant d’autant la précision obtenue avec la même horloge. Par ailleurs, la proximité des astronautes peut perturber l’expérience, en particulier à cause des vibrations de leurs machines d’entraînement musculaire.

Des horloges atomiques toujours plus précises

Depuis leur invention dans les années 1950, les horloges atomiques ont connu un rythme d’amélioration comparable à celui des systèmes électroniques (la fameuse « loi de Moore »).

Leur principe est de se caler sur une des nombreuses fréquences propres à un atome et qui reflètent son état d’excitation, un signal universel. Selon l’énergie de la vibration choisie, l’horloge peut être dans le domaine radio (10 giga Hertz), optique (visible et infrarouge), voire « nucléaire » (ultra-violet lointain).

Les fréquences plus basses des horloges radio sont les plus faciles à maîtriser et la définition officielle de la seconde (1967) est basée sur une vibration des électrons de l’atome de césium dans le domaine radio. Depuis quelques années, des horloges dans le domaine optique, plus performantes, sont apparues et sont disponibles au sol. Leur complexité les rend encore difficiles à envoyer dans l’espace. Enfin, des résultats prometteurs ont été obtenus en interrogeant des vibrations du noyau d’un atome, préfigurant peut-être des « horloges nucléaires » encore plus performantes.

L’horloge Pharao est quant à elle basée sur une amélioration décisive des horloges radio, obtenue par l’utilisation d’atomes refroidis par laser. Cette technique de refroidissement par laser a notamment valu le prix Nobel au physicien français Claude Cohen-Tannoudji en 1997. Les atomes ainsi refroidis à un millionième de degré absolu ont des vitesses résiduelles très faibles. Couplé à un environnement de microgravité, on obtient des durées d’auscultation importantes, paramètre clé de la performance des horloges. Les horloges au sol qui mettent en œuvre ce principe sont appelées « fontaines atomiques ».

Afin de préserver les atomes froids de toute interaction avec d’autres atomes, un vide très poussé, dit « ultravide » doit régner au centre de l’horloge Pharao. Ce vide est 1000 fois meilleur que l’environnement spatial autour de l’ISS. Seuls des métaux ou des verres peuvent être utilisés pour les éléments de la cavité et les joints qui les lient entre eux, tout autre matériau comme du caoutchouc ou des plastiques s’évapore dans le vide (phénomène de dégazage) rendant impossible l’obtention d’un ultravide. La conception de la cavité ultravide a donc été particulièrement complexe, notamment à cause des joints entre hublots de silice et pièces en titane (deux matériaux dont le contact étanche est difficile) ou encore la tenue à l’étanchéité des joints en acier.

En mesurant l’effet de la gravitation sur l’écoulement du temps, Pharao est capable de détecter d’infimes variations du potentiel gravitationnel équivalent à un changement d’altitude de 1 mètre. Les dernières horloges optiques au sol, encore plus précises, peuvent détecter un changement dans le potentiel gravitationnel équivalent à une variation d’un centimètre.

À ce niveau de précision, de tels changements peuvent être liés non seulement à des variations d’altitude de l’horloge, mais aussi à des variations dans la répartition des masses à la surface et à l’intérieur de la Terre : mouvement des nappes phréatiques, mouvements internes de la Terre, mouvement des masses d’air… C’est le domaine de la « géodésie chronométrique ».

Gageons que, dans un avenir pas si lointain, des horloges encore plus performantes que Pharao, connectées et comparées à une horloge de référence placée dans l’espace, pourraient bien mesurer à peu près tout… sauf le temps !

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

16.04.2025 à 10:13

Résistance bactérienne aux antibiotiques : mieux la comprendre et mieux la contrer

Antonio Monari, Professeur en Chimie Théorique, Université Paris Cité

Florent Barbault, Maitre de conférences en modélisation moléculaire, Université Paris Cité

Isabelle Broutin, Directrice de recherche CNRS, Université Paris Cité

En comprenant comment les bactéries résistent aux antibiotiques, on pourrait inventer de nouvelles méthodes pour améliorer les traitements des infections.
Texte intégral (3583 mots)
Une des stratégies pour résister aux antibiotiques, c’est celle des « pompes à efflux », véritables videurs qui repèrent les inopportuns et les raccompagnent vers la sortie. Florent Barbault, Fourni par l'auteur

Les antibiotiques sauvent de nombreuses vies mais les bactéries qu’ils combattent deviennent résistantes. Cette antibiorésistance provoque de nombreux décès prématurés, et le problème devrait s’aggraver dans les prochaines années et décennies.

Pour mieux le contrer, biochimistes et pharmaciens décryptent les mécanismes qui mènent à l’antibiorésistance. Comment les bactéries repoussent-elles les antibiotiques, évitent leurs effets, ou les détruisent ? Cette compréhension doit permettre de mettre au point des thérapies combinant antibiotiques et autres médicaments qui limiteraient la capacité des bactéries à contrer l’effet des antibiotiques.


Les bactéries sont des organismes constitués d’une unique cellule largement présents dans des habitats variés et parfois extrêmes. Elles sont présentes, sous le nom de microbiotes, sur notre corps ou à l’intérieur, et favorisent des phénomènes essentiels tels que la digestion. Mais les bactéries sont aussi des agents pathogènes à l’origine d’épidémies majeures comme la peste provoquée par la bactérie Yersinia pestis, et le choléra dû à l’espèce Vibrio choleræ.

De ce fait, la découverte des antibiotiques — des molécules qui tuent les bactéries ou bloquent leur croissance — a marqué un tournant décisif dans l’histoire de la médecine, à commencer par la découverte de la pénicilline en 1929. En effet, l’utilisation de ces molécules a permis d’éradiquer de nombreuses maladies infectieuses et d’améliorer grandement l’espérance de vie ainsi que les conditions de santé dans nos sociétés modernes.

Cependant, les antibiotiques, longtemps considérés comme des remèdes miracles et souvent utilisés abusivement en clinique et dans le secteur agroalimentaire, voient aujourd’hui leur efficacité compromise par le développement de souches bactériennes qui leur sont résistantes.

En effet, l’utilisation d’antibiotiques induit une « pression évolutive » sur les bactéries : les bactéries présentant des mutations génétiques leur permettant de résister aux antibiotiques survivent et se reproduisent davantage que les bactéries non résistantes.

affiche de sensibilisation sur l’antiorésistance
Affiche de sensibilisation aux problèmes de résistance aux antibiotiques. Association nationale des étudiants en médecine de France (ANEMF) et Association nationale des étudiants en pharmacie de France (ANEPF)

À terme, cela favorise les populations bactériennes résistantes aux antibiotiques. L’émergence de souches présentant une résistance multiple aux antibiotiques, c’est-à-dire qui sont résistantes à plusieurs types d’antibiotiques à la fois, par exemple à la pénicilline et à l’amoxicilline, est un problème majeur selon l’Organisation mondiale de la santé. Ainsi certaines estimations considèrent que la résistance aux antibiotiques pourrait causer près de 40 millions de décès d’ici 2050.

On ne peut guère s’attendre à de nouveaux antibiotiques, le dernier ayant été introduit sur le marché il y a environ quanrante ans (la ciprofloxacine, en 1987).

En revanche, aujourd’hui, pour mettre au point de nouvelles stratégies thérapeutiques, il est essentiel d’élucider les processus cellulaires et moléculaires qui permettent aux bactéries de développer leur résistance aux antibiotiques.


Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Certaines stratégies de résistance sont liées au comportement collectif des bactéries

Différentes stratégies de résistance aux antibiotiques existent — elles font intervenir différents niveaux de régulation.

Parmi ces mécanismes, on trouve la « dormance », un état dans lequel l’ensemble des bactéries réduisent leur activité cellulaire pour survivre à des conditions défavorables, comme la présence d’antibiotiques. Une fois l’administration d’antibiotiques terminée, les conditions environnementales redeviennent favorables, permettant aux bactéries de reprendre leur activité normale et notamment leur croissance et multiplication. Ce mécanisme de résistance complique en particulier le traitement des infections chroniques, car des bactéries peuvent se réactiver après la suspension de la thérapie antibiotique, entraînant des rechutes.

Un autre mécanisme de résistance lié aux populations bactériennes est la formation de « biofilms ». En effet, si les bactéries semblent être des organismes simples, elles sont capables de former des colonies pour maximiser leurs chances de survie. Ainsi, en présence d’une surface qui agit comme support, par exemple un cathéter ou une prothèse, les bactéries s’attachent les unes aux autres pour former une communauté organisée : le film de bactéries crée une barrière physique qui réduit l’efficacité des antibiotiques, car ces derniers ne peuvent pas pénétrer à l’intérieur du film et donc dans les bactéries, rendant le traitement plus complexe.

Ce phénomène est particulièrement fréquent dans le cas des infections nosocomiales, qui concernent désormais environ 6 % des personnes séjournant à l’hôpital et qui représentent une menace grave pour les personnes dont le système immunitaire est affaibli. Pour contrer la formation de biofilms, des thérapies combinées, des doses élevées, voire le retrait des dispositifs infectés, sont nécessaires.


À lire aussi : Résistances aux antibiotiques : comment nous pouvons tous agir



À lire aussi : Antibiotiques et antibiorésistance : une situation qui varie selon l’endroit où l’on est


D’autres mécanismes de résistance aux antibiotiques se mettent en place au niveau de bactéries isolées

Au niveau d’une bactérie isolée, les mécanismes de mise en place de l’antibiorésistance ont lieu quand des mutations génétiques apparaissant par hasard au cours de la vie d’une bactérie lui permettent de résister à l’action d’un antibiotique. La bactérie résistante peut transmettre la mutation à sa descendance ; et ce phénomène est amplifié dans les biofilms bactériens, car ceux-ci favorisent l’échange de matériel génétique entre les cellules.

Des mutations génétiques ponctuelles peuvent par exemple altérer la structure et le fonctionnement des protéines ciblées par les antibiotiques, rendant ces derniers inefficaces. À l’inverse, la bactérie peut utiliser la stratégie dite d’« évitement métabolique » en utilisant d’autres protéines, ou des voies métaboliques alternatives, pour contourner l’effet d’un antibiotique. On peut comparer cela à une autoroute bloquée (c’est l’antibiotique qui tente d’empêcher la bactérie de vivre sa vie), où l’évitement métabolique reviendrait à emprunter une déviation pour atteindre sa destination malgré le blocage.

Par ailleurs, certaines bactéries, suite à une mutation génétique, produisent des protéines spécifiques capables de dégrader ou d’inactiver les antibiotiques, les rendant donc inefficaces. C’est le cas par exemple des bêta-lactamases, qui détruisent les antibiotiques de la famille des pénicillines.

Quand la membrane de la bactérie empêche les antibiotiques d’y pénétrer

Les autres mécanismes de résistance aux antibiotiques se situent au niveau de la membrane qui entoure la cellule bactérienne. Cette membrane, constituée d’une double couche de lipides imperméables, protège la cellule.

Les membranes des bactéries sont parsemées de nombreuses protéines qui exercent des rôles différents : elles peuvent favoriser l’adhésion des bactéries aux surfaces ou aux autres cellules, elles peuvent permettre de décoder des signaux, et pour finir elles peuvent favoriser les passages des différentes molécules, par exemple des nutriments.

La résistance aux antibiotiques au niveau de la membrane est donc particulièrement efficace car elle permet de contrer la thérapie antibiotique dès son point d’entrée.

Ainsi, certaines bactéries limitent l’entrée des antibiotiques en réduisant la production des porines, c’est-à-dire des protéines qui forment des canaux traversant la membrane cellulaire et, donc, permettant le passage des molécules externes, dont les antibiotiques.

Un autre mécanisme fascinant de résistance bactérienne consiste en l’utilisation de protéines complexes appelées « pompes à efflux ». Ces structures sont constituées de plusieurs protéines et se situent dans les membranes bactériennes. Elles expulsent activement les antibiotiques qui auraient pénétré la cellule, empêchant ainsi leur accumulation.

Les pompes à efflux, les « videurs » qui se débarrassent des antibiotiques importuns

Les pompes à efflux sont une machinerie complexe oscillant entre une structure ouverte et une structure fermée, pour éviter d’introduire des canaux de communication permanents entre la bactérie et l’extérieur. Elles doivent également être sélectives, pour éviter l’éjection de composés nécessaires à la survie de la bactérie.

mécanismes effectant l’entrée des antibiotiques dans la cellule
Représentation schématique des mécanismes de résistance bactérienne actifs au niveau des membranes et du périplasme des bactéries Gram négatives. On voit la réduction de la production des porines qui permettent l’entrée des antibiotiques, l’action des enzymes qui dégradent les antibiotiques, et les pompes à efflux qui permettent l’expulsion des antibiotiques. Antonio Monari, CC BY

Dans le cas de bactéries dites « Gram négatives », qui possèdent deux membranes séparées par un sas appelé « périplasme », les pompes à efflux doivent traverser les deux membranes et le périplasme pour permettre l’éjection complète des antibiotiques.

Déterminer la structure des pompes à efflux et comprendre leurs mécanismes de fonctionnement est fondamental pour permettre de développer des médicaments capables de les bloquer, et ainsi de restaurer une sensibilité aux antibiotiques dans les souches bactériennes résistantes.

Étudier les pompes à efflux à l’échelle moléculaire

Des techniques de biophysique et de chimie physique, notamment la cryomicroscopie électronique et la modélisation moléculaire, permettent d’accomplir cette tâche et d’accéder à la structure des pompes à efflux avec une résolution à l’échelle des atomes.

simulation moléculaire d’une pompe à efflux
Structure de la pompe à efflux répondant au joli nom de MexAB-OprM, constituée de trois protéines, insérée dans les membranes bactériennes et traversant le périplasme. Cette pompe permet de capturer et expulser les antibiotiques vers l’extérieur de la cellule. Florent Barbault, Fourni par l'auteur

Plusieurs structures de pompes à efflux issues de différentes bactéries Gram négatives ont pu être résolues grâce à cette technique, telles que le complexe AcrAB-TolC d’Escherichia coli, ou MexAB-OprM de Pseudomonas aeruginosa, deux bactéries classées comme préoccupantes par l’Organisation mondiale de la santé.

Nous avons étudié davantage la pompe à efflux MexAB-OprM, afin de mettre en évidence le mécanisme d’expulsion sélective des antibiotiques.

Cette pompe est formée de trois protéines : l’une, composée de trois unités, joue le rôle de moteur de la pompe, la seconde de conduit étanche, tandis que la troisième fait un trou dans la membrane externe pour l’éjection finale des molécules à expulser, selon un mécanisme sophistiqué.

La première unité du moteur présente une cavité dans laquelle l’antibiotique peut entrer. Dans la seconde unité, cette cavité commence à se refermer pour pousser l’antibiotique vers l’intérieur de la pompe, dans une deuxième cavité. Enfin, les deux cavités se referment et un canal s’ouvre au niveau de la troisième unité, permettant l’acheminement dans le tunnel formé par les deux autres protéines, vers l’extérieur de la cellule. Cette pompe n’est donc pas qu’un simple « gros tuyau » : elle réalise un transport actif de l’antibiotique et est capable d’effectuer une sélection des molécules à expulser.

Grâce à ce type d’études, notre but est de comprendre finement les mécanismes de fonctionnement de cette pompe à efflux et de proposer des molécules qui seraient capables d’interagir avec les protéines pour bloquer son action. Par exemple, nous étudions la possibilité de développer des molécules qui pourraient interagir avec les cavités plus favorablement que les antibiotiques, pour bloquer au moins une des trois unités, et donc immobiliser la pompe. Une autre possibilité serait d’empêcher la formation du canal étanche liant les deux protéines insérées dans les membranes en enjambant le périplasme. Ces avancés pourraient permettre de développer une thérapie combinée qui pourrait rendre les bactéries Gram négatives à nouveau sensibles aux antibiotiques et donc contrer efficacement les infections nosocomiales.

Nous croyons que la lutte contre la résistance bactérienne, qui sera un enjeu fondamental de santé publique dans les années à venir, passe par l’utilisation intelligente des méthodes de chimie physique et de biologie structurale pour permettre de comprendre des mécanismes biologiques complexes, tels que la résistance aux antibiotiques ou l’échappement immunitaire, et d’y répondre efficacement.

Entre-temps, il est aussi primordial de favoriser une utilisation propre et contrôlée des antibiotiques, notamment en évitant leur surutilisation ou l’automédication, pour limiter l’émergence de souches résistantes qui pourraient être à l’origine d’épisodes épidémiques difficiles à contrer.

The Conversation

Antonio Monari a reçu des financements d'organisation publiques ANR, MESR etc..

Florent Barbault a reçu des financements de diverses organisations publiques (ANR, idex...)

Isabelle Broutin est membre de la société Française de Microbiologie (SFM), de la Société Française de Biophysique (SFB), et de la Société Française de Biochimie et biologie Moléculaires (SFBBM). Elle a reçu des financements de diverses organisations publiques (ANR, Idex-UPC, Vaincre la mucoviscidose...).

16.04.2025 à 10:11

À la recherche de l’ingrédient mystère de l’Univers, conversation avec Françoise Combes

Françoise Combes, Astrophysicienne à l'Observatoire de Paris - PSL, Sorbonne Université

Françoise Combes, astrophysicienne et présidente de l’Académie des sciences, retrace l’histoire de la traque de la matière noire : ingrédient mystère indispensable pour comprendre l’Univers.
Texte intégral (4153 mots)
Françoise Combes a obtenu la médaille d’or du CNRS en 2020. Fourni par l'auteur

Françoise Combes est astrophysicienne à l’Observatoire de Paris, professeure au Collège de France et présidente de l’Académie des sciences. En 2020, elle reçoit la médaille d’or du CNRS pour récompenser une carrière consacrée à l’étude de la dynamique des galaxies.

Avec Benoît Tonson et Elsa Couderc, chefs de rubrique Science à The Conversation France, la chercheuse lève le voile sur l’un des grands mystères de l’Univers : la matière noire. De la découverte d’une « masse manquante », en passant par l’hypothèse de la gravité modifiée, jusqu’aux grands projets internationaux de télescopes qui pourraient aider les scientifiques à caractériser cette matière imperceptible. Elle analyse également la situation actuelle des sciences aux États-Unis et dans le monde après l’électrochoc de l’élection de Donald Trump.


The Conversation : Vous vous intéressez à la matière noire, qu’est-ce que c’est ?

Françoise Combes : La matière noire, c’est de la matière invisible, parce qu’elle n’interagit pas avec la lumière : elle n’absorbe pas et n’émet pas de lumière, c’est pour cela qu’elle est appelée « noire ». Mais dans la pièce où nous sommes, il y en a peut-être et on ne la voit pas. En réalité, cette matière n’est pas noire, mais transparente. Ce problème nous questionne depuis des dizaines d’années.

D’où vient le concept de matière noire ? Les astrophysiciens ont observé un manque de masse pour pouvoir expliquer la dynamique des objets astronomiques, comme les galaxies, dont les étoiles et le gaz tournent autour de leur centre. Cette vitesse de rotation est très grande et la force centrifuge devrait faire éclater ces objets, s’il n’y avait pas de la masse pour les retenir. C’est aussi vrai pour les amas de galaxies. La conclusion inévitable est qu’il manque beaucoup de masse. Cette « masse manquante » est nécessaire pour faire coller la théorie et les calculs avec les observations.

À l’origine, les chercheurs pensaient que c’était de la masse ordinaire : c’est-à-dire des protons et des neutrons – la matière dont nous sommes faits, en somme. Mais ils se sont aperçus en 1985 que cette masse manquante ne pouvait pas être faite de matière ordinaire.

Prenons la nucléosynthèse primordiale, qui se déroule dans le premier quart d’heure de l’histoire de l’Univers où l’hélium et le deutérium se forment. S’il y avait suffisamment de matière ordinaire pour expliquer les observations sur la vitesse de rotation des galaxies, on ne mesurerait pas du tout la quantité d’hélium que l’on observe actuellement dans le Soleil, par exemple. On mesurerait beaucoup plus d’hélium et de lithium. Il a donc été établi, dans les années 1990, que seulement 5 % du contenu de l’Univers est fait de matière ordinaire !


Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


T. C. : Donc, si cette « masse manquante » est invisible, elle doit être faite d’autre chose…

F. C. : Oui, et une confirmation de ce fait est venue avec la détection des fluctuations primordiales du fond diffus cosmologique, vestige du Big Bang. Ces fluctuations sont détectées au tout début de l’histoire de l’Univers, environ 380 000 ans après le Big Bang. Il s’agit de toutes petites fluctuations de la lumière dans le domaine des microondes. À cette époque, la matière ordinaire interagit avec la lumière et cette interaction, par la pression de radiation, empêche la condensation en structures, celles qui vont former les galaxies notamment. S’il n’y avait eu, à cette époque, que de la matière ordinaire, il n’y aurait pas aujourd’hui de galaxies, ni même une seule étoile.

Les chercheurs ont donc compris, entre 1985 et 1990, qu’il fallait supposer l’existence d’une matière qui n’interagisse pas avec la lumière : ainsi, elle ne subit pas la pression de radiation et peut alors s’effondrer sous l’effet de sa propre gravité. C’est la « matière noire » qui va permettre de créer des « galaxies noires », sans matière visible à ce moment-là. Ensuite, 380 000 ans après le Big Bang, la matière va se refroidir en dessous de 3 000 °K. À cette température, les protons et les électrons se recombinent et forment l’hydrogène qui interagit beaucoup moins avec la lumière que les particules chargées. À ce moment, la matière ordinaire peut, si je puis dire, tomber dans les galaxies noires déjà établies et former des étoiles et les galaxies visibles.

T. C. : Cette terminologie de « matière noire » ne semble pas vous convenir…

F. C. : En effet, cela donne l’impression qu’il y aurait quelque chose de noir qui nous empêcherait de voir derrière. Mais ce n’est pas noir, c’est transparent. On devrait plutôt parler de « masse manquante », mais bon, tout le monde utilise ce terme, il faut faire avec !

T. C. : Au fur et à mesure des études sur la matière noire, des candidats ont été imaginés par les physiciens, puis beaucoup ont été écartés…

F. C. : Oui, depuis 1985, beaucoup de pistes ont été éliminées. Il faut en éliminer, sinon il n’est pas possible d’approfondir les bonnes pistes. C’est un peu comme un enquêteur qui a une dizaine de pistes, il ne peut pas toutes les étudier : ça le ralentirait énormément.

Prenons, d’abord, les Wimp parce qu’ils ont été un candidat privilégié pendant de nombreuses années. Wimp signifie Weakly Interacting Massive Particles (en français, particules massives interagissant faiblement). Il existe quatre interactions en physique : l’électromagnétisme, la gravité, puis les deux forces nucléaires forte et faible. L’idée est que s’il existe une interaction entre les particules de matière noire, cela ne peut être qu’une interaction faible. Le Wimp est une particule sans charge, et elle est sa propre antiparticule. Ces particules vont s’annihiler progressivement, par cette interaction faible, jusqu’au moment où l’expansion de l’Univers aura tellement diminué leur densité qu’elles ne pourront plus se rencontrer. Leur abondance sera alors gelée à une valeur « relique ».

Il faut savoir que la matière noire constitue 25 % de notre Univers. Pour que la densité « relique » réponde à cette proportion, il a été calculé que la masse d’un Wimp devait être d’à peu près 100 fois la masse du proton. Ces particules ont été recherchées, et cette recherche de détection directe continue aujourd’hui par des expériences dans le tunnel du Gran Sasso en Italie, par exemple : les particules de matière noire incidentes pourraient entrer en collision avec les noyaux du détecteur, et les faire reculer. Mais aucune collision n’a été détectée !

Une autre approche pourrait être de créer ce Wimp dans un accélérateur de particules, comme au Cern (Large Hadron Collider, LHC). La collision entre deux protons, lancés à des vitesses proches de celle de la lumière, libère énormément d’énergie. Cela crée les conditions d’un mini Big Bang. Avec ce type d’énergie, il est possible de créer une particule de 100 fois la masse du proton. Mais aucune particule exotique n’a été détectée… C’est ce qui a fait tomber ce candidat qui était privilégié depuis trente ans. Ceci a été réalisé vers 2015.

T. C. : C’était donc la fin de l’aventure du Wimp, quelles pistes sont encore ouvertes ?

F. C. : La communauté a également beaucoup travaillé sur la piste du neutrino stérile. C’est une particule inventée de toute pièce. Il faut savoir qu’il existe trois types de neutrinos, qui sont de chiralité gauche, et les physiciens ont imaginé trois neutrinos miroirs, qui ont une chiralité droite (une particule chirale est non superposable à son image dans un miroir, elle a une « latéralité », comme une chaussure droite vis-à-vis de la gauche). Cette théorie rencontre des problèmes : d’une part, des contraintes astrophysiques sur la formation des structures, qui leur affectent une masse trop grande. D’autre part, si le nombre de neutrinos est plus grand que trois, cela devrait accélérer l’expansion au début de l’Univers, au-delà de ce qui est observé dans le fond cosmologique par le satellite Planck. Enfin, des expériences de détection des neutrinos stériles au Fermilab (États-Unis) n’ont donné aucun résultat.

Actuellement, le candidat qui monte est l’axion. Beaucoup de simulations cosmologiques ont été effectuées avec cette particule pour tester ses capacités à reproduire les observations. Là aussi, il s’agit d’une particule hypothétique qui aurait une masse extrêmement faible. Avec un champ magnétique très fort, elle pourrait se changer en photon, mais, là encore, rien n’a été détecté. Même près des étoiles à neutrons, qui bénéficient de champs magnétiques extrêmes.

T. C. : Mais si on n’arrive pas à détecter cette matière noire, peut-être faut-il en conclure qu’elle n’existe pas ?

F. C. : C’est possible, cette idée a déjà été proposée en 1983, mais, dans ce cas de figure, il faut alors valider l’idée qu’il existe une gravité modifiée. C’est-à-dire changer la loi de gravité en champ faible.

Dans le système solaire, le champ est très fort : la gravité de notre étoile, le Soleil, suffit à maintenir tout le système en régime de champ fort. La force de gravité décroît comme le carré de la distance. Il faut s’éloigner très loin du Soleil pour que son champ de gravité devienne assez faible, au-delà du nuage d’Oort, qui est un ensemble de petits corps, d’où viennent les comètes, entre 20 000 et 30 000 unités astronomiques (cette unité est la distance Terre-Soleil, soit environ 150 millions de kilomètres). De même, dans notre galaxie, la Voie lactée, l’ensemble des étoiles au centre a une densité telle, que le champ de gravité combiné est très fort. Il n’y a pas de masse manquante, il n’est pas nécessaire de supposer l’existence de matière noire ou de gravité modifiée ; la physique newtonienne classique permet d’expliquer l’équilibre au centre, mais pas au bord. C’est sur les bords de notre galaxie qu’il manque de la masse.

Notre équipe a effectué des simulations avec cette gravité modifiée, pour la confronter aux observations. Avec Olivier Tiret, nous avons pu reproduire les premières interactions entre galaxies avec le champ de gravité modifiée et nous avons montré que le scénario marchait très bien.

Pour résumer, soit la loi de la gravité est supposée être toujours la même en champ faible, et il faut alors ajouter de la matière noire, soit il n’y a pas de matière noire et il faut supposer que la loi de la gravité est modifiée en champ faible. Car le problème de la masse manquante ne survient que dans les cas de champ faible. En champ fort, il n’y a jamais de problème de matière noire.

T. C. : Et parmi toutes ces hypothèses, quelle est celle qui a le plus de valeur à vos yeux ?

F. C. : Eh bien ! Je n’en sais rien du tout ! Parce que cette gravité modifiée, qui est étudiée par certains astronomes depuis quarante ans, est encore assez empirique. Il n’y a pas de théorie encore bien établie. De plus, si elle explique très bien la dynamique de toutes les galaxies, elle ne reproduit pas bien les amas de galaxies.

La solution est de rajouter soit un petit peu de neutrinos, soit même de la matière ordinaire qui manque. Parce qu’en fait, ce que l’on oublie généralement de dire, c’est que toute la matière ordinaire de l’Univers n’a pas été identifiée. La matière qui correspond aux galaxies, aux étoiles au gaz chaud dans les amas de galaxies, ne correspond qu’à 10 % de la matière ordinaire. On peut déduire des absorptions de l’hydrogène dans les filaments cosmiques qu’il pourrait y en avoir une quantité importante, mais au moins la moitié de la matière ordinaire n’est toujours pas localisée.

Donc, il y a beaucoup de protons et de neutrons manquants. Il suffirait d’en mettre une petite pincée dans les amas de galaxies pour résoudre notre problème de gravité modifiée. En résumé, la matière ordinaire manquante n’est pas encore localisée. Elle ne peut pas être toute dans les galaxies, il y en a peut-être dans les amas de galaxies, mais surtout dans les filaments cosmiques.

En 2015, quand l’hypothèse du Wimp est tombée, ce fut un choc pour la communauté. Et il ne faut pas penser que celle-ci est homogène, certains ont été convaincus tout de suite, mais, chez d’autres, cela a pris plus de temps et certains ne sont toujours pas convaincus. Notamment ceux qui ont travaillé sur le Wimp pendant toute leur carrière. Mais, à chaque fois, le scénario est identique lorsqu’il y a une découverte qui bouscule tout. Il y avait par exemple des astronomes détracteurs de l’existence du Big Bang. L’opposition s’est éteinte lorsqu’ils sont partis en retraite.

En ce qui concerne la gravité modifiée, les progrès sont indéniables. Le problème du début de l’Univers, des galaxies primordiales et des fluctuations est en passe d’être résolu. Par contre, dans les amas, ce n’est toujours pas le cas. La recherche est toujours en cours. Aussi bien dans la théorie de la matière noire que dans celle de la gravité modifiée, il y a des problèmes des deux côtés. Lorsque tous les problèmes seront résolus, une piste ressortira. Mais, pour l’instant, il faut rester attentif et agnostique, en travaillant sur les deux en attendant de savoir de quoi le futur sera fait.

T. C. : Justement, parlons du futur, il y a de nouveaux projets de télescopes, est-ce que cela pourrait vous aider ?

F. C. : Oui, je peux d’abord vous parler du télescope spatial Euclid, qui va décupler les détections de lentilles gravitationnelles, permettant de dresser des cartographies de matière noire. Le télescope va observer presque tout le ciel, et notamment les galaxies de fond, lointaines. Leurs rayons lumineux sont déviés par la matière qu’il y a entre elles et nous. Ce sont ces déformations qui nous renseignent sur la quantité de matière noire. Les images des galaxies de fond sont déformées de manière faible. Cela ressemble à un cisaillement qui permet de déduire statistiquement les cartes de la matière invisible.

Comme chaque galaxie a sa propre forme, il faut observer un très grand nombre de galaxies, ce qui sera possible avec Euclid. On aura 12 milliards d’objets à des profondeurs différentes.

Par ailleurs, et toujours avec ce télescope, il sera possible d’observer les oscillations acoustiques baryoniques, des ondes sonores qui se sont propagées au tout début de l’Univers et qui ont laissé des empreintes dans les structures à grande échelle. Ces structures ont une taille caractéristique, correspondant au chemin parcouru par le son depuis le Big Bang. Lorsque la matière est devenue neutre et s’est découplée de la lumière, 380 000 ans après le Big Bang, la taille de ces structures est restée gelée, et n’augmente qu’avec l’expansion de l’Univers. Il suffit de mesurer cette taille caractéristique à diverses époques pour en déduire la loi de l’expansion de l’Univers. Celle-ci est en accélération aujourd’hui, mais sa loi d’évolution dans le passé n’est pas encore connue. Tous ces résultats seront obtenus vers 2030.

T. C. : Et le télescope James-Webb ?

F. C. : Le JWST nous a montré qu’il y avait beaucoup de galaxies primordiales massives. Il peut observer dans l’infrarouge et donc peut détecter de la lumière provenant de très loin. Ces galaxies se sont formées bien plus tôt que ce que l’on pensait. En plus, en leur centre se trouvent des trous noirs très massifs. Ceci est une surprise, car le scénario de formation attendu était un scénario très progressif. De petits trous noirs se formaient aux premières époques, qui fusionnaient pour former des trous noirs très massifs aujourd’hui ; le scénario est à revoir !

T. C. : Il y a également le projet SKA…

F. C. : Oui, ici l’observation va capter des ondes radio. SKA signifie Square Kilometre Array (un kilomètre carré de surface, en français) ; il est fait d’une multitude d’antennes en Afrique du Sud et en Australie. Ce sont les moyennes fréquences en Afrique du Sud et les basses fréquences en Australie. Comme Euclid, SKA va regarder tout le ciel, mais, puisque ce sont des longueurs d’onde très différentes, ce sont d’autres populations de galaxies qui seront observées. Il sera possible également de cartographier la matière noire. SKA est donc complémentaire à Euclid.

T. C. : Vous avez travaillé dans de nombreux pays, fait-on la même science partout ?

F. C. : Nous, les astrophysiciens, faisons la même science partout. L’astrophysique est une science mondialisée depuis très longtemps. L’observation du ciel a besoin de gros instruments, qui sont relativement très coûteux. Prenons l’exemple de l’ESO, qui a été fondé, vers 1960, avec l’objectif de construire un télescope dans l’hémisphère Sud. Auparavant, chaque pays avait son télescope localement, mais, pour construire de grands télescopes au Chili, il fallait unir ses forces. Ce qui a conduit à l’Observatoire européen austral ESO : un vrai projet européen. Et maintenant, avec SKA, il s’agit même d’un seul instrument pour le monde entier, y compris la Chine. Il n’y a plus la compétition entre pays. Avec le James-Webb et Euclid, on a également des collaborations entre États-Unis et Europe.

T. C. : Votre communauté a donc réussi la prouesse de collaborer mondialement, comment voyez-vous la suite avec l’arrivée de Donald Trump au pouvoir ?

F. C. : La politique de l’administration Trump est en train de faire des coupes drastiques dans les budgets scientifiques et de licencier jusqu’à 20 % des postes. Notre communauté n’est pas la plus affectée. À l’Académie des sciences, nous avons publié un communiqué de presse pour exprimer notre solidarité avec nos collègues, et, surtout, avec plusieurs secteurs en danger : la biologie et la santé, notamment, les recherches sur le changement climatique, l’environnement, la diversité, l’équité et l’inclusion. Des doctorants et postdoctorants ont été renvoyés du jour au lendemain et interdits d’accès à leurs ordinateurs. Il existe des mots interdits, dans la recherche et dans les publications.

Du côté de la NASA, les programmes supprimés sont ceux de la surveillance de la Terre, ce qui impacte fortement la capacité de prédire les événements climatiques, comme les ouragans et les cyclones, ou ceux qui étudient les pollutions. En ce qui concerne les programmes spatiaux, les craintes sont que tous les budgets soient focalisés sur l’envoi d’humains sur Mars, aux dépens de missions plus scientifiques.

Il faut également rappeler les difficultés du lancement du satellite Euclid, qui avait été prévu avec un lanceur Soyouz en Guyane. Après la guerre lancée par les Russes en Ukraine, tout a changé. Ariane n’ayant aucun créneau de libre avant des années, il a fallu se tourner vers SpaceX pour le lancement.

T. C. : Les grandes coopérations spatiales ne sont donc pas encore menacées, mais vous n’êtes pas rassurée pour autant pour la science en général ?

F. C. : Oui, lors du premier mandat de Donald Trump, les réactions des antisciences s’étaient déjà manifestées avec, notamment, la sortie de l’accord de Paris sur le climat. Maintenant, tout se passe encore plus vite, avec la menace de sortir de l’OMS, de supprimer l’Usaid, de démanteler des programmes entiers. Certains juges réagissent, car souvent ces actions ne sont pas légales, et tout peut être remis en question.

Nous sommes aussi très inquiets pour les NIH (National Institutes of Health), dont de nombreux scientifiques ont été licenciés ou encouragés à prendre leur retraite. En janvier, les chercheurs du NIH étaient interdits de publier et de voyager ! Des collègues biologistes nous ont expliqué avoir vu de jeunes chercheurs en postdoctorat se faire licencier du jour au lendemain par mail. Des personnes en train de travailler sur l’écriture d’un article scientifique et qui, d’un coup, n’avaient plus accès à leur ordinateur pour le terminer.

Il est possible que les chercheurs licenciés essaient de trouver des pays plus accueillants. La France fait des efforts, au niveau gouvernemental, pour offrir des postes à ces « réfugiés scientifiques », mais aussi universitaires. Une pétition a circulé pour demander à la Commission européenne de débloquer des fonds pour cet accueil.

T. C. : Avez-vous vu une réplique de vos homologues américains ?

F. C. : Il n’y a pas vraiment eu de levée de boucliers très forte encore, non. Peut-être que l’Académie américaine est très dépendante du gouvernement fédéral et ne peut pas réagir. Il y a aussi une certaine sidération, et de l’expectative en attendant de savoir si toutes ces menaces vont être mises à exécution. Il y a aussi une grande part de peur de représailles et de coupures ou de licenciements encore plus graves. Le 7 mars, les scientifiques se sont réunis pour une manifestation Stand Up for Science aux États-Unis, qui a été accompagnée en Europe dans beaucoup de pays.

The Conversation

Françoise Combes ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

15.04.2025 à 17:37

Plongée dans le quotidien des humains de la Préhistoire, il y a 40 000 ans

Nicolas Teyssandier, Directeur de recherche au CNRS, Préhistorien, Université Toulouse – Jean Jaurès

Loin du cliché d’individus errant au hasard, les « Homo sapiens » ont constitué des sociétés complexes, faites de réseaux de relations à grandes distances, d’outils et d’art.
Texte intégral (2926 mots)

Ces dernières années, de fulgurantes avancées technologiques et méthodologiques ont permis de profondément renouveler la connaissance du quotidien des Homo sapiens du Paléolithique. Nomades, vivant en groupe, capables de créer outils et peintures et dotés du même cerveau que nous, les humains de l’époque étaient déjà des êtres complexes qui vivaient au sein de sociétés connectées.


Combien de visions caricaturales parsèment les représentations sur la Préhistoire ? Des groupes errant au gré du hasard, poursuivis par des hordes d’animaux tous plus dangereux les uns que les autres ; un climat hostile et des territoires inhospitaliers au sein desquels se déplaceraient des humains pas vraiment adaptés, vaguement recouverts de morceaux de peaux informes et que l’on voit parfois marcher les pieds nus dans la neige… Et que dire encore de leurs onomatopées si éloignées d’un véritable langage ? Une véritable survie en terre hostile !

Ces représentations sont à des années-lumière de ce que la communauté des sciences du passé construit patiemment depuis des décennies. Science jeune, la préhistoire s’est construite depuis la fin du XIXᵉ siècle, moment où est entérinée l’ancienneté de l’être humain, de ses outils, mais aussi, déjà ! de sa pensée puisqu’on lui attribue alors, après moult controverses, la réalisation de représentations graphiques figuratives sur les parois des cavernes.

Depuis, d’autres tournants ont eu lieu ; notamment dans les années 1950, avec la mise au point révolutionnaire de la méthode de datation par carbone 14 permettant enfin de situer dans le temps des phénomènes. Et que dire des fulgurantes avancées technologiques et méthodologiques qui scandent les sciences ce dernier quart de siècle et qui ont transformé en profondeur ma discipline ?

Aujourd’hui, le scientifique préhistorien est comme le chef d’orchestre d’une vaste enquête policière, mettant en rythme et en musique toute la gamme des spécialités, construisant instrument après instrument les savoirs sur les sociétés du passé. Car, désormais, on séquence l’ADN de Néandertal et de Sapiens et on réfléchit à la façon dont ces humains si dissemblables anatomiquement se sont métissés et ont laissé une descendance féconde ; on reconstruit les saisons de chasse et les environnements au sein desquels chasseurs et proies se rencontrent ; les instruments microscopiques ont de longue date remplacé l’œil nu pour identifier la fonction des outils en pierre, en os ou en ivoire. Enfin, car la liste est trop longue pour être énumérée ici, on utilise toutes les technologies d’imagerie 3D pour inventorier dans le moindre détail les squelettes.


Tous les quinze jours, nos auteurs plongent dans le passé pour y trouver de quoi décrypter le présent. Et préparer l’avenir. Abonnez-vous gratuitement dès aujourd’hui !


Les Sapiens de la culture de l’Aurignacien

Ce que ces avancées permettent, c’est une vision profondément renouvelée du quotidien de la Préhistoire. Remontons donc le temps et installons-nous dans le sud-ouest de la France, il y a 40 000 ans.

Des groupes d’Homo sapiens initialement originaires d’Afrique, avec la peau foncée adaptée au fort rayonnement UV des milieux tropicaux et équatoriaux, sont installés là depuis quelques générations.

D’un point de vue anatomique, les Sapiens du Paléolithique récent nous ressemblent beaucoup, au point qu’ils passeraient sans doute inaperçus s’ils étaient déguisés en humains du XXIe siècle. Ils ont aussi la même conformation cérébrale que nous et sont donc pareillement intelligents. Des êtres complexes en somme.

Ce sont aussi des nomades, qui déplacent régulièrement leurs campements selon les saisons et les activités qu’ils souhaitent réaliser. En Dordogne, là où nous connaissons bien ces Sapiens de la culture de l’Aurignacien (l’Aurignacien est la première culture paneuropéenne d’Homo sapiens, elle tire son nom du petit abri d’Aurignac, en Haute-Garonne où elle a été définie pour la première fois au début du XXᵉ siècle), les groupes humains ne vivent pas en grotte, mais s’installent en plein air, souvent dans des emplacements stratégiques facilitant une bonne acuité visuelle sur les troupeaux de rennes et de chevaux progressant dans les environs.

À cette époque, la démographie est sans doute faible, les derniers modèles proposent une densité autour de 5 individus tous les 100 km2 ! Autant dire qu’il devrait être plus fréquent d’apercevoir un renne que les membres d’un groupe voisin. Nous savons pourtant que ces groupes disposent de réseaux sociaux denses et entretenus.


À lire aussi : À la découverte de la plus ancienne sépulture africaine datant de 78 000 ans


Comment le sait-on ? Eh bien, pour cela, intéressons-nous à un matériau privilégié des Aurignaciens : le silex. Nos Sapiens étaient des experts de la taille qui demande un long apprentissage pour disposer des compétences et savoir-faire indispensables à la réussite du projet. Ils taillent avec dextérité de longues lames régulières, aux bords bien parallèles, dont la forme et la taille sont conçues à l’avance en aménageant soigneusement le bloc à tailler.

Une fois l’outil obtenu – une lame tranchante pour découper, un grattoir pour épiler et dégraisser les peaux –, il est en général placé et fixé dans un manche en bois, à l’aide de colles végétales et de liens en cuir. Ces technologies demandent donc des outils en silex standardisés qui peuvent être facilement remplacés quand ils sont usés ou cassés.

Peintures de mains apposées dans la Grotte de Chauvet (Ardèche)
Peintures de mains apposées dans la grotte Chauvet (Ardèche). Wikicommons, CC BY

Échanges d’outils

Les silex ont ceci de remarquable qu’on peut aussi identifier leur lieu d’origine. Et en observant la trousse à outil d’un Aurignacien périgourdin, occupant un abri du vallon de Castel-Merle (Dordogne), on constate aisément la pluralité des origines des silex qui la composent. On y trouve évidemment des silex disponibles localement, mais aussi en plus faible proportion des silex d’origine régionale, de la région de Bergerac à une cinquantaine de kilomètres.

Plus surprenant, on retrouve de beaux outils dans des variétés qui ne sont connues qu’à plusieurs centaines de kilomètres du site et qui ont été acquis de proche en proche, sans doute par échange, lorsque des groupes éloignés se rencontrent. Là, ce ne sont pas des blocs de silex qui s’échangent mais bel et bien des lames ou des outils prêts à l’emploi selon des réseaux qui relient la vallée de la Vézère à la région de Saintes en Charente, à quelques 150 km au nord-ouest ou à la Chalosse (Landes) au sud-ouest à plus de 250 km.


À lire aussi : Nouvelle découverte dans la vallée du Rhône : les Homo sapiens d’Europe tiraient déjà à l’arc il y a 54 000 ans


Ces observations conduisent à concevoir des groupes mobiles sur de vastes territoires, établissant des rencontres saisonnières avec d’autres clans qui exploitent des niches écologiques différentes.

Lamelles retouchées en silex utilisées comme éléments d’armes de chasse
Lamelles retouchées en silex utilisées comme éléments d’armes de chasse du Protoaurignacien de Fumane (Italie). Armando Falcucci, CC BY-NC

Des parures qui indiquent le statut social

Ces interconnexions sociales ont conduit les Aurignaciens à concevoir et fabriquer des objets capables de diffuser des informations sur leur statut individuel et collectif. À Castel-Merle, ils ont fabriqué par milliers de toutes petites perles en ivoire, en forme de panier, qui viennent orner des coiffes, des vêtements, ou sont assemblées en colliers.

Ces parures sont ainsi un moyen d’encoder de l’information pour la transmettre à d’autres individus. Et pas n’importe lesquels ! Inutile de le faire pour les membres de votre propre groupe qui connaissent tout de votre statut social. Il en va de même pour des individus d’une autre culture qui ne comprendraient pas votre message. Non, à l’Aurignacien, les parures sont des vecteurs pour communiquer des informations d’ordre social avec des individus de votre culture mais qui ne sont pas des connaissances proches.

Cela explique aussi que selon les régions européennes où l’Aurignacien s’épanouit, des types de parures spécifiques s’individualisent et rendent compte de groupes régionaux, mettant possiblement en scène des ethnies parlant des langues différentes.

Ces sociétés s’épanouissent donc au sein de réseaux de relations à longue distance et les équipements en pierre comme les parures circulent sur de vastes territoires, suggérant des déplacements de personnes, des échanges et sans doute le développement de nouvelles règles de parentés régies par l’exogamie. Ces changements proprement anthropologiques, qui se manifestent si puissamment lors de l’Aurignacien, rendent compte du succès que connut cette culture qui accompagna le développement des Sapiens sur toute l’Eurasie occidentale, concomitamment à la dilution progressive du pool génétique néandertalien jusqu’à l’extinction totale de cette anatomie ancestrale. On peut ainsi penser que la démographie des Aurignaciens et leur organisation sociale favorisant la circulation des biens et des personnes ont nettement contribué à l’extinction de Néandertal.

Les premiers artistes

Après quelques millénaires de développement de la culture aurignacienne, ces mutations sociales vont donner lieu à l’apparition, sur le continent européen, du phénomène sans doute le plus marquant que nous ont laissé ces sociétés. Je veux ici parler de l’explosion artistique à laquelle on assiste à partir de 36 000 ans avant le présent. Ce premier art figuratif revêt des formes variées : des animaux réalistes sont sculptés dans de l’ivoire, des dessins sont tracés sur des équipements techniques et, surtout, des fresques sont peintes comme c’est le cas dans l’emblématique grotte Chauvet (Ardèche).

Cet art du dessin, réalisé à coup sûr par des spécialistes, inaugure une nouvelle manière d’appréhender le monde et de retranscrire des éléments de compréhension dans une grammaire artistique. Il s’agit là sans doute de la signature archéologique très probable d’un grand mythe d’origine au monde, originaire d’Afrique et que les Aurignaciens de Chauvet avaient en tête au moment de réaliser leurs sensationnelles peintures.

Ce tableau vivant révèle des sociétés aurignaciennes pleinement entrées dans l’Histoire. Loin des caricatures souvent proposées, il présente une vision renouvelée du quotidien de nos ancêtres il y a 40 000 ans, régi par un haut degré de technicité, des savoir-faire appris et partagés et une structure sociale évidente. Un temps où il y avait des spécialistes et sans doute des hommes et des femmes dépositaires de savoirs, et donc d’un statut, auquel tous les membres du groupe ne pouvaient prétendre.

Des groupes nomades régnant dans des steppes froides et giboyeuses, parfaitement adaptés à cet environnement glaciaire et développant des moyens de communication illustrant des réseaux de relations à grandes distances faits d’objet et d’individus circulant au sein d’immenses espaces. On le voit, on est bien loin de l’image d’individus errant au hasard puisque l’on est ici en face de sociétés complexes et pleinement modernes.


L’auteur de cet article a récemment publié Dans l’intimité de Sapiens. Vivre, il y a 40 000 ans (éditions Alisio).


Cet article est publié dans le cadre de la série « Regards croisés : culture, recherche et société », publiée avec le soutien de la Délégation générale à la transmission, aux territoires et à la démocratie culturelle du ministère de la culture.

The Conversation

Nicolas Teyssandier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

15.04.2025 à 17:36

« Fort Knox numérique » : le pari risqué du bitcoin en réserve stratégique des États-Unis

Suwan Long, Assistant Professor, IÉSEG School of Management

Le plan de Donald Trump d’ajouter le bitcoin au bilan de la Réserve fédérale états-unienne est sans précédent. Vision audacieuse ou pari risqué ?
Texte intégral (2108 mots)
En centralisant et en conservant le stock de bitcoins détenu par le gouvernement, les États-Unis pourraient bénéficier d’une appréciation de valeur à long terme. Une idée rejetée par la Fed. JL Stock/Shutterstock

Le plan de Donald Trump d’ajouter le bitcoin au bilan de la Réserve fédérale est sans précédent. Audace visionnaire ou pari risqué ? Côté audace : Trump. Côté prudence : la Réserve fédérale des États-Unis.


En mars 2025, Trump signe un décret exécutif (« executive order ») établissant une réserve stratégique de bitcoins. Il vise à reconnaître officiellement le bitcoin comme un actif de réserve. Il prévoit aussi d’inclure dans cette réserve d’autres cryptoactifs : l’éther, le XRP, le solana et le cardano. Ce qui avait alors fait grimper leur valeur sur les marchés. Concrètement, la banque centrale des États-Unis – la Réserve fédérale (communément nommée la Fed) – pourra utiliser la cryptomonnaie pour prêter à des banques ou pour intervenir sur le marché des changes.

Cette réserve sera initialement financée par les bitcoins que le gouvernement américain possède déjà, principalement issus de saisies judiciaires dans des affaires de cybercriminalité ou de blanchiment d’argent. Par exemple, en novembre 2021, le ministère de la justice a annoncé la saisie de plus de 50 676 bitcoins liés à des activités illégales sur le marché du Darknet, Silk Road. Plutôt que de les revendre, ces actifs sont conservés dans une logique de placement à long terme. Le décret de Trump demande également aux agences concernées d’explorer des moyens « budgétairement neutres » pour acquérir du bitcoin, c’est-à-dire sans coûts nouveaux pour les contribuables.

En positionnant le bitcoin comme de « l’or numérique », l’administration Trump présente cette mesure comme une innovation audacieuse. Ce pari suscite un scepticisme important de la part des banquiers centraux et des régulateurs. Ces derniers alertent sur les obstacles juridiques et les risques pour la stabilité financière. Dans cet article, nous examinons le pari de Trump sur le bitcoin, ainsi que la réponse des institutions américaines, des régulateurs et des autorités financières mondiales, pour en évaluer la faisabilité et les implications.

Réserve stratégique de bitcoin

La note de la Maison Blanche souligne que le gouvernement crée une Réserve stratégique avec les bitcoins qu’il possède déjà, principalement issue de saisies judiciaires. Si, jusqu’à présent, ces bitcoins étaient vendus aux enchères sans véritable stratégie, ces avoirs seront dorénavant consolidés comme une réserve de valeur à long terme, à l’image d’un « Fort Knox numérique ». Le décret autorise même les secrétaires du Trésor et du commerce à élaborer des moyens d’acquérir du bitcoin supplémentaire, sans frais pour les contribuables, laissant la porte ouverte à des achats futurs en fonction des conditions du marché.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Cette initiative concrétise la promesse de campagne de Trump de faire de l’Amérique « la capitale mondiale de la cryptomonnaie ». Trump présente cette réserve comme la partie d’une stratégie plus large pour exploiter les actifs numériques en faveur de la prospérité nationale. Les partisans de cette initiative affirment qu’en centralisant et en conservant (holding) le stock de bitcoins détenu par le gouvernement, les États-Unis pourraient bénéficier d’une appréciation de valeur à long terme. L’idée : contribuer à la réduction de la dette nationale et des déficits.

Le Bitcoin Act vise à codifier la vision de Trump en loi. Ses défenseurs affirment qu’une réserve de bitcoins permettra de « renforcer le bilan financier de l’Amérique et d’alléger notre dette nationale ».

« Nous n’avons pas le droit de détenir du bitcoin »

Malgré cette ambition, le pari audacieux de Trump doit faire face à une réalité préoccupante : la Réserve fédérale des États-Unis (ou Fed) est légalement interdite de détenir du bitcoin. Elle est limitée dans la détention d’actifs, de titres du Trésor américain et de titres adossés à des créances hypothécaires, conformément au Federal Reserve Act. L’indépendance de la Fed et les statuts existants limitent la portée de ce plan sans changements législatifs. Ce conflit entre une vision exécutive et des limites institutionnelles constitue le cœur du débat.

Jerome Powell parle de l’inflation sur la chaîne YouTube de CNBC Television
Jerome Powell, président du Conseil des gouverneurs de la Réserve fédérale des États-Unis, est opposé au bitcoin comme réserve de change de son pays. Domenico Fornas/Shutterstock

La Fed gère la politique monétaire d’Oncle Sam. Elle détient des actifs de réserve comme les bons du Trésor et les certificats en or. Elle a accueilli l’idée d’intégrer le bitcoin à son bilan avec une grande retenue. Le président de la Fed, Jerome Powell, a déclaré sans équivoque :

« Nous n’avons pas le droit de détenir du bitcoin [… et] nous ne cherchons pas à modifier la loi. »

Cette résistance institutionnelle met en évidence un obstacle majeur. Le décret présidentiel s’applique à l’exécutif, ce qui permet à des agences comme le département du Trésor de créer une réserve en bitcoins. Le Trésor, en tant que branche exécutive, gère les revenus du gouvernement. Il administre également des fonds tels que le Treasury Forfeiture Fund, qui s’occupe des actifs saisis par des agences comme l’Internal Revenue Service (IRS) et le département de la sécurité intérieure (DHS).

Alors que le Trésor peut gérer des réserves fiscales, la Fed gère les réserves monétaires servant à la politique économique. Leurs rôles et contraintes sont profondément différents.

Volatilité et stabilité

La volatilité notoire du bitcoin est au cœur de la prudence exprimée par les autorités monétaires. Un actif de réserve monétaire est généralement censé être un stock de valeur stable et très liquide en cas de crise – des qualités que possèdent les actifs tels que le dollar américain, les bons du Trésor ou l’or.

Les cryptomonnaies, en revanche, ont affiché des fluctuations de prix extrêmes. Les responsables de la Réserve fédérale ont souligné que la cryptomonnaie est « rarement utilisée comme de l’argent réel » et est plutôt largement spéculative. Le Fonds monétaire international (FMI) a mis en garde contre le fait que l’adoption rapide des cryptomonnaies peut nuire à la stabilité monétaire. Début 2023, le conseil d’administration du FMI a exhorté les pays à « protéger leur souveraineté monétaire et à ne pas accorder aux cryptoactifs le statut de monnaie officielle ou de monnaie légale ».

Les États-Unis seuls au monde

L’initiative audacieuse du président Trump d’établir une réserve stratégique de bitcoins a sans conteste accéléré le débat sur l’intégration des actifs numériques dans les réserves gouvernementales. Ce projet novateur soulève des questions cruciales sur la légalité, sur la sécurité et sur l’avenir de la monnaie.

Aucun autre pays du G7 n’inclut actuellement les cryptomonnaies parmi ses actifs de réserve. Des institutions, telles que la Réserve fédérale et le Fonds monétaire international, demeurent profondément sceptiques quant à leur intégration. Les cryptomonnaies comme le bitcoin ne sont pas incluses dans ces actifs autorisés, ce qui signifie que leur intégration nécessiterait des amendements législatifs. En conséquence, la gestion de cette réserve de cryptoactifs incomberait probablement au département du Trésor des États-Unis, par l’intermédiaire du Fonds de confiscation du Trésor.

Le pari de Trump sur le bitcoin confronte une idée novatrice face aux principes fondamentaux de gestion conservatrice des réserves. Ce pari est à haut risque : une réussite pourrait placer les États-Unis à l’avant-garde de la révolution financière technologique, tandis qu’un échec pourrait entraîner des pertes financières ou nuire à la réputation économique du pays.

The Conversation

Suwan Long ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

15.04.2025 à 17:35

Choisir un prénom : les références aux saints en voie de disparition ?

Baptiste Coulmont, Professeur des universités, École Normale Supérieure Paris-Saclay – Université Paris-Saclay

Vers 1900, la quasi-totalité des bébés recevait un prénom dérivé ou proche de celui d’un saint catholique. Ils ne sont plus qu’un quart aujourd’hui dans ce cas.
Texte intégral (1804 mots)

Vers 1900, la quasi-totalité des bébés recevait un prénom dérivé ou proche de celui d’un saint catholique. Ils ne sont plus qu’un quart aujourd’hui dans ce cas.


Quelle que soit la source consultée, du calendrier des Postes à la liste des saints de la Conférence des évêques de France, on constate que la proportion de bébés nés en France et recevant un prénom de saint catholique diminue au cours du dernier siècle.

La chute a commencé plus tôt pour les bébés filles. Vers 1900, la quasi-totalité des bébés recevait un prénom dérivé ou proche de celui d’un saint catholique (la ligne pointillée du graphique ci-dessous compare les quatre premières lettres des prénoms – où Marinette et Louison sont associés à Marie et Louis). La loi obligeait à ce choix : il fallait donner un prénom « en usage dans les différents calendriers » ou un prénom inspiré de l’histoire antique.

Aujourd’hui, environ un quart des bébés, au grand maximum, reçoivent le prénom d’un saint catholique. Une fille sur dix reçoit l’un des prénoms du calendrier de la Poste.

Fourni par l'auteur

Une référence aux calendriers qui décroît

On peut expliquer cette diminution de différentes manières. En faisant référence à la sécularisation de la société française dans laquelle l’Église romaine joue un rôle moindre, concurrencée par d’autres institutions. Rappelons qu’en 2019-2020, 25% des Français se déclaraient catholiques contre 43% en 2008-2009. Mais on peut faire référence aussi au goût parental pour la nouveauté : or les prénoms des Saints ont de grande chance d’être des prénoms démodés, puisqu’ils étaient donnés par les générations précédentes.

On peut enfin insister sur la libéralisation du choix (effective depuis 1993 mais en gestation depuis plusieurs décennies), qui permet aux parents de sortir de la référence aux « usages des différents calendriers ». La diversification religieuse joue sans doute un rôle, aussi : il est évident que le répertoire catholique n’est pas celui de l’islam ou du bouddhisme.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


On peut aborder cette diminution autrement, en s’intéressant au jour de naissance : est-ce que les parents dont l’enfant naît le jour de la Saint-X donnaient souvent le nom du Saint du jour à leur enfant ? Y avait-il beaucoup de Marie le 15 août et de Valentin le 14 février, de Xavier le jour de la saint Xavier ?

Pour cela, il nous faut une grande liste nominative, comprenant le prénom et le jour de naissance. On dispose du Fichier des personnes décédées, qui nous donne l’identité des personnes décédées en France depuis 1970, qui sont près de 29 millions. Ce fichier n’est pas une source parfaite : il est sans doute assez représentatif pour les naissances des générations 1910-1960 mais il ne contient que les décès très précoces des générations plus récentes.

Comme le montre le graphique suivant, certains prénoms sont plus souvent donnés le jour de la fête du Saint (ou de l’équivalent, comme Noël), d’autres échappent à cet attracteur. Dans le Fichier des personnes décédées, on trouve environ 4 000 Marie nées un 15 janvier ou un 2 juin. Mais près de 9 000 nées un 15 août, jour aussi visible pour les Marie en deuxième prénom.

Il va naître beaucoup plus de Joseph le jour de la Saint Joseph (et tout au long du mois de mars) que lors d’un jour quelconque de l’année. Si dans le Fichier des personnes décédées il nait environ 25 Valentin un 3 juillet, c’est 200 le 14 février.

Les Victoire sont visibles le jour de la Sainte-Victoire, mais aussi, pour une raison historique précise, le 11 novembre 1918 : les quelque 230 bébés filles nés un 11 novembre et ayant reçu le prénom Victoire que l’on trouve dans le Fichier des personnes décédées sont nés le 11 novembre 1918.

Des choix de prénoms de plus en plus libres

En explorant la distribution d’autres prénoms, comme Stéphane ou Arnaud, nous serions bien en peine de déceler quel est le jour de leur fête. Ce jour n’attire pas plus les parents qu’un autre jour de l’année. C’est peut-être parce que les parents qui choisissent ces prénoms sont éloignés des références catholiques (ils choisissent, au milieu du XXe siècle, un prénom qui est alors un prénom « neuf »). Mais pourquoi alors le prénom Stéphanie est-il largement plus attribué le jour de la Saint-Étienne (Étienne étant une version latinisée du Stéphane grec) quand ce n’est pas le cas de Stéphane ?

Dans le graphique précédent, j’ai calculé le nombre de naissances par jour, en faisant abstraction de l’année de naissance. J’agrège des individus nés en 1910 et d’autres nés en 1947 ou en 1972 : la seule chose qui m’intéresse, c’est le jour, 1e avril ou 15 juin…

Ensuite, si l’on s’intéresse à l’évolution dans le temps et que l’on considère l’ensemble des prénoms, que se passe-t-il ? À mesure que les parents cessent de nommer leurs enfants d’après les saints catholiques, la pratique consistant à choisir beaucoup plus fréquemment le prénom du saint du jour de la naissance disparaît.

Fourni par l'auteur

Les personnes nées au début du XXe siècle avaient entre 4 et 5 fois plus de chance d’être nommées « Z » si elles naissaient le jour de la Saint-Z qu’un autre jour de l’année. Pour les personnes nées dans les années 1980 (et déjà décédées) il n’y a plus d’effet « Saint du jour ».

La disparition a été plus lente sur les seconds prénoms, ces prénoms invisibles, connus du seul entourage proche : ces prénoms sont souvent des prénoms d’une génération plus âgée (cousines et cousins, grands-parents, oncles et tantes) et de plus associés au parrainage et donc à un saint protecteur.

On peut même penser qu’aujourd’hui naître le jour de la Saint-Z conduit les parents à éviter ce prénom : le choix du prénom se vit parfois comme un choix libre, entièrement libre.

The Conversation

Baptiste Coulmont ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

15.04.2025 à 17:34

Fin de l’ARENH : comment l’électricité nucléaire française a basculé dans le marché

Thomas Reverdy, Professeur des Universités en sociologie, Grenoble INP - UGA

Cette particularité du marché français de l’électricité, introduite en 2010 suite à l’intégration de la France aux marchés européens de l’énergie, doit prendre fin courant 2025.
Texte intégral (2684 mots)

L’Accès régulé à l’électricité nucléaire historique (ARENH), particularité du marché français de l’électricité introduite en 2010 suite à l’intégration de la France aux marchés européens de l’énergie, doit prendre fin courant 2025. Retour sur l’histoire d’un dispositif controversé, mais trop souvent mal compris.


Le 31 décembre 2025, prendra fin une disposition spécifique au marché français de l’électricité, l’Accès régulé au nucléaire historique (ARENH). Cette disposition, mise en place en 2011, permettait aux fournisseurs concurrents de EDF d’accéder à un volume total d’électricité nucléaire de 100 TWh à un prix fixe de 42 euros par mégawatt-heure (MWh).

Régulièrement présentée par ses détracteurs soit comme une injonction autoritaire des autorités européennes, soit comme une spoliation d’EDF, les objectifs et les modalités de cette disposition sont souvent mal connus et incompris. Revenons sur l’histoire de ce dispositif.

Aux origines de l’ARENH

L’intégration de la France aux marchés de l’énergie européens après leur libéralisation a entraîné une hausse des prix à partir de 2004. Les clients industriels français se sont fortement mobilisés pour être protégés de cette hausse, suite à quoi l’État a mis en place un nouveau tarif réglementé pour les entreprises en 2006. La même logique a prévalu lors de l’ouverture des marchés pour les particuliers en 2007, l’État a décidé de maintenir un tarif réglementé calculé sur la base des coûts de production.

Or, la hausse des prix sur les marchés de gros a produit un effet de « ciseau tarifaire ». Il empêchait les fournisseurs alternatifs, qui achetaient l’électricité sur le marché de gros, de se développer. En effet, ces derniers n’avaient pas la capacité de rivaliser avec le tarif réglementé et les offres de EDF, fondés sur les coûts plus compétitifs du nucléaire historique.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Ainsi, la volonté politique de protéger les entreprises et les consommateurs par le tarif a alors entraîné un blocage de l’ouverture à la concurrence. L’ARENH a été créé dans ce contexte : il permettait de respecter l’engagement européen de développer la concurrence, tout en permettant de restituer aux consommateurs français l’avantage économique du nucléaire historique.

Un mécanisme utile, mais progressivement fragilisé

Le choix du mécanisme a été motivé par un souci de continuité avec les équilibres économiques qui existaient avant la libéralisation. Il a effectivement permis aux consommateurs français de bénéficier de l’avantage économique du nucléaire existant, tout en leur évitant d’être exposés aux variations du prix de marché de gros européen, quels que soient l’offre tarifaire et le fournisseur. La distribution du volume ARENH aux fournisseurs alternatifs est très encadrée en amont et en aval, pour éviter qu’ils tirent un bénéfice immédiat en revendant l’électricité sur le marché de gros. Elle ouvre à des règlements financiers en cas d’écart avec les besoins du portefeuille de clients.

Néanmoins, le mécanisme a rencontré plusieurs configurations inattendues qui l’ont fragilisé. En 2015, le prix du marché de gros européen, en baisse, est passé en dessous du prix fixé pour l’ARENH. Dans cette situation, l’ARENH a perdu de son intérêt pour les fournisseurs alternatifs.

Cette alternative a révélé le caractère asymétrique du dispositif : il ne garantit pas la couverture des coûts d’EDF en cas de baisse des prix de marché en dessous du tarif de l’ARENH. En novembre 2016, des fluctuations des prix des contrats à terme, ont permis aux fournisseurs alternatifs de réaliser des arbitrages financiers impliquant l’ARENH.

Cette période de prix bas sur les marchés de gros a aussi permis aux fournisseurs alternatifs de développer leurs parts de marché, qu’ils ont conservées quand les prix ont remonté à partir de 2018.

En 2019, le volume de 100 TWh prévu par la loi ne permettait pas de couvrir tous les besoins en nucléaire des fournisseurs alternatifs (130 TWh). Un écrêtement de l’ARENH a alors été mis en place. Ce rationnement a eu pour effet de renchérir les coûts d’approvisionnement des fournisseurs alternatifs, dans la mesure où une partie de l’électricité d’origine nucléaire de EDF devait être achetée au prix du marché de gros pour compléter le volume d’ARENH manquant.

Ces derniers ont dû ajuster leurs contrats de fourniture en conséquence. La Commission de régulation de l’énergie (CRE) a augmenté en 2019 les tarifs réglementés de l’électricité pour refléter ces nouveaux coûts d’approvisionnement, pour que le tarif réglementé reste « contestable » (qu’il puisse être concurrencé) par les fournisseurs alternatifs. Un des effets de l’écrêtement est de revaloriser l’énergie nucléaire, dont une partie est désormais vendue par EDF au niveau du prix de marché, supérieur au tarif de l’ARENH.

Un avantage pour EDF face à la concurrence

La loi énergie-climat de 2019 prévoyait une augmentation du volume d’ARENH à 150 MWh de façon à mettre fin à l’écrêtement. En parallèle, il était envisagé d’augmenter son prix de façon à suivre la hausse des coûts du parc nucléaire. Le projet HERCULE de restructuration de l’entreprise, initié pour améliorer la valorisation financière de l’entreprise, était aussi une opportunité pour repenser le mécanisme ARENH et le rendre symétrique, garantissant à EDF un niveau de revenu minimal en cas de baisse des prix.

Or le projet HERCULE a été abandonné face à la mobilisation syndicale car il portait atteinte à la cohérence de l’entreprise. Les modifications de l’ARENH ont été aussi abandonnées à cette occasion. Constatant que le prix de marché de gros suivait une tendance à la hausse, EDF avait plus à gagner à ce que l’ARENH ne soit pas modifié : elle pouvait gagner davantage grâce à l’écrêtement qu’avec une hypothétique réévaluation du prix de l’ARENH.

C’est donc avec un dispositif déséquilibré et asymétrique que le secteur électrique français a abordé la crise européenne de l’énergie en 2022. Du fait de la hausse des prix du gaz, une hausse des prix des contrats d’électricité à terme pour l’année 2022 a été observée dès le début de l’automne 2021.

Le gouvernement a alors décidé de mettre en place un bouclier tarifaire pour éviter que cette hausse n’affecte trop les consommateurs finaux – et éviter une crise politique dans un contexte préélectoral.

De la crise énergétique à l’« ARENH+ »

Pour réduire les surcoûts pour l’État et pour protéger les entreprises, il a aussi envisagé d’augmenter le volume d’ARENH pour répondre à une demande de 160 TWh. Réduire l’écrêtement de l’ARENH, permet de réduire l’achat d’électricité sur le marché de gros, ce qui réduit d’autant les factures de tous les clients, et donc le coût du bouclier tarifaire. Les négociations avec EDF ont retardé la décision.

Un « ARENH+ » a finalement été acté par le gouvernement en janvier 2022 pour la période de mars à décembre 2022. Au final, cette réduction d’écrêtement de l’ARENH a bien eu l’effet recherché par l’État, qui était de réduire le niveau des factures pour l’ensemble des consommateurs.

Néanmoins, compte tenu de son déploiement tardif, cette extension de l’ARENH à hauteur de 20 TWh supplémentaires a obligé EDF à racheter l’électricité nécessaire au prix de marché pour la revendre à un prix de 46 euros par MWh. Pour EDF, le coût direct était d’environ 4 milliards d’euros.

Un contexte critique pour le nucléaire d’EDF

Cette extension de l’ARENH est intervenue dans un contexte critique pour EDF. De nombreuses centrales nucléaires étaient indisponibles. La maintenance des centrales nucléaires a été retardée par la crise du Covid-19, la détection de problèmes inédits de corrosion sous contrainte ayant entraîné l’arrêt de nombreux réacteurs.

S’ajoute à cela la sécheresse des étés 2021 et 2022, qui a réduit les réserves d’eau dans les barrages et la production d’électricité d’origine hydroélectrique et nucléaire. Au cours de l’année 2022, EDF a dû importer de l’électricité aux pays européens voisins à des prix extrêmement élevés.

A l’automne 2022, le mécanisme de formation des prix sur le marché de gros européen s’est trouvé au cœur des débats en Europe et en France : il était question de limiter son influence sur la facture du consommateur. Paradoxalement, en France, le débat s’est alors focalisé sur l’ARENH. La commission d’enquête parlementaire « visant à établir les raisons de la perte de souveraineté et d’indépendance énergétique de la France » a alors été l’occasion, pour les anciens dirigeants d’EDF, de condamner l’ARENH, accusé d’avoir appauvri EDF et d’être responsable de la dépendance énergétique de la France.

L’extension de l’ARENH n’a pas été renouvelée pour 2023 et 2024, même si la demande d’ARENH est restée élevée, s’élevant alors à 148 TWh. De ce fait, les clients français ont acheté, directement ou indirectement, une large partie de l’électricité nucléaire de EDF au prix de marché de gros européen, exceptionnellement élevé. Ces deux années se sont donc avérées très profitables pour EDF, dont la disponibilité des centrales nucléaires s’est améliorée.

Un nouveau mécanisme qui expose davantage les acteurs aux aléas du prix de marché

Dans l’intervalle, le ministère de la transition a travaillé au remplacement de l’ARENH par un autre mécanisme symétrique. L’idée était de transposer au nucléaire historique les « contrats pour différence (CFD) symétriques », utilisés en Europe pour les énergies renouvelables.

Ce mécanisme devait permettre de garantir un complément de prix par rapport au marché de l’électricité, sécurisant ainsi la rémunération du producteur. Inversement, si le prix du marché augmente, l’État récupère l’écart, qu’il peut redistribuer aux consommateurs.

En parallèle, EDF a défendu un autre mécanisme, qui consistait à supprimer l’ARENH et à taxer les profits d’EDF quand ils dépassent un certain niveau. Bruno Le Maire a officialisé, en novembre 2023, l’arbitrage en faveur de ce second mécanisme, désormais validé dans le cadre de la Loi de Finance 2025.

L’électricité nucléaire sera donc vendue sur le marché et l’État pourra taxer EDF à hauteur de 50 % si les prix de marché dépassent un premier seuil calculé à partir des coûts complets de EDF – avec une marge non encore fixée – puis d’écrêter ses revenus en cas dépassement d’un second seuil. Les revenus issus de ce prélèvement devraient alors être redistribués de façon équitable entre les consommateurs.

Au-delà des incertitudes liées à la définition des seuils et des modalités de redistribution, le nouveau mécanisme valorise l’énergie nucléaire au prix de marché. EDF reste exposée au marché, mais conserve la possibilité de bénéficier des rentes générées par le nucléaire historique, pour financer ses investissements, en particulier dans le nucléaire futur. La préférence d’EDF pour ce second mécanisme tient aussi au fait qu’il permet d’accroître l’autonomie stratégique de l’entreprise tout en préservant sa cohésion organisationnelle.

Les clients industriels, les associations de consommateurs soulignent à l’inverse qu’il conforte l’entreprise dans sa position dominante et les prive d’une sécurité économique. Le mécanisme redistributif proposé risque d’introduire d’importantes inégalités dues à la diversité des formes d’approvisionnement. Ces consommateurs anticipent aussi des hausses des prix en janvier 2026, qui pourraient mettre en danger la dynamique d’électrification, clef de voûte de la décarbonation.

Ainsi, l’ARENH a joué un rôle essentiel dans la stabilité des prix de l’électricité pendant 15 ans, y compris pendant la crise énergétique, même si l’écrêtement en a limité les effets protecteurs. Sa complexité, ses fragilités techniques, et son statut ambivalent ont été autant de faiblesses mises en valeur dans le débat public pour affaiblir sa légitimité. L’abandon de l’ARENH a pour effet d’accroître la place du marché dans la formation du prix, et donc d’accroître les incertitudes économiques pour l’ensemble des acteurs.


L’auteur remercie Ilyas Hanine pour sa relecture.

The Conversation

Thomas Reverdy n’a pas reçu de financement de recherche en relation avec le thème de cet article. Par ailleurs, il a reçu des financements de l’État, de l’Ademe et de producteurs d’énergie pour diverses recherches sur les politiques énergétiques et le pilotage de projet.

15.04.2025 à 17:33

Arménie-Azerbaïdjan : les nombreuses limites d’un accord « historique »

Anita Khachaturova, Doctorante, Centre d'Étude de la Vie politique (CEVIPOL), Université Libre de Bruxelles (ULB)

L’annonce d’un accord de paix, après trente ans de guerre, a fait naître de grands espoirs, vite douchés par des exigences supplémentaires de Bakou, qui ne semble guère pressé de voir s’installer une paix durable.
Texte intégral (3934 mots)

En position de force depuis sa victoire décisive au Haut-Karabakh en septembre 2023, l’Azerbaïdjan a ajouté au dernier moment deux conditions à la signature de l’accord de paix avec l’Arménie dont les deux parties avaient annoncé la finalisation le 13 mars dernier. L’entrée en vigueur d’un tel texte freinerait, en effet, les ambitions militaires du régime de Bakou…


Le 13 mars dernier, les chancelleries occidentales, russe et iranienne, ainsi que de nombreux grands médias internationaux saluaient l’annonce de la finalisation d’un accord de paix entre l’Arménie et l’Azerbaïdjan. Après plus de trois décennies de conflit et plusieurs guerres meurtrières, on avait envie d’y croire.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Citant une source occidentale anonyme, au fait du contenu des négociations, qui se tiennent toujours à huis clos, OC media révélait que le document en 17 points avait pu être finalisé grâce aux concessions faites par l’Arménie sur les deux derniers articles qui restaient en suspens : l’abandon mutuel de toutes les poursuites judiciaires auprès des instances internationales, et le retrait de toute force tierce aux frontières interétatiques, référence faite à la mission d’observation de l’UE actuellement déployée en Arménie.

Mais le soufflé est vite retombé : quelques heures plus tard, le pouvoir de Bakou s’est empressé d’ajouter deux préconditions à la signature du traité : l’Arménie doit amender sa Constitution pour en retirer toute référence au Haut-Karabakh ; et le groupe de Minsk de l’OSCE doit être dissous.

Face à Erevan, qui a signifié sa volonté de signer l’accord sans conditions, Bakou renvoie ainsi aux calendes grecques l’échéance d’une normalisation entre les deux pays.

Un contexte très tendu

Tout observateur des relations arméno-azerbaïdjanaises aura pu constater le contexte particulièrement tendu dans lequel était survenue l’annonce de la finalisation du traité de paix. En effet, les récents développements semblaient indiquer la préparation d’une attaque imminente de l’Azerbaïdjan contre l’Arménie.

Des mois durant, Bakou avait accusé Erevan de violer le cessez-le-feu tout en exerçant une pression militaire continue à la frontière, appuyée par une rhétorique belliqueuse vis-à-vis du gouvernement de Nikol Pachinian, que le président azerbaïdjanais, Ilham Aliev, n’hésite pas à traiter de fasciste. À peine quelques heures avant l’annonce du 13 mars, Aliev tenait un discours plein d’amer ressentiment contre l’Arménie et accusait les Européens et des figures de l’administration Biden, qui venait de quitter le pouvoir à Washington, de parti pris anti-azerbaïdjanais. Il est vrai que l’Azerbaïdjan tente d’amadouer l’administration Trump, dont il se préparait à recevoir l’envoyé spécial, Steve Witkoff, en mission diplomatique dans la région.

Depuis le 13 mars, les tensions n’ont pas tari. L’Azerbaïdjan continue d’affirmer que l’Arménie viole le cessez-le-feu, accusations que l’Arménie réfute systématiquement. Le 31 mars, des tirs azerbaïdjanais ont causé des dégâts dans le village arménien frontalier de Khnatsakh, situé dans la région du Syunik, où les populations vivent dans la crainte permanente d’une invasion militaire azerbaïdjanaise.

Alors que ces informations contradictoires peuvent prêter à confusion, il convient de rappeler que, d’une part, toute signature d’un accord de paix entre l’Arménie et l’Azerbaïdjan sera tributaire de la volonté politique des parties d’agir concrètement pour la paix et, d’autre part, que le document, s’il est un jour signé et ratifié, ne sera qu’un accord-cadre énonçant des principes de la relation bilatérale, sans toucher aux enjeux fondamentaux. S’il permet de donner une impulsion positive au processus de normalisation, il ne sera pas en lui-même une garantie de stabilité et de paix.

Contexte historique

L’Arménie et l’Azerbaïdjan, deux anciennes républiques soviétiques, ont acquis leur indépendance vis-à-vis de l’URSS au moment de l’effondrement de celle-ci alors qu’elles étaient en guerre : entre 1988 et 1994, les deux pays ont combattu pour la région disputée du Haut-Karabakh, une enclave autonome majoritairement arménienne, placée au sein de la RSS d’Azerbaïdjan par le pouvoir soviétique dans les années 1920.

Le conflit, qui mena à l’expulsion de tous les Arméniens d’Azerbaïdjan et de tous les Azéris d’Arménie et du Haut-Karabakh, se solda en 1994 par une victoire militaire des forces arméniennes. Celles-ci avaient non seulement réussi à assurer le contrôle du Haut-Karabakh, qui proclama son indépendance, mais également occupé sept districts adjacents qui ne faisaient pas l’objet du contentieux initial.

À partir du cessez-le-feu de 1994, les négociations visant à résoudre le conflit se sont déroulées dans le cadre multilatéral de l’OSCE, par le biais d’un groupe de médiation, le groupe de Minsk, co-présidé par la Russie, les États-Unis et la France, devant accompagner l’Arménie et l’Azerbaïdjan vers un réglement pacifique. À plusieurs reprises, les parties s’étaient rapprochées d’un accord, notamment en 2001, lors des pourparlers de Key West, en 2007, lors de l’adoption des Principes de Madrid et à l’occasion du sommet de Kazan en 2011. Tous avaient été considérés en leur temps comme « historiques ». Ces tentatives diplomatiques ont toutes échoué.

Le 27 septembre 2020, l’Azerbaïdjan, ayant acquis une prédominance militaire sur l’Arménie et profitant d’une conjoncture internationale propice, marquée par la pandémie du Covid-19 et la campagne présidentielle aux États-Unis, attaquait le Haut-Karabakh. Dans une guerre fulgurante de 44 jours, Bakou obtint une victoire décisive.

En vertu de l’accord de cessez-le-feu du 9 novembre 2020, négocié sous les auspices de la Russie, l’Arménie perdait les trois quarts des territoires contrôlés jusqu’alors par ses forces dans la région et était contrainte de retirer ses soldats de l’enclave, au profit d’une force de maintien de la paix russe, laissant la région encerclée par l’armée azerbaïdjanaise. Le nouveau statu quo reconfigurait complètement l’architecture de sécurité sur le terrain.

Fragilisé militairement et politiquement, le gouvernement arménien se voyait incapable de défendre le statut des Arméniens du Haut-Karabakh dans les négociations avec l’Azerbaïdjan. La Russie, son alliée stratégique, ayant fait défaut dans la dissuasion des menaces et attaques azerbaïdjanaises, l’Arménie n’avait d’autre option que d’accepter des concessions douloureuses.


À lire aussi : Haut-Karabagh : cessez-le-feu sur une ligne de faille géopolitique


Fort de sa victoire militaire, Bakou resserrait l’étau sur ce qui restait du Haut-Karabakh arménien, rendant la vie de la population locale intenable. À partir de décembre 2022, l’Azerbaïdjan assiégea le Haut-Karabakh. Le 19 septembre 2023, au bout d’un blocus de neuf mois, Bakou lançait une offensive éclair sur l’enclave, poussant à l’exode toute la population restante, soit plus de 100 000 Arméniens (sur les 150 000 qui y habitaient avant la guerre de 2020).

Portant un coup dévastateur aux Arméniens, ces développements ouvraient néanmoins, paradoxalement, une voie pour la normalisation des relations bilatérales. En effet, Bakou ayant obtenu tout ce qu’il désirait et bien plus encore, il ne restait plus d’obstacle objectif pour signer un accord de paix avec l’Arménie. Cette dernière avait été contrainte d’abandonner toute revendication sur le Haut-Karabakh, ce qui engagea le gouvernement arménien dans un virage géopolitique et idéologique considérable, le gouvernement de Nikol Pachinian tentant de se dégager de l’influence russe et de rétablir des relations diplomatiques avec la Turquie, un soutien inconditionnel de l’Azerbaïdjan qui avait fermé sa frontière avec l’Arménie en 1993 et avait été déterminant dans la victoire de Bakou en 2020.


À lire aussi : L’Arménie, à la croisée des chemins transcontinentaux, se cherche des alliés


Force est de constater que plus d’un an et demi après la disparition du Haut-Karabakh arménien, les parties n’ont pas résorbé le conflit qui les oppose. Celui-ci s’est en effet déplacé sur le terrain arménien. Vulnérable aux menaces et attaques de l’Azerbaïdjan, dont les incursions en mai 2021 et en septembre 2022 ont résulté en l’occupation de plus de 200 km2 de territoire souverain de l’Arménie, Erevan est, des deux parties, celle qui a le plus intérêt à un traité de paix dans lequel elle voit un possible pare-feu à de nouvelles violations de son intégrité territoriale.

Face aux demandes de Bakou d’ouvrir ce qu’il appelle le « corridor de Zanguezour », un corridor extraterritorial devant relier l’Azerbaïdjan à son exclave du Nakhitchevan, séparée par l’Arménie, Erevan a tracé une ligne rouge : toute circulation sur son territoire devra être soumise au contrôle par ses propres forces de sécurité (excluant par la même occasion toute implication des forces de sécurité russes ou d’un quelconque régime d’exemption extraterritorial).

Si l’Azerbaïdjan prenait le contrôle du corridor de Zanguezour, l’Arménie n’aurait plus de frontière avec l’Iran. L’Azerbaïdjan, lui, aurait un lien terrestre direct à son exclave du Nakitchevan et donc à la Turquie. Héloïse Krob/France Info, 2022

Bakou, de son côté, tire un avantage de la situation actuelle et de sa prédominance face à l’Arménie. En exigeant de l’Arménie qu’elle amende sa Constitution, l’Azerbaïdjan rend la signature de l’accord incertaine. De ce fait, il peut maintenir l’ambiguïté sur son respect des frontières de l’Arménie, justifiant sa présence militaire sur le territoire arménien par l’absence d’un tracé de frontières qui ferait autorité.

Deux préconditions pour un texte d’accord réduit à peau de chagrin

Si la dissolution du groupe de Minsk peut être décidée sans grande difficulté, l’amendement de la Constitution arménienne n’est pas une mince affaire.

Toute démarche en ce sens devra se faire après les élections parlementaires de 2026, quand Nikol Pachinian cherchera à se faire réélire. Alors qu’il l’a mis à l’agenda après sa possible réélection, il sera extrêmement périlleux pour Pachinian de faire campagne sur un projet si ouvertement associé à une demande explicite de Bakou. Par ailleurs, un tel amendement demanderait la tenue d’un référendum national dont les exigences légales sont extrêmement strictes (25 % de tous les électeurs inscrits devraient voter oui) et dont rien ne garantit l’issue.

Le préambule de la Constitution arménienne mentionne la Déclaration d’indépendance de l’Arménie, adoptée en 1990, qui à son tour renvoie à l’acte d’unification décidé en 1989 par les autorités soviétiques arméniennes et celles du Haut-Karabakh. Celui-ci a en réalité été caduc dès les années 1990 puisque l’Union soviétique s’est effondrée et que le Haut-Karabakh a proclamé son indépendance, et non son intégration à l’Arménie. Une indépendance qu’Erevan n’a d’ailleurs jamais reconnue, afin de ne pas compromettre les négociations établies avec Bakou. Il n’en demeure pas moins que Bakou considère qu’en l’état le document constitue un défi à son intégrité territoriale.

Le gouvernement arménien a tenté de résoudre ce problème en faisant appel à la Cour constitutionnelle de la République d’Arménie qui, dans une décision datant du 26 septembre 2024, jugeait que le préambule ne pouvait constituer un obstacle légal à la validité de la décision de l’Arménie de signer avec Bakou l’accord de paix où le Haut-Karabakh serait reconnu comme faisant partie intégrante de l’Azerbaïdjan. Mais cela non plus n’a pas satisfait Bakou.

Au-delà de ces préconditions, le contenu de l’accord, qui n’est à ce jour pas rendu public, est de toute évidence très limité. Les questions de l’ouverture des communications, du processus de délimitation et de démarcation des frontières, ainsi que le gros point clivant du « corridor du Zanguezour », que Bakou continue de demander hors le cadre du traité, ne sont pas abordés. Ils sont pourtant décisifs dans la poursuite des négociations. Il n’y est pas non plus fait mention du Haut-Karabakh ou du sort de sa population déplacée, ni d’un quelconque processus de réconciliation des deux sociétés.

Bref, le document se contente d’énoncer des principes cadres de la relation bilatérale - tels que la reconnaissance mutuelle des frontières, l’abandon de toutes revendications territoriales et l’établissement des relations diplomatiques - et contourne les principaux différends qui continuent d’opposer les parties. Même ainsi, et malgré les dernières concessions arméniennes, il demeure en suspens.

L’Azerbaïdjan veut-il réellement la paix ?

C’est peut-être la question fondamentale à se poser. Un État autocratique qui s’est construit sur, et avec la guerre, peut-il prendre le risque de la paix ?

Quel serait le projet politique alternatif au nationalisme ethnique et guerrier dont le gouvernement d’Ilham Aliev s’est fait le chantre et qui irrigue la société azerbaïdjanaise ? C’est ce dilemme que pointait dans un article le chercheur azerbaïdjanais et activiste pour la paix Bahruz Samadov quelques semaines avant de se faire arrêter et emprisonner par Bakou pour « haute trahison ». Il y soulignait que « pour la société azerbaïdjanaise, le conflit du Haut-Karabakh a été pendant des décennies la cause nationale, servant d’outil majeur de dépolitisation ».

La victoire définitive de 2023 et la « restauration de l’intégrité territoriale » du pays ont créé pour le pouvoir un vide idéologique que celui-ci a cherché à combler par un discours anti-occidental et anti-libéral. Mais ce discours ne fonctionne que s’il repose sur un sentiment anti-arménien. La dénonciation du soutien supposé (et fantasmé) des Occidentaux à l’Arménie est corrélée à la construction de l’Arménien comme figure absolue de l’altérité et la cause de tous les maux touchant les Azéris.

Erevan a beau multiplier les gages de bonne volonté — reconnaissance du Haut-Karabakh comme faisant partie intégrante de l’Azerbaïdjan, rétrocession unilatérale de quatre villages frontaliers à Bakou, concessions majeures sur le texte de l’accord de normalisation… —, Ilham Aliev avance toujours plus de griefs contre Erevan. Le discours public du leader azerbaïdjanais, repris par les médias du pays, totalement contrôlés par l’État, est saturé de références irrédentistes à l’« Azerbaïdjan occidental » – autrement dit l’Arménie actuelle – aux prétendus « génocides » perpétrés par les Arméniens contre les Azéris, puisant dans un renversement en miroir dans l’historiographie du génocide des Arméniens de 1915, dont l’Azerbaïdjan est le premier des négationnistes, et allant jusqu’à refuser à l’Arménie le droit de s’armer. Ces discours sont accompagnés, depuis la reprise violente du Haut-Karabakh en 2023, par une répression effrénée de toute voix indépendante à l’intérieur de l’Azerbaïdjan, qu’elle provienne de journalistes, de militants pour la paix ou d’activistes de la société civile.


À lire aussi : Pourquoi y a-t-il encore des élections présidentielles en Azerbaïdjan ?


Malgré tout cela, l’Azerbaïdjan continue d’occuper un espace géopolitique important aussi bien pour la Russie que pour l’UE qui, ayant augmenté ses importations de gaz azerbaïdjanais, lui offre un traitement de faveur comparé à d’autres autocraties d’Europe orientale, comme le Bélarus. Les attaques contre les Arméniens en 2020, 2022, 2023 et les menaces répétées n’entraînent aucune conséquence matérielle pour Bakou, aucun début de sanction. Bien au contraire, le pays, riche en hydrocarbures, a accueilli la COP29 en novembre dernier. Les leaders et investisseurs européens continuent de visiter l’Azerbaïdjan et de signer des contrats avec ce régime corrompu et répressif qui emprisonne tous ceux qui dénoncent ces violations.

Si les Européens se montrent enthousiastes face à l’accord de paix du 13 mars et tentent par la même occasion de dissuader une agression contre l’Arménie, ils sont toutefois réticents à user d’un quelconque levier de pression. Prendront-ils des mesures de rétorsion concrètes si Bakou venait à envahir l’Arménie ?

Bakou devra peser le pour et le contre d’une attaque contre l’Arménie. Pourquoi attaquerait-il ? Parce qu’il le peut. Il a tous les moyens d’écraser les défenses arméniennes dans le sud du pays et de couper ainsi l’Arménie en deux. Depuis 2020, le régime Aliev prépare le terrain pour ce type d’opération, aussi bien militairement — l’occupation de positions stratégiques dans les régions arméniennes du Syunik et du Vayots Dzor est maintenue et consolidée — que domestiquement, en professant un « retour » sur les « terres historiques azerbaïdjanaises ». Il aura toutefois besoin de la justifier. C’est pourquoi un traité de paix pourrait encombrer une motivation légale de l’attaque. D’où les atermoiements de Bakou tandis que l’Arménie, au contraire, tente de déjouer cette stratégie en se montrant le plus complaisante possible, dans les discours et les actes.

C’est probablement à ce jeu-là que l’on a assisté mi-mars. La détermination de l’Iran, qui s’oppose catégoriquement à toute modification de sa frontière avec l’Arménie, qui plus est au profit d’une jonction territoriale turco-azerbaïdjanaise, est l’un des seuls éléments de dissuasion que l’Azerbaïdjan prend actuellement au sérieux. Mais au vu des transformations géopolitiques qui sont en cours avec la nouvelle administration de Washington, très hostile à l’Iran et cherchant à l’affaiblir, une fenêtre de possibilité s’est peut-être ouverte pour Bakou. Dans un monde devenu de plus en plus imprévisible et où la force fait loi, les régimes comme celui d’Ilham Aliev trouvent un terrain propice à leurs désirs les plus ambitieux.

The Conversation

Anita Khachaturova a reçu des financements de FNRS/FRASH (entre 2021 et 2023) et de l'ULB en 2024, ainsi que le prix Van Buuren

15.04.2025 à 17:32

Violences sexuelles, scandale de Bétharram : ce que révèlent les archives de l’Église

Thomas Boullu, Maître de conférences en histoire du droit, université de Strasbourg, Université de Strasbourg

Le scandale Notre-Dame de Bétharram a relancé la question des violences sexuelles au sein de l’Église et des établissements d’enseignement catholiques. Que fait l’Église pour lutter contre ces crimes ?
Texte intégral (3761 mots)

Avec le scandale de Notre-Dame de Bétharram, la question des violences sexuelles au sein de l’Église et des établissements d’enseignement catholiques est à nouveau au cœur de l’actualité. Le rapport Sauvé (2021) estimait à 330 000 le nombre de victimes depuis les années 1950 (un tiers des abus auraient été commis dans les établissements scolaires). L’Église, qui a multiplié les dispositifs et communications depuis les années 2000, agit-elle efficacement contre ces crimes ? L’État et la justice civile ont-ils changé de posture face à une institution religieuse très autonome qui a longtemps dissimulé ces violences ? Quid du cas particulier de Bétharram et de François Bayrou ? Entretien avec Thomas Boullu, historien du droit, qui a enquêté au sein des diocèses et des communautés afin de comprendre l’évolution du phénomène.


The Conversation : Comment avez-vous mené votre enquête historique sur les violences sexuelles commises par des prêtres, dans le cadre du rapport Sauvé finalisé en octobre 2021 ?

Thomas Boullu : La commission indépendante sur les abus sexuels dans l’Église (Ciase), dirigée par Jean-Marc Sauvé, a proposé à plusieurs équipes de chercheurs d’enquêter sur les abus sexuels sur mineurs et sur les personnes vulnérables au sein de l’Église catholique depuis les années 1950. Une équipe a proposé une méthode d’analyse quantitative aboutissant à une estimation de 330 000 victimes. L’équipe à laquelle j’appartenais a fait un travail historique et qualitatif fondé sur l’étude d’archives.

Pendant deux ans, avec Philippe Portier, Anne Lancien et Paul Airiau, nous avons fouillé 30 archives diocésaines et 14 archives de congrégations de communautés et d’associations de fidèles pour essayer de comprendre ce qui explique la grande occurrence de ces violences sexuelles. Nous avons également utilisé les signalements faits par l'intermédiaire d’une cellule d’appel. Au total, nous avons identifié 1 789 individus auteurs condamnés ou accusés de violences sexuelles.

Sur place, lors de nos visites, l’accueil n’était pas toujours le même. Il était parfois très bon et la collaboration sincère. Dans d’autres cas, on nous a refusé tout accès, comme à Bayonne, dont dépend Notre-Dame de Bétharram. Il est également arrivé que les évêques nous accueillent, mais taisent volontairement l’existence de certaines archives compromettantes. Dans les congrégations et les communautés, l’expérience était toujours particulière. Certaines donnent le sentiment de vivre un peu hors du monde, comme chez les frères de Saint-Jean où mon arrivée coïncidait avec un jour de silence pour l’ensemble des frères. Ce qui n’est pas toujours pratique lorsqu’on enquête…

T. C. : Qu’a fait l’Église pour agir contre les violences sexuelles depuis le rapport Sauvé, il y a plus de trois ans ?

T. B. : La principale réforme est celle de la mise en place de l'Instance nationale indépendante de reconnaissance et de réparation (Inirr) pour les victimes. Cette dernière permet notamment de pallier l'impossibilité pour les victimes de se présenter devant la justice des hommes lorsque les faits sont prescrits ou lorsque l'auteur est décédé.

Au-delà de cette instance, la plupart des diocèses se sont engagés auprès de la justice en concluant des protocoles avec les parquets. Ces accords précisent que l’évêque s’engage à dénoncer ceux des prêtres placés sous son autorité qui sont suspectés d’avoir commis des violences sexuelles. Cette pratique avait commencé avant notre enquête, mais il y a eu une généralisation. Ces accords sont des accords particuliers entre l’Église et l’État. Comme si la dénonciation n’allait pas de soi. Ces protocoles – dont la valeur juridique peut largement être interrogée – sont assez surprenants et semblent, parfois, être un stigmate d’un ancien monde où l’Église fonctionnait à l’écart de la société civile.

Outre ces protocoles, des cellules d’écoute des victimes sont présentes presque partout maintenant dans les diocèses. Elles associent parfois des juristes, des procureurs, des psychologues, représentants d’associations et des membres de l’administration diocésaine. Mais, là encore, cela est piloté par l’Église qui se présente, au regard de ses paroissiens, comme apte à réagir en mettant en place des institutions nouvelles.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Dans sa relation avec les tribunaux laïques (il existe des tribunaux canoniques), comme pour les cellules d’écoute, l’Église reste en partie pensée comme une « société parfaite », capable de gérer ces questions toute seule.

Dans l’ensemble, depuis les années 1950, un nombre important d’instances sur les problématiques sexuelles sont mises en place par l’Église, bien avant la commission Sauvé. Cette dernière réagit, comme elle le fait depuis des siècles, en traitant le problème en interne par la mise en place d’institutions, de politiques, de sanctions, de déplacements. La logique des sanctions prises par l’Église emprunte beaucoup au droit canonique et à son évolution. Il faut rappeler que si l’État limite la juridiction de l’Église à partir du XIVe siècle, cette dernière dispose au cours du Moyen Âge d’une vaste compétence en droit pénal. Contrairement au droit laïque, essentiellement répressif, le droit pénal canonique met en avant la repentance, le pardon, la réinsertion, le salut de l’âme.

Le prêtre fautif peut être amené à faire le jeûne, ou « tenir prison », c’est-à-dire se retirer dans une abbaye ou dans une trappe pour méditer sur ses fautes. On peut également faire l’objet d’un déplacement ou être placé dans des cliniques – réservées aux « prêtres dans la brume ». Ces dernières se multiplient à compter des années 1950 pour soigner les clercs souffrant d’alcoolisme, de maladies psychiatriques ou des auteurs d’agressions sexuelles.

Dans le diocèse de Bayonne, le même que celui de Bétharram, une clinique particulière s’installe à Cambo-les-Bains, entre 1956 et 1962. Elle sera ensuite déplacée à Bruges, près de Bordeaux.

Si sauver l’âme de l’auteur est impossible, reste la sanction ultime : l’excommunication, mais elle est rare.

T. C. : L’Église, qui possède une culture de sanctions propre, se soumet-elle désormais à la justice civile ?

T. B. : L’Église peine à se départir de son propre mode de fonctionnement qui a régi sa politique pendant plusieurs siècles, mais il faut toutefois noter une récente évolution et un rapprochement avec la justice des hommes.

L’Église se transforme du fait de plusieurs dynamiques profondes qui la dépassent, notamment en raison d’une évolution des mentalités collectives vis-à-vis des violences sexuelles. Au XVIIIe  ou au XIXe siècles, ce n’est pas l’agresseur sexuel qu’on craint en premier. La société a davantage peur du voleur de nuit qui rôde et qui s’introduit dans les maisons et égorge ses habitants. La figure du criminel « pédophile » comme image du mal absolu est relativement récente. Les écrits de Tony Duvert ou de Gabriel Matzneff sont encore tolérés dans les années 1970-1980. Avec l’affaire Dutroux de 1996, le monde occidental connaît toutefois une nette évolution qui pénètre aussi l’Église : les paroissiens comme les prélats acceptent de plus en plus mal ces infractions.

La deuxième raison qui fait évoluer l’institution, c’est la question de la gestion des risques. En 2001, on a la première condamnation d’un évêque – l’évêque de Bayeux, Monseigneur Pican. Elle donne lieu à de très nombreux courriers au sein de l’épiscopat entre les prêtres eux-mêmes, au sein de la Conférence des évêques de France et même avec le Vatican. Ces courriers montrent bien qu’il y a une inquiétude. Le monde de l’Église se rend compte qu’il s’expose à des sanctions pénales pouvant aller jusqu’à la prison.

En conséquence, les évêques commencent à consulter des avocats qui leur expliquent que les anciennes pratiques ne sont plus acceptables et les exposent à des condamnations. Une lettre rédigée par un avocat retrouvée dans les archives conseille, par exemple, aux évêques de supprimer les documents compromettants et de changer leur mode de gouvernance.

À partir de 2001, des réunions se tiennent au 106, rue du Bac, à Paris. Elles seront fréquentes et réunissent des évêques, des théologiens et des juristes réputés proches de l’Église. Des documents compromettants y circulent. Ce « groupe du 106 » envisage une communication plus large pour lutter contre ces abus, sans que la justice pénale ne s’en mêle. En 2001, une brochure est distribuée dans l’intégralité des paroisses pour lutter contre la pédophilie. C’est une première initiative qui traduit une évolution.

T. C. : L’Église a-t-elle couvert des crimes sexuels avec la tolérance de la justice ou d’institutions civiles ?

T. B. : Jusque dans les années 1960-1970, de nombreux procureurs acceptent de ne pas engager des poursuites contre un prêtre, voire de ne pas les arrêter, afin de permettre l’extraction du suspect. Les courriers entre les procureurs et les évêques, retrouvés dans les archives, montrent que ces derniers s’engageaient à retirer leur prêtre dans une logique de gestion interne et afin d’interrompre le trouble à l’ordre public. La plupart de ces lettres datent des années 1950.

Par la suite, ces pratiques tendent à reculer. Dans les années 1970, puis encore davantage dans les années 1980, les affaires sont plus difficiles à étouffer pour ces procureurs. La magistrature d’influence catholique recule au profit de nouveaux juges laïcs ou athées. J’ai pu découvrir des archives récentes où les procureurs sollicitent des entretiens avec les évêques pour faire le point comme ils s’adresseraient à des autorités au sein de leur territoire.

Dans ces écrits, il n’y a plus de place pour la dissimulation, mais pour une collaboration au service de la justice civile. C’est ainsi que ces protocoles parquet/diocèse doivent être compris. Des relations particulières entre les procureurs et les évêques peuvent subsister, mais la justice civile domine celle de l’Église. Concrètement, les prêtres et les évêques doivent donc dénoncer les leurs lorsqu’ils ont eu vent d’une agression sexuelle.

T. C. : Qu’avez-vous découvert dans vos archives concernant les relations entre médias et institution religieuse ?

T. B. : Pour que l’Église fonctionne en « société parfaite », elle a longtemps eu besoin de relais. Ces relais se trouvaient dans la magistrature, dans le monde politique et, globalement, dans la plupart des milieux influents. Nos archives nous montrent l’existence de ces relais dans les médias des années 1950, 1960 et 1970.

Des années 1950 aux années 1970, on trouve des lettres de responsables de journaux qui s’adressent à leurs évêques en leur disant : « Cher ami, Monseigneur, j’ai l’information sur notre territoire de plusieurs agressions sexuelles. Bien entendu, je ne ferai pas de papiers, mais, attention, le bruit pourrait s’ébruiter. »

Dans l’autre sens, nous avons trouvé des archives d’évêques qui écrivent au journal local sur le mode « Cher ami, le prêtre X est passé en jugement. Nous vous serions gré de ne pas rédiger d’articles sur ce sujet afin qu’un scandale n’éclabousse pas davantage notre institution ». Et les journaux – dans une logique de bonne collaboration au sein du territoire – acceptent les doléances de l’évêque et ne publient aucune information sur le sujet.

Désormais, l’Église ne bénéficie plus de ces relais. Les médias publient beaucoup sur le sujet des violences sexuelles et n’épargnent plus l’Église.

T. C. : Qu’en est-il des violences sexuelles dans les établissements scolaires à la suite du scandale de Bétharram ? François Bayrou est soupçonné d’avoir protégé cette institution…

T. B. : François Bayrou assume une certaine proximité avec des courants catholiques conservateurs ou faisant l’objet de nombreuses critiques. Il reconnaît en particulier être proche de la communauté des Béatitudes, fondée dans les années 1970 au lendemain du concile Vatican II et qui fait l’objet de très nombreuses plaintes pour phénomène sectaire et pour diverses agressions sexuelles.

Je crois que la question de Bétharram – entendue sous un angle politique – dépasse la simple question de la responsabilité de François Bayrou en matière de non-dénonciation. Elle pose également la question de la pertinence pour un premier ministre d’être proche de cette communauté. Cette dernière procédait à des séances de guérisons collectives et traverse des scandales de manière presque ininterrompue depuis sa fondation. De manière plus large, c’est aussi la question de la frontière entre la foi d’un homme politique et ses actions pour le bien de la nation qui est posée.

T. C. : Dans le rapport Sauvé, un tiers des violences sexuelles dénombrées a lieu dans des établissements catholiques. Élisabeth Borne a déclaré qu’il y aurait un plus grand nombre de contrôles désormais, ils étaient extrêmement faibles jusqu’à présent…

T. B. : Notre étude pointe du doigt les violences sexuelles commises dans les établissements scolaires catholiques. Les violences perpétrées dans les années 1950-1960 ou 1970 sont légion. Elles sont souvent commises en milieu scolaire ou dans le cadre du « petit séminaire » qui, éventuellement, prépare ensuite à une carrière ecclésiale. Dans bon nombre de ces institutions, les enfants dorment alors sur place. Il y a des dortoirs avec des individus chargés de les surveiller, de la promiscuité.

Ce sont les FEC, les Frères des Écoles chrétiennes, qui arrivent en tête des congrégations en termes du nombre d’agresseurs sexuels. D’autres congrégations suivent, comme les Frères maristes ou les Frères de l’instruction de Ploërmel. Si on ajoute les jésuites – qui assurent également des missions d’enseignement –, il y a une nette prévalence de ces institutions par rapport aux autres.

À partir des années 1970, avec un net mouvement de laïcisation et le recul de l’enseignement catholique, les violences sexuelles au sein de ces institutions tendent à diminuer. Ces congrégations enseignantes ont une activité très résiduelle voire nulle aujourd’hui. Les collèges et les lycées privés actuels ne sont guère comparables avec les anciennes institutions et les agressions y sont assurément moins nombreuses.

T. C. : Les violences contemporaines sont plutôt situées dans les diocèses désormais ?

T. B. : Absolument. Si les violences sexuelles au sein des établissements scolaires catholiques continuent à exister, la plupart des agressions ont surtout lieu dans les diocèses, au cœur des paroisses désormais.

Cette évolution se mesure d’ailleurs si l’on observe le profil des victimes et des agresseurs. Dans les années 1950-1960 ou 1970, la victime type identifiée par les archives est un garçon placé auprès des congrégations enseignantes et qui, en moyenne, a entre 7 et 10 ans. Désormais, le profil premier des personnes abusées, ce sont des jeunes filles de 13, 14, 15 ans. Des paroissiennes qui sont au contact du curé et qui ont des liens privilégiés avec lui.

Cas typique : les parents de la victime sont amis avec le curé, fréquemment invité à manger ou à dormir à la maison. Dans d’autres cas, les parents ne s’occupent pas de l’enfant, et le prêtre se considère comme responsable de son éducation. Un rapport de domination s’installe, susceptible de dériver vers une agression.

Le troisième modèle, fréquemment rencontré, est celui mieux connu des centres de vacances ou du scoutisme. C’est le cas dans l’affaire Preynat qui a dérivé sur l’affaire du cardinal Barbarin que les journaux ont largement relayé et dont le scandale est à l’origine de la formation de la commission Sauvé.

T. C. : Quid des violences sexuelles dans les « communautés nouvelles » ?

T. B. : Les communautés nouvelles naissent au cours des années 1970. Elles s'inscrivent dans un mouvement désigné sous le terme de renouveau charismatique qui suppose un rapport particulier avec la grâce et une relation repensée avec Jésus-Christ. J’ai cité les Béatitudes, mais on peut également évoquer le Chemin neuf ou les Puits de Jacob. De manière générale, les années 1970 donnent lieu à la création de nombreuses nouvelles structures ou communautés qui – même si elles se détachent parfois du mouvement charismatique – vont être sévèrement touchées par la question des violences sexuelles.

Dans nombre de ces structures, on note la fréquence de grappes d’agresseurs sexuels. Ces foyers sont souvent à l’écart des villes, dans des endroits un peu reclus, où l’on vit en totale synergie et communauté. À compter des années 1970, les archives montrent que de nombreuses agressions ont lieu dans ces nouvelles communautés. Par exemple, 40 individus ont ainsi été identifiés dans la communauté des Frères de Saint-Jean. En outre, les agresseurs de ces communautés sont davantage multirécidivistes que dans les congrégations enseignantes.

T. C. : Quelle est la sociologie des auteurs de violences sexuelles dans l’Église ?

T. B. : Comme pour les victimes, il y a une évolution du profil des auteurs au cours du siècle. Dans les années 2020, le prêtre agresseur a 58 ans en moyenne alors qu’il n’a que 38 ans en moyenne dans les années 1950. Cette évolution s’explique principalement par le vieillissement progressif de la population cléricale en France. Les jeunes sont également moins concernés actuellement en raison de la qualité de la formation au grand séminaire qui évolue entre les années 1950 et 2020. Sans être absolument centrale, la problématique de la sexualité est un peu mieux appréhendée – ce qui pourrait expliquer le recul des agresseurs jeunes dans nos statistiques.


Propos recueillis par David Bornstein.

The Conversation

Thomas Boullu a reçu des financements de l’Anr (projet fermegé), de la CEF (Ciase).

15.04.2025 à 17:30

La guerre silencieuse des hackers éthiques

Patrice Cailleba, Professeur de Management, PSB Paris School of Business

Nicolas Dufour, Professeur affilié, PSB Paris School of Business

Les hackers éthiques mènent une guerre silencieuse contre les cybercriminels. Ce silence protège ceux et celles qui doivent protéger nos données.
Texte intégral (1619 mots)
Les hackers éthiques se font embaucher par des entreprises ou des collectivités pour tester la résistance aux cyberattaques de leurs systèmes informatiques. Guillaume Issaly, Unsplash, CC BY

Les hackers éthiques se font embaucher par des entreprises ou des collectivités pour tester la résistance aux cyberattaques de leurs systèmes informatiques. Leur guerre silencieuse protège ceux et celles qui doivent protéger nos données.


Experts dans la lutte contre la cybercriminalité, les hackers éthiques travaillent à protéger et renforcer la sécurité informatique des entreprises et des États qui font appel à eux. Selon le site communautaire HackerOne, qui regroupe plus de 600 000 hackers éthiques à travers le monde, le premier dispositif qui a consisté à récompenser des hackers pour identifier les problèmes d’un programme informatique ou d’un système d’exploitation remonte à 1983 : on parle alors de bug bounty programme, ou « programme de prime aux bogues » en français.

Depuis lors, ces bug bounty programmes se sont multipliés. En 2020, les hackers éthiques de la plate-forme hackerone auraient résolu plus de 300 000 défaillances et vulnérabilités informatiques en échange de plus de 200 millions de dollars de primes, ou bounties.

En matière de sécurité et de défense, l’emploi de ruses, quelles qu’elles soient, ne se fait ni au grand jour ni avec grand bruit. Dans une étude pionnière sur ce thème, nous avons examiné ce qui constitue l’éthique silencieuse des hackers éthiques dans la guerre qu’ils et elles mènent aux cybercriminels.

De manière générale, les hackers éthiques se spécialisent dans les tests d’intrusion informatique auprès d’entreprises consentantes, afin d’en explorer les vulnérabilités et de proposer des actions correctrices le cas échéant.

Leur silence assure tout à la fois la transmission des connaissances (par imitation, seul devant l’écran), la formation et l’acquisition des compétences, mais aussi la socialisation au sein d’une communauté et d’un métier ainsi que la promotion de leur expérience et de leur réputation. Toutes ces dimensions sont concrètement liées et se répartissent en fait autour de trois moments : avant, pendant et après la mission de hacking éthique.


Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Avant la mission

Tout d’abord, les hackers éthiques doivent acquérir et développer les compétences techniques nécessaires pour devenir de véritables testeurs capables de détecter des vulnérabilités, plus globalement des failles de sécurité, à savoir des professionnels diplômés et légitimes. Or, leur formation commence souvent dès l’adolescence, de manière isolée, bien avant d’entrer dans l’enseignement supérieur. Par la suite, l’accès à une formation de hacker éthique est longtemps resté difficile en raison du faible nombre de l’offre en tant que telle. Cependant, ces formations ont considérablement crû récemment et gagné en visibilité en France et surtout aux États-Unis.

Lorsqu’une entreprise fait appel à des hackers éthiques, elle le fait sans trop de publicité. Les appels d’offres sont rares. Des plates-formes spécialisées américaines comme HackerOne mettent en relation des entreprises demandeuses et des hackers volontaires. Toutefois, les contrats ne sont pas rendus publics : ni sur les missions, ni sur le montant de la prime, ni sur les résultats…

Les termes du contrat relèvent par définition du secret professionnel : avant de procéder à un test d’intrusion, il est important d’obtenir le consentement des propriétaires du système sur ce qu’il est possible de faire ou de ne pas faire.

Pendant la mission

Lors des tests d’intrusion, les hackers éthiques ont accès à des informations sensibles ou confidentielles sur l’organisation (données informatiques mais aussi financières, logistiques… sans oublier les brevets) et sur ses employés (données fiscales, administratives, etc.). Le secret professionnel autour des informations collectées directement ou indirectement est essentiel.

De même, les vulnérabilités et les failles découvertes pendant la mission doivent toutes être signalées uniquement au commanditaire, sans les rendre publiques ou s’en servir par la suite.

Le hacking éthique n’a pas le même cadre juridique de pays à pays : les lois et les réglementations locales correspondent rarement, que ce soit en Europe ou au sein d’États fédéraux, par exemple en Inde ou aux États-Unis. Le cadre légal changeant oblige ainsi les hackers à la plus grande discrétion, à la demande et pour le bien de leur employeur.

Après la mission

À la fin d’une mission, les obligations des hackers éthiques ne s’arrêtent pas pour autant. Contractuellement, ils n’ont plus le droit de s’introduire dans le système de l’organisation cliente. En même temps, ils doivent effacer toute trace de leur passage et de leur activité et cesser toute forme de tests.

En outre, les hackers éthiques ne doivent divulguer ni ce qui a été vu (informations stratégiques, données privées, défaillances et vulnérabilités identifiées, etc.), ni ce qui a été fait, ni stocker les données collectées. Ils ne doivent pas non plus vendre ces données collectées. Le secret professionnel est de rigueur, autant que le maintien des relations avec chaque client est rendu nécessaire pour assurer le bon suivi des opérations réalisées.

La difficulté pour les hackers éthiques tient au fait de se prévaloir de leur expérience pour des missions à venir auprès de potentiels clients. Ceci doit être fait de manière modérée, à savoir en respectant les règles de confidentialité et sans être identifié à leur tour comme une cible par des concurrents potentiels, voire, surtout, par des hackers criminels.

On retrouve à chaque étape de la mission les règles de confidentialité ayant trait au secret professionnel. Concrètement, les hackers éthiques peuvent être soumis au secret professionnel par mission (en tant que prestataire pour un organisme public de santé par exemple) ou par fonction (en tant que fonctionnaire). Toutefois, pour le moment, ils ne sont pas soumis au secret professionnel en tant que profession.

À mesure de la numérisation grandissante des activités humaines et professionnelles, la cybersécurité phagocyte une grande partie des problématiques sécuritaires, qu’elles soient intérieures et extérieures, publiques et privées. Il ne s’agit plus de travailler à une synergie opérationnelle entre services au sein des organisations, mais plutôt à intégrer de manière systémique la menace cyber et sa prise en charge pour l’ensemble de l’organisation et ses parties prenantes (employés, clients, fournisseurs et société civile en général).

Le silence est l’élément fondamental de la formation (avant la mission), la socialisation (avant et pendant la mission) et la réputation (après la mission) des hackers éthiques. Ce silence transmet et enjoint, socialise et promeut, mais aussi protège ceux qui doivent protéger les données de tout un chacun.

Être hacker éthique constitue au final un engagement opérationnel mais aussi civique, voire politique, qui oblige les organisations publiques et privées à aligner davantage stratégie et éthique, au risque de se mettre en danger.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

15.04.2025 à 12:21

Violences sexistes et sexuelles dans la culture : « Mon audition à l’Assemblée nationale »

Marie Buscatto, Professeure de sociologie, Université Paris 1 Panthéon-Sorbonne

La chercheuse Marie Buscatto a été auditionnée par la commission d’enquête de l’Assemblée nationale sur les violences sexistes et sexuelles dans la culture.
Texte intégral (1240 mots)
Marie Buscatto, professeure de sociologie à l’Université Paris 1 Panthéon-Sorbonne, est co-autrice d’un article sur les violences sexistes et sexuelles à l’Opéra, publié en mars 2024. Assemblée nationale, Fourni par l'auteur

Que se passe-t-il pour nos auteurs après la parution d’un article ? Depuis janvier 2025, The Conversation France répertorie les impacts de ses publications sur la société. Voici l’exemple de Marie Buscatto, professeure de sociologie à l’Université Paris 1 Panthéon-Sorbonne, co-autrice d’un article sur les violences sexistes et sexuelles à l’Opéra, paru en mars 2024. Le 16 décembre 2024, la chercheuse a été convoquée pour être auditionnée par la commission d’enquête de l’Assemblée nationale sur les violences dans les secteurs du cinéma, de l’audiovisuel, du spectacle vivant, de la mode et de la publicité.

Le 9 avril 2025, le rapport très sévère de cette commission d’enquête a été présenté par ses deux rapporteurs, Sandrine Rousseau et Erwan Balanant. L’occasion de revenir sur les événements qui ont amené Marie Buscatto jusqu’au Parlement, pour y présenter les conclusions de ses travaux de recherches.


The Conversation : Que s’est-il passé après la publication de votre article sur notre site, en mars 2024 ?

Marie Buscatto : En collaboration avec mes collègues Ionela Roharik (EHESS) et la chanteuse lyrique Soline Helbert (pseudonyme), nous avons mené une enquête empirique dans le monde de l’opéra, dont les principaux résultats ont été relayés par The Conversation. L’article, publié le 6 mars 2024, a eu un fort impact médiatique : j’ai été interviewée sur France Musique et Radio Classique, ainsi que par l’AFP, par la Croix, par 20 Minutes ou encore par le Canard enchaîné. Notre objectif principal était alors de rendre les résultats de notre recherche accessibles au grand public afin de nourrir le débat sur un sujet difficile et brûlant. Et même si je n’en ai aucune preuve, je pense que l’écho médiatique suscité par cet article paru dans The Conversation a été premier dans l’invitation que j’ai reçue.

Cela est d’autant plus remarquable que l’audition à laquelle j’ai participé était la seule où figuraient des universitaires, toutes les autres auditions étant consacrées à des personnes évoluant dans les secteurs concernés.

T. C. : Quelle était la teneur de cet article, dont vous avez rendu compte lors de votre audition ?

M. B. : Lors de notre enquête, l’Opéra est apparu comme un monde professionnel propice à la mise en œuvre de violences sexistes et sexuelles, où règnent à la fois une forte précarité, beaucoup d’incertitude professionnelles, une hypersexualisation des chanteuses, la prépondérance des capacités de séduction physique dans les critères de recrutement et dans les interactions sociales et une tolérance des personnels vis-à-vis de ce qu’on a appelé les dérives des grands noms du spectacle.

Nombreux sont les éléments structurels participant ainsi à produire et à légitimer « un continuum » de violences sexistes et sexuelles récurrentes. En outre, ces violences font l’objet de faibles niveaux de dénonciation et affectent les carrières des femmes artistes, techniciennes et gestionnaires.

T. C. : Estimez-vous, comme la commission d’enquête, qu’il manque des statistiques fiables dans les secteurs visés, depuis l’enquête Virage de 2015 sur les violences et rapports de genre (Ined) ?

M. B. : C’est ce que j’ai indiqué au moment de l’audition, et cela a en effet été repris dans la recommandation 11 du rapport de la commission : nous manquons cruellement de recherches universitaires de qualité menées par des chercheurs, des chercheuses expérimentées sur ce sujet, et ce, faute de financement par les institutions publiques. Notre recherche sur l’Opéra est pionnière et devrait être suivie de recherches dans tous les secteurs artistiques pour nourrir l’analyse et l’action de manière appropriée. Ces recherches qualitatives devraient être complétées par des statistiques fiables menées par des organismes compétents.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


T. C. : Comment avez-vous vécu votre travail avec notre rédaction ?

M. B. : La collaboration a été très enrichissante et fructueuse. Nos échanges ont permis la rédaction d’un article qui, tout à la fois, préserve l’essentiel de notre démarche et de nos résultats et reste accessible aux personnes désireuses de prendre connaissance de nos travaux scientifiques.

T. C. : Sur quels projets travaillez-vous actuellement ?

M. B. : En lien avec cette première enquête empirique, et en collaboration avec mes collègues Mathilde Provansal (Université de Ludwig-Maximilians, Munich, Allemagne) et Sari Karttunen (Center for Cultural Policy Research-Cupore, Helsinki, Finlande), nous préparons la publication d’un ouvrage scientifique en anglais rassemblant des cas empiriques portant sur les violences de genre dans les arts et la culture en France, au Japon, aux États-Unis, en Finlande et en Angleterre.

Les principales conclusions tirées de ces travaux prolongent, approfondissent et généralisent les premiers résultats tirés de notre enquête à l’Opéra et feront peut-être l’objet d’une nouvelle publication dans The Conversation en juin 2025, au moment de la sortie de l’ouvrage.


Entretien réalisé par Tatiana Kalouguine.


Chez The Conversation, nous considérons que la recherche éclaire le monde et qu’elle peut aussi contribuer à le transformer. Pour cette raison, nous mesurons désormais les répercussions concrètes de nos publications sur la société, la politique, la recherche. En janvier 2025 est paru le premier rapport d’impact de The Conversation France.

The Conversation

Marie Buscatto ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

15.04.2025 à 11:12

Activité physique et santé : aménager nos espaces de vie pour contrer notre tendance au moindre effort

Boris Cheval, Associate professor, École normale supérieure de Rennes

Neville Owen, Distinguished Professor, Swinburne University of Technology and Senior Scientist, Physical Activity Laboratory, Baker Heart and Diabetes Institute, Baker Heart and Diabetes Institute

Silvio Maltagliati, Maître de conférence , Université Bretagne Sud (UBS)

L’inactivité physique est souvent attribuée à un manque de motivation individuelle. Cette perspective minimise le rôle des lieux de vie où les opportunités de bouger sont trop rares.
Texte intégral (2421 mots)

Le manque d’activité physique et la sédentarité sont souvent attribués à un manque de motivation individuelle. Réductrice et contre-productive, cette perspective minimise le rôle crucial des lieux de vie, de travail, de loisirs ou encore d’études, où les opportunités de bouger sont trop rares et celles de rester assis trop nombreuses.


Malgré la prise de conscience des bienfaits de l’activité physique pour la santé physique et mentale, les niveaux d’inactivité continuent d’augmenter dans le monde. L’inactivité physique est l’un des principaux problèmes de santé dans le monde. La France n’est pas épargnée.

Lutter contre la « pandémie » d’inactivité physique

En 2022, 31,3 % de la population mondiale était inactive, contre 23,4 % en 2000 et 26,4 % en 2010. Les adolescents sont particulièrement touchés, puisque, à travers le monde, 80 % des 11-17 ans ne pratiquent pas les soixante minutes d’activité modérée à vigoureuse quotidiennes. À l’échelle mondiale, l’inactivité physique serait responsable de 4 à 5 millions de décès chaque année, soit une vie perdue toutes les six à huit secondes.

En France, la situation est similaire. Un rapport de Santé publique France paru en septembre 2024 montre que les niveaux d’activité restent insuffisants, surtout chez les femmes, les enfants, les adolescents et les populations défavorisées. Selon l’Agence de sécurité sanitaire française (Anses), 95 % des adultes sont exposés à un risque pour la santé du fait d’un manque d’activité physique et d’un temps trop long passé assis (ou sédentarité).


Chaque mardi, le plein d’infos santé : nutrition, bien-être, nouveaux traitements… Abonnez-vous gratuitement dès aujourd’hui.


Pour lutter contre cette « pandémie » d’inactivité et atteindre l’objectif de l’Organisation mondiale de la santé (OMS) qui vise à réduire l’inactivité de 15 % d’ici 2030, il est essentiel de mieux comprendre l’ensemble des facteurs qui influencent l’activité physique. Parmi eux, le rôle de l’environnement bâti et des facteurs sociaux mérite une attention particulière.

À noter que l’environnement bâti (ou built environment, en anglais) désigne l’ensemble des espaces construits ou modifiés par l’être humain, dans lesquels les gens vivent, travaillent, se déplacent et interagissent. Il comprend notamment les bâtiments (résidentiels, commerciaux, industriels, etc.), les infrastructures de transport (routes, trottoirs, pistes cyclables, transports en commun), ou encore les espaces publics aménagés (places, parcs urbains, installations sportives).

L’environnement bâti et les facteurs sociaux : des éléments déterminants

L’activité physique ne dépend pas uniquement de la motivation individuelle, mais résulte d’un ensemble d’influences, allant des caractéristiques personnelles aux politiques publiques.

Le modèle écologique, inspiré des travaux de Kurt Lewin, soutient que le comportement humain se construit à l’intersection de l’individu et de son environnement. Cette approche rejoint le concept d’« affordance » de Gibson (ou « opportunités d’action ») qui montre comment les propriétés d’un environnement peuvent faciliter ou freiner certaines actions.

Le modèle écologique moderne, souvent associé à Bronfenbrenner, précise cette idée en identifiant cinq niveaux d’influence interconnectés : le niveau intrapersonnel (les facteurs individuels tels que l’âge ou les motivations), le niveau interpersonnel (les relations sociales et le soutien familial), le niveau organisationnel (écoles, clubs sportifs), le niveau communautaire (urbanisme, infrastructures) et le niveau politique (réglementations, investissements publics).

Nouveau, la newsletter Science ! Tous les 15 jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique. Abonnez-vous !

Tel qu’il a été appliqué à l’activité physique, ce modèle met en évidence le rôle central de l’environnement bâti. Il est désormais soutenu par un ensemble de preuves internationales. Des infrastructures adéquates – telles que les pistes cyclables, les trottoirs, et les espaces verts – favorisent l’activité physique dans divers contextes (mobilité, loisirs, travail/école, domicile).

À l’inverse, l’absence d’équipements appropriés ou un environnement dominé par des infrastructures favorisant la sédentarité limite ces opportunités. Le modèle écologique souligne également les interactions entre les différents niveaux ; par exemple, un cycliste motivé peut être découragé si les pistes cyclables semblent dangereuses, ou une personne désireuse de nager peut renoncer à cette activité si la piscine la plus proche est trop éloignée.

Des disparités au détriment des zones défavorisées et milieux ruraux

Les inégalités sociales exacerbent ces disparités. Les quartiers privilégiés disposent généralement d’infrastructures sportives modernes, accessibles et sécurisées, tandis que les zones défavorisées sont confrontées à de nombreux obstacles : infrastructures vieillissantes, manque d’espaces dédiés et sentiment d’insécurité.

Ces conditions découragent particulièrement les groupes qui se sentent davantage en insécurité, c’est-à-dire les femmes, les enfants et les personnes âgées. Par ailleurs, ces inégalités se manifestent aussi entre les milieux urbains et ruraux. Dans les territoires ruraux, bien que des espaces naturels existent, l’absence d’aménagements spécifiques et les longues distances jusqu’aux infrastructures limitent les opportunités de pratique physique.

Comprendre la tendance naturelle à minimiser l’effort

La théorie de la minimisation de l’effort en activité physique (Tempa) postule que les êtres humains ont une tendance naturelle à éviter les efforts physiques non nécessaires. Ce mécanisme, profondément ancré au niveau biologique, influence la manière dont nous interagissons au sein de nos environnements.

Cette tendance a des racines évolutives : dans un passé lointain où la conservation de l’énergie était cruciale pour la survie, minimiser l’effort permettait d’optimiser les ressources disponibles, améliorant ainsi les chances de survie et de reproduction.


À lire aussi : Nous sommes programmés pour la paresse


Cependant, dans nos sociétés modernes où la sédentarité est omniprésente, ce mécanisme de minimisation de l’effort, autrefois avantageux, devient désormais un facteur de risque pour la santé. Nous avons tendance à être attirés par des activités peu exigeantes d’un point de vue énergétique, telles que l’utilisation de moyens de transport motorisés ou de loisirs sédentaires comme regarder la télévision.

L’aménagement de nos espaces de vie et de travail renforce cette tendance. Les technologies facilitent les tâches ménagères, réduisant ainsi les occasions de bouger, tandis que les transports motorisés encouragent l’inactivité, même pour de courtes distances.

Enfin, dans le cadre professionnel et scolaire, des environnements peu modulables, avec des bureaux fixes, ne favorisent pas l’activité physique. Par exemple, en France, selon nos calculs, un élève passerait l’équivalent d’une année entière (nuits incluses), en position assise. Ce constat interpelle. Les opportunités sédentaires sont omniprésentes, et ce legs de l’évolution nous incite à nous y adonner naturellement, ce qui rend le maintien d’une activité physique régulière difficile pour beaucoup.

En d’autres termes, il ne faut pas négliger le rôle crucial des environnements dans l’explication de nos comportements, lesquels ne sont pas uniquement régis par des processus rationnels, mais aussi par des mécanismes plus automatiques ou spontanés.

Dans des domaines autres que l’activité physique, la prolifération des fast-foods ou les crises financières aux États-Unis, par exemple, peuvent expliquer en grande partie, respectivement, l’augmentation des taux d’obésité ou les difficultés d’épargne des ménages, comme le rappelle Loewenstein. De même, il serait réducteur de considérer ces phénomènes uniquement comme des questions de motivation individuelle.

Associer l’activité physique à des expériences agréables et motivantes

Le cadre théorique du moindre effort offre une approche novatrice pour concevoir des interventions de santé publique qui favorisent l’activité physique et réduisent le temps sédentaire, en adoptant une double stratégie : faire de l’activité physique l’option comportementale par défaut et garantir une expérience positive dès sa pratique. En réduisant l’accessibilité des équipements qui impliquent une faible dépense d’énergie, par exemple les escaliers mécaniques, on peut encourager des comportements plus actifs. Toutefois, cette approche seule ne suffit pas à assurer un engagement durable.

Et, par ailleurs, il est essentiel que les environnements restent pleinement adaptés aux personnes à mobilité réduite ou avec d’autres besoins spécifiques. Mais les options qui limitent l’activité physique ne doivent pas être celles qui sont rendues accessibles par défaut.

Il est également capital d’associer l’activité physique à des expériences agréables et motivantes, notamment par l’ajustement de l’intensité de l’effort ou l’intégration de stimuli positifs, tels que la musique et des environnements naturels plaisants, pour augmenter le plaisir perçu et diminuer la sensation d’effort.


À lire aussi : Pourquoi mettre en avant ses bénéfices pour la santé ne suffit pas à promouvoir une activité physique régulière


L’efficacité de ces stratégies dépend d’une approche contextuelle et adaptée aux spécificités des différents environnements de vie. De plus, il est indispensable de considérer les inégalités sociospatiales, car l’accès aux infrastructures, ainsi que la motivation des personnes à utiliser ces infrastructures varient selon les conditions de vie. Des interventions ciblées sont nécessaires pour garantir une équitable accessibilité et la promotion d’expériences affectives positives, notamment pour les populations vulnérables.

Repenser l’aménagement des espaces et l’accès aux structures sportives

Il convient de dépasser l’idée selon laquelle l’inactivité physique résulte uniquement d’un manque de motivation individuelle. Repenser l’aménagement des espaces, réguler l’accessibilité aux infrastructures sportives et intégrer l’activité physique dans les politiques publiques constituent des leviers décisifs pour lutter contre l’inactivité physique et la sédentarité.

Ce changement de paradigme, qui intègre notre tendance au moindre effort et le modèle écologique, ouvre la voie à des interventions plus justes et efficaces, notamment auprès des populations les plus vulnérables.

The Conversation

Boris Cheval a reçu des financements de la Chaire de recherche Rennes Métropole et des financements européens (Horizon).

Neville Owen a bénéficié des National Health and Medical Research Council of Australia research grants and fellowships.

Silvio Maltagliati ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

14.04.2025 à 17:40

La recherche en France : comment l’État a (ou n’a pas) financé l’innovation à travers l’Histoire

Jean-Luc Chappey, Professeur d'histoire des sciences, Université Paris 1 Panthéon-Sorbonne

En France, deux parenthèses historiques marquent un réel investissement financier de l’État dans la recherche scientifique et l’innovation technique : la Révolution française et les Trente Glorieuses.
Texte intégral (2242 mots)
Les Trente Glorieuses (1945 à 1973) ont été la seule période de large financement public de la recherche en France au XX<sup>e</sup>&nbsp;siècle. NCI/Unsplash

En France, deux parenthèses historiques marquent un réel investissement financier de l’État dans la recherche scientifique et l’innovation technique : la Révolution française et les Trente Glorieuses.


Entre 1793 et 1794, le gouvernement révolutionnaire parvient à impulser une véritable politique nationale de recherche et développement. Sous la conduite du Comité de salut public où siègent les plus grandes figures scientifiques du moment, les chimistes Guyton-Morveau et Prieur de la Côte d’Or, cette politique de recherche permet aux armées de la République française de résister aux assauts des puissances coalisées, puis de conquérir de nouveaux territoires.

Ce moment particulier de la Révolution se caractérise par une augmentation des financements publics accordés aux activités scientifiques, dont les budgets sont désormais débattus sur les bancs des assemblées.

De la culture du salpêtre nécessaire à la fabrication des munitions à l’utilisation des aérostats comme outils de renseignement aériens, les savants et les ingénieurs bénéficient d’un soutien financier sans égal des autorités, en dépit des réelles difficultés économiques et financières que connaît alors la nation.

S’ils sont encore souvent mal payés et de manière irrégulière, les savants travaillent dans de nouveaux lieux de savoirs (Muséum national d’histoire naturelle ou Conservatoire national des arts et métiers) au sein desquels s’accumulent livres, collections de plantes, de minéraux ou d’instruments confisqués à l’Église et aux émigrés (aristocrates exilés, ndlr) ou spoliés par les armées révolutionnaires.

Sous le Directoire (1795-1799), Paris s’impose comme une véritable capitale des sciences en Europe. La ville attire de nombreux visiteurs qui assistent aux enseignements dispensés dans les nouvelles institutions, comme l’éphémère École normale de l’an III ou la plus durable École polytechnique. Le rôle joué par l’État au cours de la Révolution française tranche nettement avec les régimes antérieurs et postérieurs.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Du XVIIe à la Révolution : faiblesses de financement de l’absolutisme

En effet, auparavant, en dépit de la volonté affichée depuis Jean-Baptiste Colbert de vouloir impulser les recherches scientifiques par le biais de l’Académie royale des sciences (1666), la prise en charge des recherches scientifiques par l’État reste largement insuffisante, même dans les domaines les plus stratégiques (navigation, cartographie, astronomie, physique).

Or, le développement des sciences fondé sur la culture expérimentale repose, dès le XVIIe siècle, sur l’innovation technique et le recours à des machines de plus en plus coûteuses, telle la pompe à air. Les académiciens manquent de moyens et, en dépit d’une augmentation des sommes accordées par Louis XV puis Louis XVI, ne cessent de revendiquer des financements durables.

Obligés de rechercher un deuxième emploi, la grande majorité des académiciens ont recours au patronage de quelques grands mécènes ou aux contributions de savants dont la richesse personnelle leur permet de s’imposer comme de véritables patrons. Le naturaliste-entrepreneur Buffon, directeur du Jardin du roi et propriétaire d’une forge à Montbard, ou le chimiste-directeur de l’Arsenal et fermier général Lavoisier, tous deux, grandes figures de l’aristocratie d’Ancien Régime, mobilisent leur fortune pour pallier les insuffisances du financement royal et consolider leur autorité au sein de l’espace scientifique français et européen.

L’endettement auquel fait face l’État tout au long du XVIIIe siècle empêche la mise en œuvre d’une réelle politique des sciences par la monarchie. Certes, l’expédition de La Pérouse (1785-1788) est une entreprise particulièrement coûteuse, mais elle constitue un simple coup médiatique de Louis XVI dans la lutte à distance que se livrent les puissances impériales, la France et l’Angleterre.

S’ensuit la parenthèse dorée pour la recherche de 1793 à 1799, évoquée plus haut, lors de la période révolutionnaire.

Au XIXe siècle, une indifférence de l’État et des faux-semblants

À son arrivée au pouvoir en novembre 1799, Napoléon Bonaparte confirme l’importance des recherches scientifiques, privilégiant les institutions formant les serviteurs de l’État aux dépens des académies qui restent néanmoins des espaces de débats importants.

Accompagné par l’État qui prend en charge la rémunération des professeurs, le développement des sciences physiques au début du XIXe siècle est indissociable de la construction d’instruments et de machines de plus en plus coûteux. Mais l’argent public ne peut pas suffire à répondre rapidement à ces nouveaux besoins.

La création, par Laplace et Berthollet en 1808, de la Société d’Arcueil, société savante financée par des capitaux privés, a valeur de symbole : devant l’incapacité de l’État à financer les machines nécessaires au développement de la nouvelle physique, les savants se rapprochent des industriels et des banquiers, acteurs du capitalisme naissant, scellant ainsi l’alliance étroite entre les développements des industries et des sciences qui se renforcent tout au long du XIXe siècle.

Sous le Second Empire, le directeur de l’Observatoire de Paris Urbain Le Verrier n’hésite pas à importer des méthodes de gestion des personnels venues de l’industrie et transforme l’établissement en une véritable usine où chaque astronome est payé en fonction du nombre d’étoiles qu’il découvre.

La question des sources de financement des sciences devient une question politique, l’État étant accusé de privilégier le financement des transports et de la rénovation urbaine aux dépens des activités scientifiques. Après le philosophe Charles Jourdain qui se plaint en 1857 des « vicissitudes » structurelles du budget de la recherche et de l’enseignement, Louis Pasteur, dont la carrière s’est construite au croisement des milieux scientifiques et des milieux économiques, met en garde contre la « misère » des laboratoires qui risque d’entraîner le retard de la recherche française.

Deux ans plus tard, la défaite des armées françaises semble lui donner raison. En dépit des mots d’ordre volontaristes du chimiste, devenu ministre de l’instruction publique (1886-1887), Marcellin Berthelot et du vote de subventions supplémentaires aux laboratoires (en particulier dans le domaine médical), les hommes de la IIIe République n’augmentent pas le budget de la science de manière significative. La grande réforme des universités françaises du philosophe et directeur de l’enseignement supérieur (1884-1902) Louis Liard, dans les années 1890, s’appuie largement sur la mobilisation des finances privées.

Le XIXe se caractérise par une réelle indifférence de l’État envers les recherches scientifiques, les efforts financiers étant le plus souvent limités dans le temps et réservés à certains domaines liés à des applications industrielles, agricoles ou médicales, jugées « utiles ». Ni les Lumières ni les républicains des années 1880 qui s’en réclament ne mettent en œuvre une réelle politique scientifique cohérente.

Une seconde parenthèse d’investissement après la Seconde Guerre mondiale

Il faut finalement attendre la seconde moitié du XXe siècle pour assister à un réengagement de l’État en matière de recherches scientifiques.

Au lendemain de la Seconde Guerre mondiale, le financement massif accordé aux activités scientifiques constitue le cœur du redressement national et de la promotion de l’État providence. Impulsées par la création de nouvelles institutions scientifiques (du CNRS en octobre 1939 au CEA en octobre 1945), les sciences fondamentales sont alors considérées comme les supports du développement industriel et économique, des politiques de défense comme la dissuasion nucléaire ou de gestion des populations. L’essor des technosciences participe à la construction du mythe que le progrès sera la réponse à tous les maux.

Le tournant néolibéral des années 1990

Pourtant, dès les années 1990, et en dépit, une fois encore, des déclarations d’intention, les finances accordées aux projets scientifiques et techniques restent très en deçà des attentes. À cette période, de profondes transformations sont opérées. Les politiques néolibérales de Reagan et Thatcher touchent progressivement la France et l’Union européenne à travers une série de réformes des institutions scientifiques et universitaires, dans le cadre du « processus de Bologne ». Celles-ci bouleversent les modalités de gestion de la recherche de la fin des années 1990 aux années 2010.

Parallèlement à la baisse progressive des budgets accordés aux laboratoires et aux unités de recherche, ces réformes valorisent un modèle de recherche sur contrat, souvent de trois ou quatre ans, qui, outre de faire émerger et de consolider la concurrence entre chercheurs et établissements, a pour conséquence de promouvoir l’individualisme et la surenchère de projets de courte durée. Finalement, la compétition scientifique prime sur une réelle politique de la recherche qui, lors de la récente pandémie mondiale, a particulièrement montré ses limites, la France étant incapable de produire un vaccin contre le Covid-19.

Dans ce contexte, l’annonce d’une baisse drastique du budget de la recherche française en 2025 doublée de l’idée, défendue par le président du CNRS d’une « loi vertueuse et darwinienne qui encourage les scientifiques, équipes, laboratoires, établissements les plus performants à l’échelle internationale » constitue une réelle rupture tant avec l’idéal des révolutionnaires de 1793-1794 qu'avec les ambitions des membres du Conseil national de la résistance, réaffirmé en 1954 lors du Colloque de Caen autour de Pierre Mendès-France et défendu, non sans mal, au cours des Trente Glorieuses.

C’est justement parce que les défis actuels (climatologique, environnemental ou médical) obligent à penser de nouvelles formes d’interdisciplinarité que l’État devrait investir massivement dans les sciences et y reprendre un réel pouvoir d’impulsion et de direction.

The Conversation

Jean-Luc Chappey ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

14.04.2025 à 17:39

Tarifs douaniers de Trump : une aubaine économique pour l’Inde

Catherine Bros, Professeur des universités en économie, Université de Tours - LEO, Université de Tours

La guerre douanière peut constituer une aubaine économique pour l’Inde. Spécialisation dans les services, stratégie protectionniste, alternative à la Chine, le pays de Modi devient encore plus incontournable.
Texte intégral (1508 mots)
Le comportement erratique de l’administration états-unienne rend tout partenariat avec l’Inde encore plus désirable pour les Européens, les Africains ou même les Asiatiques. Madhuram Paliwal/Shutterstock

Les droits de douane états-uniens sur les biens indiens passent de 17 % en 2023 à 26 % en 2025. Pourtant, le pays le plus peuplé du monde peut voir dans cette politique agressive des États-Unis une aubaine économique, ce pour trois raisons : sa faible intégration au marché mondial, sa politique d’autonomie stratégique « Atmanirbhar Bharat » et son positionnement d’alternative à la Chine.


Les États-Unis sont le premier client de l’Inde. Ils concentrent 19 % des exportations indiennes. L’Inde s’est considérée comme relativement épargnée par la nouvelle politique douanière américaine dévoilée le 2 avril dernier. Les droits de douane des États-Unis sur les biens indiens passeront de 17 % en 2023, à 26 % en 2025, si le président Trump n’en décale pas une nouvelle fois la prise d’effet…

Ce chiffre de 26 % est bien inférieur aux droits imposés aux autres nations du Sud-Est asiatique, qui, dans une certaine mesure, sont concurrentes de l’industrie indienne. Le Bangladesh, par exemple, se voit imposer des droits de douane à 37 %, le Vietnam 46 % et la Thaïlande 36 %. Certains secteurs clés de l’industrie indienne, comme l’industrie pharmaceutique, sont même exempts de droits supplémentaires. Cette exemption souligne l’importance stratégique des exportations de médicaments génériques de l’Inde vers les États-Unis. Une stratégie douanière à géométrie variable.

L’Inde, qui n’a pas prévu de riposter, a au contraire bon espoir de conclure un accord relativement avantageux grâce aux négociations bilatérales engagées dès février 2025, suite à la visite du premier ministre indien Narendra Modi aux États-Unis.

Réindustrialisation indienne ?

Certains voient dans cette nouvelle politique douanière une occasion pour l’Inde de se réindustrialiser, ce dont elle a grandement besoin pour le développement de son emploi. L’Inde a, au fil des ans, perdu son avantage comparatif dans certains secteurs au profit d’autres pays d’Asie du Sud et du Sud-Est comme le Bangladesh, la Thaïlande ou le Vietnam. Ces derniers font face à des droits de douane plus élevés que l’Inde, et en plus forte augmentation. De quoi susciter un regain de compétitivité pour ces industries indiennes ? Elles nécessiteraient cependant des investissements de long terme.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


La stratégie industrielle indienne a préféré se concentrer sur des secteurs plus avancés technologiquement, en instaurant, au travers du Production Linkes Incentive (PLI) Scheme, des subventions à la création de capacité de production. L’objectif : diminuer sa dépendance aux importations et stimuler ses exportations dans des secteurs prioritaires. Le secteur des semi-conducteurs, par exemple, en a largement bénéficié avec l’espoir, entre autres, de faire de l’Inde un hub manufacturier pour ces produits. Elle espère attirer 27 milliards d’euros d’investissements directs étrangers (IDE). La tâche sera certainement rendue plus ardue par la politique protectionniste états-unienne.

La réindustrialisation indienne doit passer par des réformes réglementaires et des investissements dans les infrastructures. En dépit des substantiels progrès réalisés dans ces domaines, il reste à faire. Dans tous les cas, pour que la politique protectionniste des États-Unis puisse encourager le développement de l’industrie indienne, il lui faudrait être stable ; ce qui ne semble pas être l’orientation première de l’actuelle administration Trump.

Faible intégration au commerce mondial

La participation de l’Inde au commerce mondial des biens est modeste compte tenu de la taille de son économie : la part de marché de l’Inde dans les échanges mondiaux était, en 2023, de 2 %. En dépit d’une balance commerciale de plus en plus excédentaire vis-à-vis des États-Unis, l’Inde a été relativement épargnée par la hausse des droits de douane, en raison, entre autres, de la faible part des importations indiennes (3 %) dans les importations totales américaines.


À lire aussi : L’Inde peut-elle prendre la place de la Chine dans le commerce mondial ?


Son économie, très peu intégrée dans les chaînes de valeur mondiales, sera de facto, moins durement secouée par la nouvelle politique douanière des États-Unis. Si son économie échange peu de biens avec le reste du monde, l’Inde dispose d’un avantage comparatif dans le secteur des services, qui constitue près de la moitié de ses exportations de biens et services. Or, les services sont peu concernés par les droits de douane et restent en dehors du périmètre de la nouvelle politique états-unienne.

Le protectionnisme indien : « Atmanirbhar Bharat »

Le tournant protectionniste des États-Unis peut venir renforcer la conviction du gouvernement indien du bien-fondé d’une faible intégration de son économie dans les échanges mondiaux de biens. L’économie indienne est peu ouverte et sa politique commerciale tend depuis longtemps vers le protectionnisme. Le dernier plan de politique industrielle « Atmanirbhar Bharat » (« Inde autosuffisante ») vise à la fois à la promotion des exportations, mais également à l’autonomie stratégique de l’économie indienne dans bon nombre de secteurs : pharmaceutique, solaire, électronique.

La politique industrielle indienne depuis le programme « Make in India » n’a pas cherché à créer de la croissance par les exportations, mais à attirer les capitaux étrangers pour la création sur le territoire indien de capacités de production à destination, principalement, du marché indien. Les investissements directs étrangers (IDE) ont largement progressé, tout en partant d'un niveau relativement faible : ils étaient à 45,15 milliards de dollars en 2013. En 2022, ils s'élevaient à 83,6 milliards de dollars.

L’Inde plus que jamais courtisée

L’Inde renforce sa position stratégique sur la scène internationale. Son économie attirait déjà les convoitises des investisseurs, grâce à son marché potentiel de 1,4 milliard de consommateurs et son positionnement d’alternative en Asie à la Chine. Le comportement erratique de l’administration Trump rend tout partenariat avec l’Inde encore plus désirable, en particulier pour les Européens.

Nul doute que les pourparlers commerciaux pour un accord entre l’Union européenne et l’Inde, entamés en 2022 et remis sur le devant de la scène par la visite de la présidente de la Commission européenne à New Delhi en février 2025, prendront une autre dimension aux yeux des Européens. L’actuel gouvernement nationaliste indien a considérablement œuvré pour que l’Inde devienne un acteur pivot dans la communauté internationale. Ce rôle de premier plan sur la scène internationale constitue un atout électoral significatif qui devrait renforcer l’influence de Narendra Modi au sein du pays.

The Conversation

Catherine Bros ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

14.04.2025 à 17:38

Devenir propriétaire de son logement : cartographie des (nouveaux) dispositifs

Alexis Laszczuk, Professeur associé de management stratégique, ESSCA School of Management

Et si la crise du logement illustrait l’épuisement de l’alternative propriétaire ou locataire. De nouvelles offres émergent, multipliant les possibilités d’accession à la propriété.
Texte intégral (1782 mots)

Et si la crise du logement illustrait l’épuisement de l’alternative propriétaire ou locataire. De nouvelles offres émergent, multipliant les possibilités d’accession à la propriété.


La crise du logement met en évidence des tensions entre dynamiques économiques et sociales. Bien essentiel, le logement devient un facteur d’inégalités croissantes. La hausse des taux d’intérêt entre mi 2022 et début 2024 a rendu l’accession à la propriété difficile pour de nombreux ménages français.

En 1980, la France comptait 50 % de propriétaires. Aujourd’hui, la proportion atteint 58 % (voir graphique) soit très en dessous de la moyenne européenne de 70 %. L’Angleterre et les États-Unis sont à 65 %. Avec un marché locatif saturé et 2,5 millions de demandes en attente dans le secteur social, les fractures générationnelles, sociales et territoriales se creusent.

De nouveaux modèles

Pour répondre à cette situation, diverses pistes émergent afin de faciliter l’accès à la propriété. Entre innovations et remises au goût du jour de solutions anciennes, des initiatives publiques et privées se multiplient. Cependant, cette offre complexe peut perdre les particuliers, confrontés à des décisions lourdes et chargées émotionnellement.

Cet article décrypte les nouvelles solutions disponibles, analyse leurs propositions de valeur et explore les mécanismes sous-jacents de leurs modèles d’affaires.

Le démembrement de propriété consiste à diviser la propriété en deux. D’un côté, la nue-propriété (ou le droit de disposer du bien, c’est-à-dire qu’il peut vendre ou transmettre le bien, mais ne peut l’utiliser ni en percevoir les fruits comme des loyers) et l’usufruit (droit d’utiliser le bien et d’en percevoir les revenus). Ce mécanisme, utilisé pour l’investissement et la transmission patrimoniale, permet au nu-propriétaire d’acquérir un bien à moindre coût, tandis que l’usufruitier en tire des revenus ou un usage temporaire, avec des avantages fiscaux pour les deux parties.


À lire aussi : Fiscalité, la cause oubliée de la crise du logement


Dans le cadre de l’achat immobilier, ce dispositif permet à un particulier d’acquérir la nue-propriété à un coût réduit, tandis qu’un autre acteur (souvent un bailleur) détient l’usufruit pour une durée définie. Pendant cette période, l’usufruitier perçoit les loyers ou occupe le bien, sans charges pour le nu-propriétaire. À la fin du démembrement, ce dernier récupère la pleine propriété, souvent valorisée. Idéal pour préparer une résidence future ou investir avec une meilleure rentabilité, le démembrement élimine également les contraintes de gestion locative.

Un coût d’accès réduit à la propriété

Une autre piste d’innovation est la dissociation foncier-bâti, qui sépare la propriété du terrain de celle du logement. Dans ce cadre, l’acquéreur devient propriétaire du bâti, tandis que le terrain appartient à une entité publique, privée ou associative, moyennant une redevance modeste. Ce modèle permet de réduire le coût d’accès à la propriété en excluant le foncier souvent très onéreux en zone urbaine, et limite la spéculation immobilière en encadrant la revente du logement par des clauses inscrites dans le bail. Courant au Royaume-Uni, cette solution est adoptée en France par les organismes de foncier solidaire (OFS) via le bail réel solidaire (BRS), garantissant une offre durable de logements abordables.

Un exemple notable est la Foncière de la Ville de Paris, créée pour faciliter l’accès à la propriété des ménages à revenus moyens. La Foncière conserve la propriété des terrains, tandis que les logements construits dessus sont vendus sous le régime du BRS, permettant aux acquéreurs de devenir propriétaires du bâti à des prix maîtrisés, environ 5 000 €/m2, soit la moitié du prix du marché parisien. Les acquéreurs paient une redevance pour l’occupation du terrain, réduisant le coût global et préservant l’accessibilité financière sur le long terme.

Le co-investissement dans le secteur du logement repose sur un principe simple : plusieurs acteurs unissent leurs ressources pour financer des projets immobiliers. Ces acteurs peuvent inclure des institutions publiques, des investisseurs privés, des entreprises ou des particuliers. En mutualisant les fonds et les compétences, ce modèle permet de partager les risques et de réaliser des projets souvent inaccessibles individuellement, tels que la construction de logements sociaux, de résidences étudiantes ou des programmes de rénovation urbaine. Les partenariats public-privé illustrent bien cette approche, combinant fonds publics et privés pour créer des logements abordables.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Accompagnement personnalisé

Dans un contexte de besoins croissants en logements, certains acteurs adaptent le co-investissement à la construction et à la vente de logements à destination des particuliers. Par exemple, Virgil aide les jeunes actifs à accéder à la propriété sans un apport personnel important. L’entreprise finance jusqu’à 25 % du prix d’achat sans exiger de loyers ni de mensualités sur cette part, préservant ainsi la capacité d’emprunt des acquéreurs. En complément, elle propose un accompagnement personnalisé : évaluation du budget, aide à la négociation du prêt, et formalités administratives. Ce soutien global simplifie le parcours immobilier et renforce la confiance des primo-accédants. Virgil se rémunère en récupérant sa mise réévaluée lors de la revente ou du rachat des parts, ainsi qu’une indemnité annuelle de 1 % par tranche de 10 % investie. Son modèle « asset-light » limite le capital immobilisé et diversifie les projets.

Face à la flambée des prix immobiliers et à la faible attractivité de l’investissement locatif, le modèle classique « usage contre loyer » montre ses limites, créant une inadéquation entre valeur d’usage et valeur d’échange. Inspiré du leasing automobile, un modèle hybride émerge, combinant propriété partielle, redevance fixe sur vingt-cinq ans et sécurité d’usage. Ce système veut offrir une alternative accessible et flexible, répondant aux besoins des ménages tout en garantissant des conditions financières attractives aux investisseurs.

Arte, 2024.

La flexipropriété permet un accès progressif à la propriété. L’acquéreur peut acheter une part initiale du bien, par exemple 20 %, tout en disposant de l’usage complet du logement. Le reste est détenu par un investisseur (bailleur social, promoteur ou banque), et l’acquéreur verse une redevance pour la part non possédée. Il peut ensuite racheter progressivement des parts supplémentaires selon ses capacités financières, jusqu’à atteindre la pleine propriété.

Un apport initial limité

Ce dispositif présente plusieurs avantages : il réduit le montant initial nécessaire pour devenir propriétaire, permet d’occuper le logement dès l’achat des premières parts et offre une montée en propriété adaptée aux ressources du ménage. Par exemple, Neoproprio propose un modèle où l’acquéreur finance 50 % du prix du bien et signe un bail emphytéotique de 25 ans, en versant une redevance annuelle réduite. Il occupe le logement comme un propriétaire tout en limitant l’apport initial et les mensualités. À l’issue des 25 ans, il peut lever une option d’achat au prix du marché ou quitter le dispositif avec une partie de la plus-value.

Au travers de ce dispositif, l’entreprise se rémunère grâce à la redevance annuelle versée par l’acquéreur (1,2 % de la valeur du bien) et à une part de la plus-value en cas de revente anticipée. Le modèle repose également sur une marge réalisée lors de l’achat et la gestion des biens via des fonds immobiliers partenaires. Ce mélange d’innovation financière et d’accompagnement personnalisé propose une solution à la fois rentable et adaptée aux besoins des ménages.

Persistance de freins

Plusieurs raisons expliquent que ces modèles d’acquisitions alternatifs soient moins plébiscités que l’achat immobilier classique. D’abord ils sont souvent perçus comme complexes en raison des montages juridiques et financiers qu’ils impliquent, ce qui peut décourager les particuliers. De plus, le manque de connaissance et de compréhension de ces dispositifs, ainsi que la dépendance à des tiers, introduisent des incertitudes supplémentaires. Enfin, ces modèles sont souvent perçus comme plus risqués ou moins sécurisés que l’achat classique, notamment en termes de revente et de valorisation du bien.

En synthèse, nous cartographions ces modèles d’accession à la propriété selon deux dimensions clés pour les particuliers souhaitant acquérir un logement : d’une part, le degré de propriété du bien, qui se situe entre la location et la pleine propriété ; d’autre part, le niveau de régulation exercé par les pouvoirs publics sur ces dispositifs.


Cet article a été rédigé avec Sylvain Bogeat, président de Métropoles 50.

The Conversation

Alexis Laszczuk est membre de Métropoles 50, think tank sur les métropoles, les territoires et leurs transitions.

14.04.2025 à 17:38

Choisir ou être choisi : ce que le sport révèle des logiques sociales à l’adolescence

Raffi Nakas, Chercheur associé au laboratoire ECP (Éducation, Cultures, Politiques), Université Lumière Lyon 2

Dans les cours d’éducation physique et sportive, le travail en équipe fait ressortir affinités ou clivages entre élèves. Ces dynamiques sont loin d’être anecdotiques.
Texte intégral (1750 mots)

Dans les cours d’éducation physique et sportive, les relations entre élèves se retrouvent au centre de la scène. Il suffit d’un travail en équipe pour que des affinités ou des clivages s’expriment. Tel élève est toujours choisi, tel autre peine constamment à se faire une place sur le terrain. Or, ces dynamiques, sous-tendues par des logiques sociales, sont importantes pour l’estime de soi.


Il y a dans les cours de récréation, les salles de classe ou les couloirs des collèges et des lycées, comme une chorégraphie invisible : des regards qui s’évitent ou s’accrochent, des silences parfois lourds de sens. À l’adolescence, les liens se tissent comme des toiles fragiles et mouvantes. Loin d’être le fruit du hasard, ces affinités obéissent à des règles sociales implicites, des logiques de genre, de statut, de performance ou encore d’origine.

Dans ce monde en miniature qu’est l’école, les relations entre adolescents racontent une histoire. Ces dynamiques, souvent jugées anecdotiques, sont en réalité structurantes : elles déterminent l’estime de soi, le sentiment d’appartenance, parfois plus.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


À l’école, une discipline est au cœur des interactions des élèves : c’est l’éducation physique et sportive (EPS). Il suffit en effet d’un travail en équipe et certaines alliances se dévoilent sans fard, des clivages s’expriment, des affinités et des exclusions se matérialisent en direct, visibles de tous. Certains vont être choisis et d’autres pas…

Les regroupements spontanés ou non en EPS (éducation physique et sportive) obéissent à des règles implicites qui méritent d’être décryptées.

Des logiques sexuées dans les espaces sportifs

Dès l’appel, les groupes se dessinent : d’un côté les garçons, souvent agités, compétitifs, de l’autre, les filles soit discrètes soit bavardes, repliées a priori dans un entre-soi rassurant.

À l’adolescence, le corps devient enjeu de regard. L’espace sportif exacerbe cette visibilité. On y est jugé, évalué non seulement sur ses performances, mais sur sa manière d’habiter son corps. La force, la vitesse, l’initiative – souvent perçues comme naturelles chez les garçons – sont valorisées. Les filles, elles, doivent composer avec une attente contradictoire : participer, mais sans excès, se donner à voir, mais sans s’exposer. Souvent, d’ailleurs, les filles ont d’autres objectifs que le gain, la victoire ou la performance en EPS.

Les normes de masculinité et de féminité pèsent sur les affinités : les garçons populaires évitent d’être vus avec des élèves « trop scolaires » ; les filles en rupture s’affichent entre elles, dans une sororité marginale, mais forte.

En pratique, les activités dites « masculines » (football, rugby) cristallisent les attentes viriles. Les filles qui s’y risquent doivent redoubler d’adresse ou d’ironie pour exister sans être moquées. À l’inverse, des garçons qui préfèrent la danse ou l’acrosport doivent se justifier, bricoler une posture de « dérision active » pour ne pas être exclus du cercle viril.

La ségrégation genrée n’est jamais aussi visible qu’en EPS et parfois même renforcée implicitement par les enseignants eux-mêmes avec des injonctions en apparence anodine du style : « allez, les filles, on se dépêche ! »

Le statut scolaire… et performatif

La constitution des groupes en EPS suit des logiques implicites. Les plus à l’aise physiquement se regroupent, dominent l’espace, imposent leur rythme, contestent les règles. Les moins à l’aise cherchent à s’effacer, à se faire oublier dans les marges du terrain, à ne pas exposer leurs lacunes si visibles au moment de marquer le point ou le panier.

Les élèves en difficulté scolaire peuvent retrouver une forme de légitimité dans la performance physique là où les « bons élèves » peuvent parfois être stigmatisés. L’EPS constitue un microcosme social où les hiérarchies habituelles peuvent être bouleversées, redistribuant les cartes du « prestige adolescent ».

Dans les sports collectifs par exemple, le moment de formation des équipes révèle une cartographie impitoyable du tissu relationnel de la classe. Les plus performants sont choisis en premier, dessinant une véritable hiérarchie visible aux yeux de tous. Cette sélection publique peut être vécue comme un rite de passage, particulièrement douloureux pour ceux systématiquement choisis en dernier. Ainsi, là où l’enseignant croit souvent à une forme d’autonomie, il expose en réalité les corps à l’épreuve du choix ou du non-choix : ne pas être choisi, c’est comprendre qu’on ne compte pas vraiment…

Dans le même temps, quand l’élève qu’on n’imaginait pas excellent est reconnu comme légitime, cette reconnaissance crée des ponts temporaires qui transcendent les stéréotypes et ouvrent des brèches dans la ségrégation ordinaire : l’EPS peut donc offrir des espaces de revalorisation pour certains élèves. La popularité se construit à l’intersection de certaines variables, parmi elles, la conformité aux attentes du groupe.

Le filtre de la variable sociale

Les enfants de milieu favorisé ont souvent des réseaux d’amis plus étendus, une capacité plus grande à naviguer dans les codes de la sociabilité scolaire. Ce capital invisible, mais décisif, participe à la socialisation secondaire. Le corps révèle alors les inégalités parfois plus crûment que le langage.

En maîtrisant les codes, en connaissant les règles et les attendus, une asymétrie socialement située se construit. Ces élèves, dont les familles encouragent les pratiques sportives et la performance, ont plus confiance en eux et répondent plus facilement aux attentes scolaires. In fine, ils tissent plus de liens que leurs camarades de milieux plus défavorisés.


À lire aussi : La compétition éloigne-t-elle les filles du sport ?


Par exemple, dans les activités physiques où il faut construire un enchaînement comme l’acrosport ou la danse, les élèves qui ont les codes ont des facilités à créer des collectifs de travail. À l’inverse, ceux qui font du « bruit », qui s’agitent, qui ne répondent pas aux normes de l’école, ont plus de mal dans ce type d’activités à sortir de « leur groupe social ».

On joue, on court, on coopère avec ceux qui nous ressemblent ou plutôt avec ceux qui partagent les mêmes codes. Sous couvert de neutralité, l’EPS prolonge alors une culture où l’espace de travail devient le lieu de reproduction symbolique des inégalités.

L’éducation physique et sportive, un révélateur de mécanismes d’inclusion et d’exclusion

L’adolescence dessine une carte relationnelle en perpétuelle reconfiguration, où s’entrecroisent des influences multiples. Le genre, l’origine sociale, le statut scolaire ne sont pas des variables isolées, mais des forces qui interagissent constamment.

Dans cette géographie mouvante, certains adolescents, comme des explorateurs, traversent différents territoires avec aisance. D’autres, plus sédentaires, construisent leur identité dans des espaces plus circonscrits. Ni l’une ni l’autre de ces stratégies n’est intrinsèquement meilleure, elles répondent à des besoins différents, à des contextes particuliers.


À lire aussi : L’amitié fait-elle toujours du bien aux adolescents ?


L’EPS, par sa dimension corporelle et émotionnelle, agit comme un révélateur puissant des mécanismes d’inclusion et d’exclusion à l’œuvre dans le monde adolescent. Elle offre également, par son caractère collectif, des opportunités uniques de tisser des liens transcendant les frontières habituelles des groupes d’affinités. En effet, en modulant les groupes et les objectifs, l’enseignant d’EPS peut aussi contribuer à faire travailler tous les élèves ensemble.

Il suffit souvent de dissocier le jeu de l’enjeu, de mettre en avant d’autres logiques que la victoire ou la performance pour permettre aux élèves de découvrir d’autres modalités de pratique comme l’empathie ou l’entraide et désacraliser en conséquence le fait de ne pas être choisi ou d’être choisi en dernier.

The Conversation

Raffi Nakas ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

14.04.2025 à 17:36

« Make Religion Great Again » : la place de la religion dans l’État trumpien

Laurie Boussaguet, Professeure des Universités en science politique, European University Institute, chercheure associée, Sciences Po

Florence Faucher, Professeure de sciences politiques (Centre d’études européennes), Sciences Po

Donald Trump a créé au sein de la Maison Blanche un «&nbsp;bureau de la foi&nbsp;». Aussi surprenant que soit ce décret, il est passé inaperçu.
Texte intégral (2223 mots)
Photo postée par la Maison Blanche, le 8&nbsp;février 2025, annonçant la création du Bureau de la foi, avec à sa tête la télévangéliste Paula&nbsp;White-Cain (en blanc, à droite). Compte X de la Maison Blanche

Le 7 février dernier, Donald Trump a créé au sein de la Maison Blanche un « bureau de la foi », chargé de renforcer la place de la religion aux États-Unis. Que signifie la création de cette nouvelle instance, et que dit-elle de l’administration Trump 2 ?


Depuis sa prise de fonctions, Donald Trump multiplie les annonces et signe des décrets à tour de bras. Lorsque le président des États-Unis prend des décisions, la mise en scène est toujours très soignée, comme le 20 mars dernier quand la Maison Blanche a été transformée en salle de classe pour la signature du décret visant à éliminer le ministère de l’éducation ou, début février, quand le chef de l’État s’est entouré de jeunes femmes et de fillettes au moment de promulguer le décret de « protection du sport féminin » contre les sportives transgenres. Autant de séances photos que les médias ne manquent jamais de relayer, soulignant la dimension « symbolique » des décisions du président.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Toutefois, et contrairement au sens commun qui assimile souvent le symbolique à une communication dépourvue d’effets concrets, ces politiques visent à transformer en profondeur l’État et la société. C’est tout particulièrement le cas en ce qui concerne la politique religieuse de la nouvelle administration, avec la création à la Maison Blanche d’un « bureau de la foi » (White House Faith Office (WHFO)), chargé de faire des recommandations au président et de consulter sur diverses questions des leaders religieux, qui a autorité sur l’octroi de subventions publiques aux institutions religieuses développant des activités sociales d’aide aux plus démunis.

Or, ces mesures sont passées quasi inaperçues dans les grands médias. À qui cette politique religieuse s’adresse-t-elle exactement ? Et pourquoi n’en a-t-on que très peu entendu parler ?

Deux discours fondateurs

Les 6 et 7 février 2025, deux semaines à peine après son retour à la Maison Blanche, Trump enchaîne les discours sur des thèmes religieux, accordant une grande place au christianisme conservateur, à ses chantres et à sa vision du monde. Le nouveau président mobilise à cette occasion de nombreux symboles (gestes, images, récits, citations des textes sacrés) facilement reconnaissables par une société états-unienne qui fréquente assidûment les églises.

La séquence s’ouvre, le 6 février 2025, par un premier discours de Trump lors du National Prayer Breakfast, qui se tient tous les ans au Capitole. Proclamant que « l’Amérique est et sera toujours une nation sous le regard de Dieu », il multiplie les références à des figures historiques des États-Unis n’ayant pas eu peur d’affirmer leur foi, notamment George Washington, « qui appelait souvent les Américains à se rassembler pour prier », et le « grand Roger Williams, qui a créé l’État de Rhode Island et nommé sa capitale Providence, et qui a construit la première église baptiste en Amérique ».

Répétant à plusieurs reprises la formule « Bring religion back » (« Faire revenir la religion »), Trump se présente en restaurateur de la tradition religieuse historique spécifique aux États-Unis.

Enfin, en écho à son discours d’investiture du 20 janvier 2025, quand il déclarait avoir été « sauvé par Dieu », lors de la tentative d’assassinat dont il avait été la cible le 13 juillet dernier, il annonce que cet épisode a été pour lui une épiphanie :

« Ça a changé quelque chose en moi… quelque chose s’est produit. »

Un tel récit fait écho aux récits de « renaissance », caractéristiques de l’imaginaire religieux des chrétiens évangéliques, et rapproche Trump des communautés conservatrices qui sont attentives à toute déclaration d’un renouvellement de la foi ; il se présente ainsi comme l’un d’eux, et non plus seulement comme un de leurs alliés politiques.

Le même jour, Trump prononce un second discours, lors d’un National Prayer Breakfast alternatif, organisé à l’hôtel Hilton de Washington. Il s’agit en fait du lieu originel où se tenait le NPB, mais il a été décidé en 2023 de déplacer l’événement au Capitole pour contester la trop grande emprise des chrétiens conservateurs sur la Maison Blanche et le Congrès.

L’organisation conservatrice à l’origine de cette tradition continue toutefois de maintenir l’événement au Hilton. Face à ce public très conservateur, Trump adopte un ton plus partisan : il se félicite d’avoir « éliminé le wokisme » au cours des deux semaines écoulées et annonce la prochaine création d’un « bureau de la foi » à la Maison Blanche.

Le décret instituant le Bureau de la foi : texte et image

Quelques heures plus tard, il signe un décret qui crée un groupe de travail visant à mettre fin aux mesures « antichrétiennes » de l’administration Biden, telles que les poursuites pénales par le ministère de la justice visant des personnes ayant bloqué l’accès aux cliniques pratiquant des avortements.

Ce décret, qui évoque implicitement la persécution des chrétiens sous l’Empire romain, introduit une équivalence entre leur sort et l’expérience vécue par les communautés évangéliques aux États-Unis. Ce narratif puissant construit une image déformée de la réalité, selon laquelle les chrétiens seraient une minorité opprimée, alors que près des deux tiers des habitants des États-Unis se réclament du christianisme et que des décennies de politiques publiques ont visé à limiter les discriminations à l’égard d’autres groupes sociaux.

Le lendemain, 7 février 2025, est signé le décret présidentiel qui instaure le Bureau de la foi de la Maison Blanche (acronyme en anglais, WHFO). Les gestes symboliques accompagnant cette décision sont nombreux, à commencer par le choix de la dénomination de cette nouvelle structure. Alors que ses versions précédentes s’appelaient « Bureau des initiatives confessionnelles et communautaires » (sous G. W. Bush, au moment de sa création) ou « Bureau des partenariats confessionnels et de quartier » (sous Obama), le bureau est désormais exclusivement celui de la foi. Or, la foi est caractéristique du christianisme alors que d’autres religions parlent simplement de croyances et insistent sur la pratique religieuse ou l’appartenance à une communauté.

Par ailleurs, si l’octroi de subventions publiques à des institutions privées, notamment religieuses, n’est pas nouveau, l’élimination de la référence aux communautés ou aux quartiers l’est, ce qui focalise l’attention sur la seule dimension religieuse. Ce nouveau bureau est également investi d’une mission de conseil auprès de la Maison Blanche, donnant aux chrétiens conservateurs une voie d’accès privilégiée au président et à son équipe.

La désignation des membres du nouveau WHFO est en outre significative : c’est la télévangéliste Paula White-Cain qui le dirige. Conseillère spirituelle de Trump de longue date et fervente opposante des politiques antidiscriminatoires, elle a œuvré dès son premier mandat au rapprochement de la Maison Blanche avec de nombreux groupes confessionnels évangéliques.

Enfin, la photo officielle accompagnant l’annonce de la signature de ce nouveau décret sur les réseaux sociaux de la Maison Blanche (voir en tête du présent article) peut être lue comme une image religieuse de facture très classique.

On y voit Trump au centre, assis à son bureau et entouré de plusieurs personnes en train de prier. Les figurants sont des pasteurs et prédicateurs évangéliques, dont des conseillers de son premier mandat. Certains ont apposé leurs mains sur le président ou les étendent dans sa direction, d’autres les ouvrent vers le ciel, d’autres encore les tiennent dans un geste de recueillement, et tous ont le regard et la tête baissés. La mise en scène est efficace et le message explicite : Trump est le héros qui va permettre le retour de la foi chrétienne au cœur de l’État.

On ne peut pas douter des intentions de Trump, martelées tout au long de la campagne présidentielle. Il affirmait devoir « sauver la religion dans ce pays » et n’hésitait pas à dépeindre l’élection comme une guerre sainte opposant la figure de proue de la chrétienté (lui-même) à la supposément antichrétienne Kamala Harris, qui est pourtant baptiste.

Bien sûr, la création du WHFO, en sa qualité de décision fédérale, concerne l’ensemble du pays. Mais elle répond plus particulièrement aux attentes des communautés religieuses qui ont largement voté pour Trump – 72 % des chrétiens blancs lui ont en effet donné leur voix, et le taux s’élève à 81 % chez les électeurs évangéliques et pentecôtistes. Rien de surprenant donc à ce qu’il adopte le point de vue et le programme de ces chrétiens qui l’ont porté au pouvoir. Sa politique religieuse est une récompense à leur soutien.

Une mesure insuffisamment remarquée

Le relatif désintérêt que l’instauration du Bureau de la foi de la Maison Blanche a suscité dans le débat public est frappant. Si les médias confessionnels ont relayé l’information, peu de médias généralistes s’en sont saisis, comme si cette information, noyée dans le flot d’annonces spectaculaires de la nouvelle administration, n’était finalement qu’un signal adressé à son électorat, une mesure « symbolique » aux effets négligeables.

Or, cette politique est significative et transformatrice. Elle institutionnalise la présence des religieux conservateurs au sein du gouvernement fédéral. Elle s’appuie sur des pratiques symboliques empruntées au répertoire évangélique. Elle remet en question la séparation de l’Église et de l’État aux États-Unis. Et elle révèle que le pouvoir entend désormais tirer sa légitimité du soutien privilégié d’une communauté identifiée, plutôt que des procédures démocratiques.

En somme, elle modifie le régime politique, à commencer par la neutralité confessionnelle, et impose des représentations collectives sur les pratiques appropriées à adopter, qui ne seront pas sans impact sur la vie quotidienne des citoyens américains.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

14.04.2025 à 17:35

Quel serait le « bon moment » pour changer de Constitution ?

Carolina Cerda-Guzman, Maîtresse de conférences en droit public, Université de Bordeaux

En France, tous les changements de Constitution eurent lieu après des crises majeures&nbsp;: guerres, révolutions ou coups d’État. Mais sommes-nous condamnés à réécrire le texte constitutionnel dans le tumulte&nbsp;?
Texte intégral (2295 mots)

En France, depuis 1789, tous les changements de Constitution eurent lieu après des crises majeures : guerres, révolutions ou coups d’État. Mais sommes-nous condamnés à réécrire le texte constitutionnel dans le tumulte ? L’exemple du Chili, qui a mené un processus constituant entre 2019 et 2023, permet de dépasser certaines idées reçues.


Depuis la dissolution de l’Assemblée nationale, le 9 juin 2024, la Ve République française traverse une période de forte instabilité. En 2024, quatre premiers ministres différents se sont succédé : Élisabeth Borne, Gabriel Attal, Michel Barnier, puis François Bayrou. Une première depuis 1958. Pourtant, cette République est fondée sur une Constitution que l’on présente souvent comme le cadre idéal pour garantir la stabilité du pouvoir exécutif. Si le texte qui fonde les institutions n’est plus à même d’assurer cette stabilité, se pose alors une question redoutable : faut-il envisager un changement de Constitution, et ce, dès maintenant ? Plusieurs éléments rationnels plaident pour ce changement et des modalités concrètes pour y procéder ont été formulées.

Face à cette hypothèse un argument revient pourtant de manière récurrente : le moment du changement n’est pas encore là, car les Constitutions sont des textes que l’on ne change qu’en cas de crise grave, lorsqu’il n’y a pas d’autre issue, lorsque les institutions sont paralysées. Ainsi, le « bon moment » pour changer de Constitution serait nécessairement une période troublée. Sommes-nous vraiment condamnés à écrire des Constitutions dans le tumulte ?

Les biais de l’histoire constitutionnelle française

Cette tendance à associer chaos et rédaction d’une nouvelle Constitution résulte en grande partie de l’histoire constitutionnelle de la France. Il faut reconnaître que sur ce point la France dispose d’une expérience particulièrement riche. Depuis la Révolution, il y a eu au moins 15 textes constitutionnels différents (16 si l’on ajoute les actes constitutionnels adoptés sous Vichy entre le 11 juillet 1940 et le 26 novembre 1942). En comparaison, les États-Unis d’Amérique n’en ont connu qu’une : celle rédigée par la Convention de Philadelphie en 1787. Certes, ce texte a été enrichi de 27 amendements, mais la Constitution française, née en 1958, en est déjà à sa 25ᵉ révision (la dernière en date étant celle du 8 mars 2024, relative à la liberté de recourir à l’interruption volontaire de grossesse).


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Or, que nous apprend cette foisonnante histoire constitutionnelle française ? Que les changements de Constitution arrivent généralement dans trois hypothèses majeures : soit en cas de révolution (les Constitutions de 1791, 1793, 1795, 1830 ou 1848 en sont des exemples), soit en cas de coups d’État (les Constitutions de 1799 ou de 1852 en attestent), soit après une défaite militaire et après la Libération (les Constitutions de 1814, 1875, de Vichy, puis celle du gouvernement provisoire de 1945 sont nées de ces contextes). L’actuelle Constitution est, quant à elle, née après un putsch militaire à Alger en mai 1958.

Ainsi, on tend à considérer que toute bascule constitutionnelle ne peut s’opérer que dans le cadre d’une crise majeure et existentielle, qui conduit à réassigner la source du pouvoir. C’est lorsque le pouvoir passe du monarque au peuple ou du peuple à un nouvel homme (plus ou moins providentiel) que l’on rédige une nouvelle Constitution. Le passé constitutionnel français empêche d’imaginer un changement constitutionnel apaisé, respectueux du cadre démocratique et du droit, où régneraient le dialogue et la concorde.

Les leçons issues des expériences étrangères

Si l’on prend l’Histoire comme une loi implacable, vouée à se répéter éternellement, cela impliquerait que, si un jour, l’on devait changer de Constitution, ceci ne pourrait se faire qu’au prix d’une rupture avec le droit en place. Dit autrement, la naissance d’une VIe République supposerait une violation du cadre établi par la Ve République. Or, il y a quelque chose de perturbant à se dire que, pour aboutir à un meilleur régime démocratique, l’on soit obligé de passer par un non-respect du droit existant. Non seulement, c’est problématique lorsque l’on est attaché au respect du droit et à la démocratie, mais c’est aussi fâcheux sur un plan plus utilitariste. L’illégalité de la naissance peut entacher durablement le texte, et donc constituer un handicap pour sa légitimité. Mais, en réalité, le plus gênant est qu’il n’existe nullement une telle fatalité en droit constitutionnel.

Toute constitution ne naît pas nécessairement du viol de la constitution qui l’a précédée et il est tout à fait possible de penser un changement constitutionnel respectueux du droit existant. De fait, il existe des pays où le texte constitutionnel anticipe déjà le processus à suivre. En effet, il arrive que des textes constitutionnels mentionnent les étapes à respecter pour un changement complet de Constitution et distinguent ainsi une révision partielle (changement de certains articles) d’une révision totale (changement complet du texte) de la Constitution. C’est le cas, par exemple, de la Suisse (articles 193 et 194), de l’Espagne (article 168) ou de l’Autriche (article 44). Ainsi, selon ces textes, il n’est pas nécessaire d’attendre que les institutions s’effondrent pour les rebâtir.

Ce que nous enseigne l’exemple chilien

Le raffinement des techniques d’élaboration des Constitutions tout au long du XXe siècle permet d’envisager un dépassement de l’histoire constitutionnelle française et de rejeter l’idée que les changements constitutionnels ne peuvent naître que dans des moments de crise existentielle.

Toutefois, il est certain que, pour que la bascule s’opère, une force favorable au changement constitutionnel est nécessaire. Il faut que cette force prenne corps et s’exprime à l’occasion d’un événement social, politique ou économique. Ainsi, si le changement de Constitution n’exige pas un effondrement du système, un événement nécessairement perturbateur doit le déclencher. Celui-ci peut être grave et destructeur, mais il peut être aussi plus minime.

Dans son essai Sortir de la Ve. Pour une fabrique citoyenne de la constitution, (éditions du Détour, décembre 2024), la juriste Carolina Cerda-Guzman propose des pistes pour une nouvelle Constitution plus inclusive et plus démocratique. CC BY

Pour ne prendre qu’un exemple, le Chili, celui-ci a connu un processus constituant entre 2019 et 2023. Ce processus débute par l’annonce d’une nouvelle hausse du prix du ticket dans la capitale. Très rapidement, les rues de Santiago se sont noircies de manifestants. Au moment où la demande d’un changement de Constitution est exprimée par la rue, les institutions chiliennes n’étaient ni bloquées ni paralysées. Il n’y avait même pas de crise politique majeure à cet instant. La hausse du prix du ticket de métro a été en réalité une étincelle, qui a constitué un point de focalisation d’un mécontentement plus profond, et a mis en mouvement une force favorable au changement constitutionnel.

Les manifestants se sont alors spontanément assemblés en « cabildos », qui est le nom donné au Chili à toute réunion de citoyennes et de citoyens traitant de questions d’intérêt commun. La reprise en main par la citoyenneté de la discussion constitutionnelle a contraint les partis politiques, puis l’exécutif, à enclencher un processus de changement de constitution participatif. Pour ce faire, une procédure en forme de sablier a été mise en place. L’idée étant que la participation populaire soit la plus large possible en début et en fin de processus mais qu’au milieu, donc lors de la rédaction du texte à proprement parler, la tâche soit confiée à un groupe plus restreint d’individus.

Ainsi, le processus a officiellement débuté par un référendum invitant le corps électoral à confirmer son souhait de changer de Constitution. Puis, une Assemblée constituante a été élue, composée à égalité de femmes et d’hommes (une première dans l’histoire mondiale), chargée de rédiger le projet de Constitution.

Enfin, ce texte fut soumis à un référendum pour approbation. Dans la mesure où le processus chilien s’est soldé, le 4 septembre 2022, par un rejet du texte, il ne peut être un exemple à suivre à la lettre. Pour autant, il prouve que la discussion constitutionnelle peut surgir à tout moment.

En France, nul ne sait quel sera cet élément déclencheur ni quand il adviendra. Il peut avoir lieu demain, dans quelques mois voire des années. Pour autant, plusieurs événements (la crise des gilets jaunes en 2018, les mouvements sociaux contre la réforme des retraites en 2019‑2020 puis en 2023, les émeutes et violences urbaines de juin 2023, le mouvement des agriculteurs en janvier 2024, ou même, avant eux, Nuit debout en 2016 ou le mouvement des bonnets rouges en 2013) laissent à penser qu’il peut survenir à tout moment. Si chercher à l’anticiper est vain, il est tout aussi faux de penser qu’il existe un « bon moment » pour changer de Constitution.

Le « moment constituant » n’est jamais bon ou mauvais en soi, il advient ou n’advient pas. Surtout, il ne naît pas nécessairement de la volonté d’un homme providentiel ou à la suite de l’effondrement d’un système, il peut naître de la demande, certes contestataire, mais raisonnée de citoyennes et de citoyens.

The Conversation

CERDA-GUZMAN Carolina est membre du conseil d'administration de l'Association française de droit constitutionnel.

14.04.2025 à 17:35

Pollution, environnement : la résilience de nos cellules menacée, un risque de mauvaise santé

Christian Neri, Directeur de Recherches INSERM, Inserm

Divers mécanismes protègent nos cellules des stress variés qu’elles subissent, nous prémunissant des maladies. Toutefois, divers indices semblent indiquer que ces capacités de résistance pourraient être menacées.
Texte intégral (2444 mots)

Divers mécanismes protègent nos cellules des stress variés qu’elles subissent, nous prémunissant des maladies. Toutefois, divers indices semblent indiquer que ces capacités de résistance pourraient être menacées.


Toutes les cellules des êtres vivants sont dotées de mécanismes de compensation qui leur permettent de s’adapter au stress. Ce dernier peut être soit inhérent au fonctionnement normal des organismes vivants (en fonctionnant, les cellules peuvent produire des substances délétères pour elles-mêmes), soit induit par l’exposition à des facteurs environnementaux (stress aigus résultant de traumas ou d’infections, stress chroniques dus à la pollution, aux températures extrêmes, à des relations sociales délétères…).

Cette compensation cellulaire, en garantissant la résilience des tissus, constitue l’assurance de notre capacité à nous prémunir des maladies. Le vieillissement se traduit par une érosion des capacités de compensation et de résilience de nos cellules.

Or, notre environnement, lorsqu’il est dégradé par les pratiques industrielles, atteint l’intégrité de ce mécanisme au même titre que le vieillissement, ce qui peut nous fragiliser avant l’heure. Cet amoindrissement est un danger de vie en mauvaise santé. Se saisir du problème passe par la conscientisation du mécanisme qui est à la racine de cet amoindrissement.

Qu’est-ce que la résilience ?

Le concept de résilience recouvre les capacités à surmonter les altérations provoquées par des éléments perturbateurs dans des situations variées.

Une forme bien connue de résilience concerne la récupération après un stress particulièrement agressif, comme la résilience psychologique mise en lumière par le neuropsychiatre Boris Cyrulnik. Issu de la physique, le concept de résilience traverse désormais de nombreuses disciplines, de l’économie à la psychologie en passant par l’écologie ou l’informatique. On parle aujourd’hui de la résilience des systèmes logistiques (eau, énergie, transport) ou des systèmes de santé.

Mais la résilience ne concerne pas que « l’après-crise », c’est aussi les capacités à surmonter le stress qui affecte un système ou un individu de manière discrète, voire silencieuse, avant la survenue du pire.

Stress et résilience du vivant

Le vivant est en permanence confronté au stress cellulaire. La réponse au stress cellulaire (notamment lors du développement et de la reproduction) est un garant d’adaptation et d’expansion d’une population donnée.

Un stress faible peut stimuler la longévité des cellules. Cependant, un stress excessif, par exemple sous l’effet de facteurs environnementaux, peut éroder les capacités de résilience cellulaire. Or, l’érosion de ces capacités est au centre du vieillissement des tissus. C’est un risque « corps entier », car les organes communiquent entre eux. Par exemple, le microbiote intestinal communique avec le cerveau et son altération peut être préjudiciable au cerveau. C’est un risque « vie entière », car la réussite de la réponse au stress cellulaire traite des phases critiques de l’existence comme la reproduction (taux de natalité), la grossesse (santé du fœtus) ou le développement de l’enfant.

Penser la résilience du corps sous l’angle de la récupération, une fois le pire survenu, c’est sous-estimer le préjudice que les pratiques industrielles et les pollutions air-sol-eau-aliments font encourir à notre santé. C’est enfermer toujours plus d’individus dans la perspective d’une mauvaise santé dont l’échéance est incertaine, mais qui surviendra trop tôt et trop fort.

En revanche, penser la résilience du corps comme un mécanisme toujours à l’œuvre, c’est pouvoir lutter contre ce qui empêche nos tissus d’être résilients, c’est pouvoir améliorer la précaution et la prévention.

Les mécanismes de résilience cellulaire

Ces mécanismes ne sont pas seulement ceux qui nous protègent contre les infections (comme l’immunité, par exemple).

Il s’agit aussi des mécanismes d’intégrité cellulaire, par exemple la réparation de l’ADN – dont l’altération présente un risque de division anarchique des cellules et de cancer, d’élimination des protéines présentant des défauts de fabrication ou abîmées par l’oxydation naturelle des tissus –, ou bien il peut s’agir de la production d’énergie nécessaire au fonctionnement des cellules, par exemple dans les mitochondries.

Ces mécanismes sont cruciaux dans les cellules qui ne se renouvellent pas, ou peu, comme les neurones du cerveau et du système nerveux central. Leur échec va sans doute de pair avec la transition des stades légers à sévères des maladies. Par exemple, la progression de la maladie de Huntington est marquée par la transition d’une phase de « compensation fonctionnelle » vers une phase de « décompensation », avec des mécanismes de résilience cellulaire qui ne parviennent plus à compenser les dommages neuronaux, un modèle qui vaudrait aussi pour la maladie d’Alzheimer.

Mais ce n’est pas tout : les mécanismes de résilience cellulaire sont au centre du vieillissement des tissus.

Au cours des trente dernières années, au moins douze caractéristiques du vieillissement ont été identifiées, dont certaines traitent directement des mécanismes de résilience cellulaire, comme la réduction de la fonction des mitochondries ou de l’autophagie (élimination des déchets intracellulaires), l’altération de l’intégrité de l’ADN et des protéines, et l’augmentation de la sénescence cellulaire, dans un modèle où le vieillissement serait principalement dû à une accumulation de mutations génétiques, accompagnée par une érosion épigénétique.

Il existe donc un solide faisceau de présomptions pour penser que ces mécanismes s’opposent aux effets du vieillissement et à la survenue des maladies chroniques.

La résilience cellulaire mise en péril

L’affaiblissement avant l’heure de la compensation cellulaire s’oppose aux bénéfices que l’on s’attend à voir découler de l’adoption d’une « bonne » hygiène de vie visant à réduire la charge de morbidité en agissant sur des facteurs de risques dits « modifiables », tels que l’alimentation, la sédentarité, les addictions, les lieux de vie, l’hygiène au travail, ou encore l’isolement social.

À ce titre, toute perturbation des mécanismes de résilience cellulaire par les polluants, directement (par exemple en altérant la réparation de l’ADN, l’autophagie), ou indirectement (par exemple en favorisant des mutations dans l’ADN est un risque de vie en mauvaise santé à plus ou moins brève échéance.

Au vu de l’étendue et de la gravité du problème (comme, par exemple, dans le cas des PFAS en Europe et aux États-Unis), il s’agit aussi d’un risque de « manque à gagner » systémique pour la société.

Dans un tel contexte, éviter que les pratiques industrielles érodent toujours plus nos capacités de résilience cellulaire est une responsabilité qui oblige tous les acteurs concernés, et cette responsabilité est proportionnelle à la puissance des acteurs. Mais comment prendre en compte ce risque majeur ?

Mesurer la résilience

À l’heure actuelle, on estime la résilience individuelle contre la survenue ou la progression d’une maladie à partir du poids, plus ou moins important selon les personnes, des facteurs de susceptibilité. Ceux-ci ne sont pas biologiques stricto sensu, mais souvent comportementaux (tabagisme, alcoolisme), conjoncturels (proximité d’une usine, solitude) ou socioprofessionnels (revenus, mobilité). Cependant, l’absence d’un facteur de susceptibilité ne signifie pas forcément que l’on soit résilient.

Intégrer les facteurs de résilience cellulaire en plus des facteurs de susceptibilité lorsqu’il s’agit d’évaluer le risque de vie en mauvaise santé pourrait fournir des modèles de prédiction plus robustes. Mais il faut pour cela disposer de marqueurs fiables de la résistance cellulaire, ce qui n’est pas chose aisée.

Les marqueurs les plus précis sont souvent des marqueurs biologiques (biomarqueurs). Idéalement, ils sont simples à mesurer (par exemple dans le sang ou les urines). Un biomarqueur de résilience doit rendre compte de l’état d’un mécanisme de compensation ou de l’intégrité d’un élément essentiel des cellules.

Il en existe relativement peu à ce jour, et la mise au point d’un nouveau biomarqueur est coûteuse. Elle repose notamment sur des données collectées sur le temps long, grâce à des cohortes de grande taille, comme par exemple Inchianti, Constances ou le UK Brains Bank Network.

Actuellement, l’oxydation de l’ADN, un marqueur indirect de l’intégrité de cette molécule essentielle,est l’un des biomarqueurs potentiels à l’étude. Dans ce contexte, de nouveaux outils sont explorés, par exemple les horloges épigénétiques, dont un pionnier est le chercheur Steve Horvath aux États-Unis.

Cet outil détecte certaines modifications chimiques de l’ADN (les méthylations, autrement dit l’ajout d’un groupement méthyle sur certaines parties de la molécule d’ADN) pour mesurer un « âge épigénétique ». Celui-ci, qui témoigne du vieillissement des tissus, est en quelque sorte un âge « biologique », et peut différer de l’âge chronologique.

Il est important de souligner que cet outil ne permet pas encore de mesurer l’âge biologique de tout le monde : il n’est pas validé pour cela, étant encore au stade des recherches.

Changer de paradigme

L’enjeu, aujourd’hui, est de réduire les maladies chroniques de façon globale, et de sortir des réponses ponctuelles. Or, le modèle actuel, focalisé sur les « maladies avérées », limite la portée de la prévention et l’anticipation des coûts sociétaux. En effet, les coûts cachés sont sous-évalués, voire ignorés.

Mettre au centre des réflexions sur la prévention la mise en péril d’un mécanisme fondamental de vie en bonne santé (nos capacités cellulaires à nous prémunir des maladies) pourrait constituer un vecteur de transformation des politiques de santé publique.

Les données scientifiques qui justifient cette mutation s’accumulent, y compris des données épidémiologiques à forte granularité géographique (celles-ci ont notamment été mises en lumière ces dernières années par diverses enquêtes menées par certains journalistes d’investigation).

Cette nécessaire transformation est cependant entravée de diverses manières (monopoles, lobbying industriel, accords bilatéraux, désinformation, manipulations des études, relégation au second plan des questions de santé, priorités budgétaires, ou encore sous-dimensionnement des acteurs de la vigilance…). Ces obstacles limitent notre capacité à adopter une politique santé-responsable, alors même que le dépassement des capacités de résilience cellulaire pourrait s’inscrire dans un modèle de risques « en chaîne », les pollutions chimiques s’accompagnant d’une santé figée à un niveau médiocre, résultant en des coûts systémiques accrus.

The Conversation

Christian Neri a reçu des financements de l'ANR, de CNRS Innovation, et de fondations (FRM, Association Huntington France, Hereditary Disease Foundation, Fondation CHDI). Christian Neri est membre du bureau de sociétés savantes en France (Président de la FSEV) et à l'étranger (ISEV).

14.04.2025 à 17:34

Que sont les GPU, cette technologie à laquelle on doit l’essor des jeux vidéo et de l’IA ?

Jonathan Rouzaud-Cornabas, Maître de conférences au Laboratoire d'informatique en image et systèmes d'information, INSA Lyon – Université de Lyon

Les GPU ont permis l’explosion des jeux vidéo dans les années&nbsp;1990 puis de l’IA depuis vingt&nbsp;ans. Ils permettent de faire certains calculs plus rapidement que les processeurs classiques.
Texte intégral (1939 mots)

Les GPU ont permis l’explosion des jeux vidéos dans les années 1990 puis de l’IA depuis vingt ans. Ils permettent de faire certains calculs plus rapidement que les processeurs classiques.


Les progrès massifs dans le domaine de l’intelligence artificielle doivent beaucoup à un type de composant informatique, les GPU, pour graphical processing unit – à tel point que l’on considère aujourd’hui Nvidia, le plus grand concepteur de GPU au monde, comme un acteur clef du marché de l’IA avec l’une des capitalisation boursière la plus élevée de tous les temps. Revers de la médaille, ses actions en bourse ont dévissé quand une entreprise chinoise, DeepSeek, a annoncé pouvoir faire des calculs avec moins de GPU que ses concurrents.

Les GPU ont émergé dans les années 80, avant d’exploser avec le marché des jeux vidéo. Si on trouve aujourd’hui un GPU dans de nombreux ordinateurs personnels et surtout dans les consoles de jeux, il faut des dizaines de milliers de GPU pour faire tourner les plus gros systèmes d’IA dans des fermes de calculs dédiées.

Le marché des GPU est très concentré, tant au niveau de la conception, de la fabrication et de la fourniture (le nombre de GPU produits étant très largement inférieur à la demande), qu’au niveau de l’hébergement (ces fermes nécessitant une expertise rare). Ils sont donc devenu un enjeu géostratégique – avec des investissements en centaines de milliards aussi bien aux USA qu’en France, mais aussi un conflit commercial majeur entre les États-Unis et la Chine.

Qu’est-ce qu’un GPU ?

Les GPU existent depuis le début des années 80 ; mais leurs principes fondamentaux datent des années 60, quand les « processeurs vectoriels » ont émergé. Ceux-ci ont été conçus pour traiter de grands tableaux de données (un tableau à une dimension s’appelle un vecteur, d’où le nom de « processeurs vectoriels ») et appliquer sur chaque élément du tableau la même opération, par exemple additionner les éléments d’un tableau deux à deux.

La puissance des processeurs vectoriels réside dans le fait qu’ils sont capables d’appliquer en même temps une opération sur plusieurs éléments, alors que les processeurs classiques de votre ordinateur, également appelés « processeurs scalaires », n’appliquent les opérations que sur un seul élément à la fois. Pour additionner deux tableaux de 32 cases, un processeur vectoriel traitera les 32 éléments en une seule fois, alors qu’un processeur scalaire classique un seul élément à la fois. Le nombre d’éléments qu’un processeur vectoriel peut traiter en parallèle est variable d’une génération de processeurs à l’autre.

Ceci étant, les problèmes que doivent résoudre les ordinateurs consistent rarement à effectuer la même opération sur tous les éléments d’un grand tableau, en dehors de cas bien particuliers… dont les jeux vidéos, et une grande partie des systèmes d’IA justement !


Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


GPU et jeux vidéos

Pour faire tourner un jeu vidéo moderne haut de gamme sur un ordinateur ou sur une console, il faut être capable d’afficher 60 images par seconde en haute résolution 4K. Une image 4K est un rectangle (une matrice) de 3840 pixels de haut par 2160 pixels de large. Pour chaque pixel, il faut 3 valeurs (rouge, vert et bleu) pour pouvoir représenter la palette de couleurs. Par conséquent, il faut calculer et mettre à jour 1 492 992 000 pixels par seconde. Pour faire tourner des jeux vidéo, les GPU ont donc repris les principes des processeurs vectoriels.

Dans le courant des années 1980 et 1990, la démocratisation de l’informatique et des jeux vidéos a fait exploser le marché des GPU. Avec leur démocratisation, leur coût a énormément baissé, à une époque où les gros ordinateurs (supercalculateurs) étaient très chers et complexes.

Par conséquent, les chercheurs ont cherché à détourner ces GPU conçu pour le jeu vidéo pour faire d’autres types d’opérations qui leur étaient utiles pour leur recherche. En effet, à performance égale, les GPU avaient (et ont toujours) un coût largement inférieur aux CPU.


À lire aussi : Prix Nobel de chimie 2024 : design des protéines et prédiction de leurs structures, deux facettes d’une même médaille


Un des premiers cas d’utilisation de ces GPU, en 2004, venait de la communauté d’algèbre linéaire, qui utilisait déjà du calcul vectoriel et a pu adapter ses méthodes à ce nouveau matériel. Il faut savoir que l’algèbre linéaire, qui est utilisée pour simplifier la résolution d’équations, est à la base de beaucoup de programmes simulant différents processus réels, depuis le Big Bang jusqu’à la météo ou aux infections de cellules par des virus.

Du jeu vidéo à l’IA

Nvidia a rapidement répondu aux besoins de la communauté académique en 2006. Puis, à partir de 2014, elle a aussi fourni des GPU, pour le développement de systèmes d’IA, notamment par les GAFAM.

Ainsi, après une longue période de réduction de budget pour l’intelligence artificielle, le potentiel de calcul des GPU a permis de rendre exploitables les approches de type apprentissage profond qui étaient bloquées depuis des années, qui se base sur des réseaux de neurones pour répondre à des tâches complexes. Pour implémenter ces approches, il faut pouvoir faire d’énormes quantités de calcul vectoriel sur de grands volumes de données.

Un réseau de neurones tel qu’utilisé par l’IA est une simplification extrême du fonctionnement d’un vrai réseau neuronal, mais il en reprend les grands principes. La représentation mathématique d’un réseau de neurones est faite sous la forme d’opérations sur des matrices et des vecteurs à grandes échelles. Plus le modèle est complexe, plus la taille des données stockées dans de grands tableaux est grande et plus le nombre d’opérations mathématiques est nombreux. C’est grâce à la collaboration entre communautés de l’IA et de l’algèbre linéaire que les capacités de calcul de l’IA ont explosé ces dernières années.

Vers la spécialisation des GPU pour l’IA

Devant l’explosion de l’utilisation dans le domaine de l’intelligence artificielle, les GPU évoluent de plus en plus vers des fonctionnalités spécialisées pour l’IA et moins pour le jeu vidéo. Par exemple, des opérations spéciales ont été introduites pour traiter des matrices et proposer des fonctions de plus haut niveau, comme les « transformers » utilisés dans les grands modèles de langage.

Mais le principal gain de calcul dans l’IA vient de la réduction de la précision des opérations mathématiques. Un ordinateur ne fait jamais un calcul exact sur des nombres à virgule : comme il stocke et calcule sur un nombre de bits prédéfini, avec une précision déterminée, il y a constamment des erreurs d’arrondi plus ou moins visibles et souvent suffisamment faibles pour être négligeables. Devant la quantité de calcul nécessaire au fonctionnement des systèmes d’IA, la précision a été grandement diminuée (par quatre ou plus) pour accélérer les calculs (par quatre ou plus). Les grands réseaux de neurones sont donc peu précis, mais, grâce à leur taille, ils peuvent répondre à des problèmes complexes.

Souveraineté et IA : le prisme des GPU

Derrière l’essor des systèmes d’IA et les GPU, il y a une guerre commerciale entre la Chine et les USA, les USA interdisant l’utilisation de leurs GPU haut de gamme par la Chine. En dehors de Nvidia, seuls AMD et Intel peuvent à la marge concevoir des GPU.

Mais Nvidia ne les produit pas elle-même : une entreprise taïwanaise, TSMC, est la seule à avoir la technologie et les usines pour graver les GPU sur du silicium, au niveau mondial. Pour pouvoir continuer à produire et à vendre des produits venant de sociétés américaines, TSMC s’est engagée à ne pas travailler avec la Chine. Comme Taïwan est par ailleurs menacée d’annexion par la Chine, on peut envisager un risque très important sur l’approvisionnement en GPU dans les années à venir.

Cela met aussi en avant le besoin de développer en Europe une souveraineté sur la conception et la production de processeurs classiques ou de GPU.

L’Union européenne travaille sur cette thématique depuis des années avec un investissement dans le hardware ou matériel ouvert, mais ne peut pas aujourd’hui rivaliser avec les USA ou la Chine. Si des usines de moyenne gamme existent en Allemagne et en France, la présence d’usine de production de processeurs haut de gamme n’est pas prévue.

Au-delà, des problématiques de souveraineté, il est nécessaire de se poser de la question de l’intérêt de consacrer une part de plus en plus importante de la production d’électricité aux technologies numériques. En effet, l’IA consomme énormément d’énergie et son utilisation provoque déjà des problèmes d’approvisionnement en électricité, mais aussi en eau (pour le refroidissement), voire de redémarrage d’usines à charbon, pour répondre aux besoins.

The Conversation

Jonathan Rouzaud-Cornabas a reçu des financements de l'ANR et Inria.

14.04.2025 à 12:27

Parier sur le noir : quelles leçons tirer du succès de la musique black metal norvégienne ?

Stoyan V. Sgourev, Professor of Management, EM Normandie

Condamné et vilipendé dans son pays, le black metal norvégien a connu un grand succès en dehors de ses frontières. Découvrez sa méthode.
Texte intégral (1408 mots)
Le groupe norvégien de black metal Gorgoroth en concert sur la scène du festival Inferno, le 14&nbsp;avril 2017, à Oslo (Norvège). SpectralDesign/Shutterstock

Condamné et vilipendé dans son pays, le black metal norvégien a connu un grand succès en dehors de ses frontières. À l’origine de cette réussite se trouvent des intermédiaires qui ont transformé la source du problème en raison du succès.


Au milieu des années 1990, la scène musicale norvégienne du black metal a été de plus en plus ostracisée après que des musiciens du genre ont été [associés à des meurtres] et à des incendies d’églises.

La plupart des maisons de disques norvégiennes ont refusé de travailler avec des groupes de black metal, les représentations publiques ont été limitées. Ce genre a même été régulièrement critiqué, voire vilipendé, dans la presse.

Mais, par un remarquable revirement de situation, quelques années plus tard seulement, le black metal norvégien est devenu un phénomène global, avec des millions d’albums vendus dans le monde entier. Ce phénomène culturel a pris une telle ampleur qu’il est aujourd’hui célébré en Norvège et la principale exportation culturelle du pays et au point que l’on s’intéresse à l’image ou aux recettes produites par ce genre.

Réinterprétations

Dans notre article publié dans Academy of Management Discoveries, écrit avec Erik Aadland de la BI Norwegian Business School, nous attribuons, pour une grande part, ce revirement au travail fourni par les maisons de disques et par les entrepreneurs qui ont su capitaliser sur la stigmatisation du genre. Ces professionnels ont trouvé des moyens de réinterpréter et d’exporter ce type de musique en associant les aspects les plus noirs à des concepts moins scandaleux et donc plus attrayants, comme l’authenticité ou l’esprit de rébellion.


À lire aussi : Musique : du streaming à l’Auto-Tune, comment le numérique a tout changé


Nous voulions savoir ce qui pouvait permettre à des produits culturels réputés toxiques ou perçus de manière très négative de devenir culturellement importants. Le mécanisme social que nous appelons « arbitrage de valorisation » est un élément crucial de ce puzzle. Il consiste à exploiter les différences de préférence des publics, en vendant un produit, stigmatisé sur le marché A, sur un marché B, où il le sera moins.

Un « arbitre de valorisation » ne se contente pas d’acheter à bas prix et de vendre à prix plus élevé, en encaissant la différence. Il joue un rôle actif en cherchant à créer ce surplus de valeur sur un autre marché. Son profit est ainsi réalisé après avoir réussi à réinterpréter une caractéristique indésirable devenue attrayante. C’est la condition sine qua non pour pouvoir augmenter le prix de vente.

Authenticité de la musique

Le black metal norvégien comporte souvent des paroles contestataires, antichrétiennes et misanthropes. Pour réussir à les vendre hors de Norvège, les maisons de disques ont capitalisé sur les liens criminels des membres de certains groupes. Ils ont été utilisés pour convaincre les acheteurs que la musique de ces groupes reflétait authentiquement les véritables croyances de ses créateurs et qu’elle n’avait pas été conçue comme un produit commercial, ayant pour seule finalité de faire vendre.

Dans cette perspective, les actes de violence sont considérés comme cohérents avec la brutalité des paroles : la musique est réellement maléfique. L’idée que ceux qui se livrent à des activités criminelles « vivent » authentiquement les sentiments de la musique était cruciale pour convaincre un public international.

Un risque de réputation ?

Nos recherches nous ont permis de constater que, au milieu des années 1990, la grande majorité des maisons de disques ont pris leurs distances avec le black metal norvégien en raison des risques liés à l’investissement dans un produit stigmatisé. Ils craignaient non seulement que ces œuvres ne se vendent pas, mais aussi que le fait de s’associer au genre nuise à leur réputation et, par conséquent, au reste de leurs activités.

Cette situation a ouvert des possibilités pour les entrepreneurs et les propriétaires de petits labels qui avaient moins à perdre. Les « arbitres de valorisation » étaient conscients que s’ils parvenaient à commercialiser les groupes de manière appropriée et à surmonter les obstacles liés à la distribution, les bénéfices pourraient être considérables. L’espoir d’un très important retour sur investissement à haut risque aura été une motivation puissante pour oser afficher sa solidarité avec des artistes stigmatisés et vilipendés.

Motivations financières

La motivation pour soutenir un produit stigmatisé est financière plutôt qu’idéologique. Cela explique pourquoi le processus de stigmatisation, fondé sur des motifs idéologiques, peut commencer à s’atténuer, offrant des possibilités de gagner de l’argent en contournant la stigmatisation.


Abonnez-vous dès aujourd’hui !

Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).


Si un produit est stigmatisé sur un marché, vous pouvez littéralement aller sur un autre marché éloigné du marché central et essayer de développer le produit. On peut trouver des parallèles dans la diffusion d’autres formes d’art un temps stigmatisées, comme, par exemple, l’art impressionniste en France dans les années 1880, les débuts du jazz aux États-Unis, l’art moderne en Europe après la Seconde Guerre mondiale et le hip hop dans les années 1990…

Développements stratégiques

Nous pouvons identifier trois stratégies pour les managers lorsqu’ils envisagent des produits ou des pratiques stigmatisés :

  • La première est la passivité : ne rien faire, attendre que la tempête passe, observer ce que font les autres et agir quand la situation est sûre.

  • Atténuer les contraintes, en conservant une partie de l’originalité du produit, mais en l’enveloppant dans des éléments et des pratiques largement acceptés.

  • S’engager dans un arbitrage de valorisation, en conservant l’audace du produit, mais en lui attribuant une interprétation plus positive et en recherchant des opportunités de distribution sur des marchés ou dans des contextes plus tolérants ou plus éloignés.

La stigmatisation invite à évaluer la valeur dépréciée et à s’efforcer d’en tirer parti. Ceux qui agissent rapidement, qui identifient correctement les produits ayant un potentiel commercial et qui sont ensuite prêts à parier sur ce potentiel peuvent être largement récompensés lorsque les ventes finissent par reprendre.

The Conversation

Stoyan V. Sgourev ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

14.04.2025 à 12:27

La face cachée du vrac

Fanny Reniou, Maître de conférences HDR, Université de Rennes 1 - Université de Rennes

Elisa Robert-Monnot, Maître de conférences HDR, CY Cergy Paris Université

Sarah Lasri, Maître de Conférences, Responsable du Master 2 Distribution et Relation Client, Université Paris Dauphine – PSL

La vente de produits sans emballage peut devenir antiécologique et générer du gaspillage. Sans étiquette, les dates de péremption des produits s’oublient sans compter que jamais autant de contenants n’ont été achetés.
Texte intégral (1987 mots)
Les consommateurs de vrac de plus de 50&nbsp;ans et CSP+ constituent 70&nbsp;% de la clientèle de ce mode d’achat. DCStudio/Shutterstock

De façon contre-intuitive, la vente de produits sans emballage peut devenir antiécologique et générer du gaspillage. Sans étiquette, les dates de péremption des produits prennent le risque d’être oubliées. Sans éducation culinaire, les consommateurs sont livrés à eux-mêmes pour cuisiner. Sans compter qu’avec la mode de l’emballage sur mesure, jamais autant de contenants n’ont été achetés. Une priorité : accompagner les consommateurs.


Le modèle de distribution en vrac fait parler de lui ces derniers temps avec l’entrée dans les supermarchés de marques très connues, comme la Vache qui rit. Cet exemple est l’illustration des multiples nouveautés que les acteurs du vrac cherchent à insérer dans cet univers pour lui donner de l’ampleur et le démocratiser. Le modèle du vrac, un moyen simple pour consommer durablement ?

Il est décrit comme une pratique de consommation avec un moindre impact sur l’environnement, car il s’agit d’une vente de produits sans emballage, sans plastique, sans déchets superflus, mais dans des contenants réutilisables. Dans ce mode de distribution, on assiste à la disparition de l’emballage prédéterminé par l’industriel.

Distributeurs et consommateurs doivent donc assumer eux-mêmes la tâche d’emballer le produit et assurer la continuité des multiples fonctions, logistiques et marketing, que l’emballage remplit habituellement. N’étant pas habitués à ce nouveau rôle, les acteurs du vrac peuvent faire des erreurs ou bien agir à l’opposé des bénéfices écologiques a priori attendus pour ce type de pratique.

Contrairement aux discours habituellement plutôt positifs sur le vrac, notre recherche met également en avant les effets pervers et néfastes du vrac. Quand les acteurs du vrac doivent se « débrouiller » pour assurer cette tâche nouvelle de l’emballage des produits, le vrac rime-t-il toujours avec l’écologie ?

Assurer l’emballage autrement

L’emballage joue un rôle clé. Il assure en effet de multiples fonctions, essentielles pour rendre possibles la distribution et la consommation des produits :

  • Des fonctions logistiques de préservation, de protection et de stockage du produit. L’emballage peut permettre de limiter les chocs et les pertes, notamment lors du transport.

  • Des fonctions marketing de reconnaissance de la catégorie de produit ou de la marque. Elles s’illustrent par un choix de couleur spécifique ou une forme particulière, pour créer de l’attractivité en rayon. L’emballage assure également, du point de vue marketing, une fonction de positionnement en véhiculant visuellement un niveau de gamme particulier, mais aussi d’information, l’emballage servant de support pour communiquer un certain nombre d’éléments : composition, date limite de consommation, etc.

  • Des fonctions environnementales, liées au fait de limiter la taille de l’emballage et privilégiant certains types de matériaux, en particulier, recyclés et recyclables.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Dans la vente en vrac, ce sont les consommateurs et les distributeurs qui doivent remplir, à leur manière, ces différentes fonctions. Ils peuvent donc y accorder plus ou moins d’importance, en en privilégiant certaines par rapport à d’autres. Dans la mesure où l’industriel ne propose plus d’emballage prédéterminé pour ses produits, consommateurs et distributeurs doivent s’approprier cette tâche de manière conjointe.

Assimilation ou accommodation

Pour étudier la manière dont les consommateurs et les distributeurs s’approprient les fonctions de l’emballage, alors même que celui-ci n’est plus fourni par les industriels, nous avons utilisé une diversité de données : 54 entretiens avec des responsables de magasin et de rayon vrac, et des consommateurs, 190 posts sur le réseau social Instagram et 428 photos prises au domicile des individus et en magasin.

Notre étude montre qu’il existe deux modes d’appropriation des fonctions de l’emballage :

  • par assimilation : quand les individus trouvent des moyens pour imiter les emballages typiques et leurs attributs ;

  • ou par accommodation : quand ils imaginent de nouveaux emballages et nouvelles manières de faire.

Femme remplissant son contenant de lessive
Le vrac peut conduire à des problèmes d’hygiène si les consommateurs réutilisent un emballage en en changeant l’usage. GaldricPS/Shutterstock

Certains consommateurs réutilisent les emballages industriels, tels que les boîtes d’œufs et les bidons de lessive, car ils ont fait leurs preuves en matière de praticité. D’un autre côté, les emballages deviennent le reflet de l’identité de leurs propriétaires. Certains sont bricolés, d’autres sont choisis avec soin, en privilégiant certains matériaux, comme le wax, par exemple, un tissu populaire en Afrique de l’Ouest, utilisé pour les sachets réutilisables.

Quand l’emballage disparaît, les informations utiles disparaissent

L’appropriation des fonctions de l’emballage n’est pas toujours chose facile. Il existe une « face cachée » du vrac, avec des effets néfastes sur la santé, l’environnement ou l’exclusion sociale. Le vrac peut conduire par exemple à des problèmes d’hygiène ou de mésinformation, si les consommateurs n’étiquettent pas correctement leurs bocaux ou réutilisent un emballage pour un autre usage. Par exemple, utiliser une bouteille de jus de fruits en verre pour stocker de la lessive liquide peut être dangereux si tous les membres du foyer ne sont pas au courant de ce qu’elle contient.

Le vrac peut également être excluant pour des personnes moins éduquées sur le plan culinaire (les consommateurs de vrac de plus de 50 ans et CSP + constituent 70 % de la clientèle de ce mode d’achat). Quand l’emballage disparaît, les informations utiles disparaissent. Certains consommateurs en ont réellement besoin pour reconnaître, stocker et savoir comment cuisiner le produit. Dans ce cas le produit peut finalement finir à la poubelle !

Nous montrons également toute l’ambivalence de la fonction environnementale du vrac – l’idée initiale de cette pratique étant de réduire la quantité de déchets d’emballage – puisqu’elle n’est pas toujours satisfaite. Les consommateurs sont nombreux à acheter beaucoup de contenants et tout ce qui va avec pour les customiser – étiquettes et stylos pour faire du lettering, etc.

La priorité de certains consommateurs n’est pas tant de réutiliser d’anciens emballages, mais plutôt d’en acheter de nouveaux… fabriqués à l’autre bout du monde ! Il en résulte donc un gaspillage massif, au total opposé des finalités initiales du vrac.

Des consommateurs pas suffisamment accompagnés

Après une période de forte croissance, le vrac a connu une période difficile lors de la pandémie de Covid-19, conduisant à la fermeture de nombreux magasins spécialisés, selon le premier baromètre du vrac et du réemploi. En grande distribution, certaines enseignes ont investi pour rendre le rayon vrac attractif. Mais faute d’accompagnement, les consommateurs ne sont pas parvenus à se l’approprier. Le rayon du vrac est devenu un rayon parmi d’autres.

Il semble que les choses s’améliorent et les innovations se multiplient. 58 % des adhérents du réseau Vrac et réemploi notent une hausse de la fréquentation journalière sur janvier-mai 2023 par rapport à 2022. Les distributeurs doivent s’adapter à l’évolution de la réglementation.

Cette dernière stipule qu’à l’horizon 2030, les magasins de plus de 400 m2 devront consacrer 20 % de leur surface de vente de produits de grande consommation à la vente en vrac. La vente en vrac a d’ailleurs fait son entrée officielle dans la réglementation française avec la Loi relative à la lutte contre le gaspillage et à l’économie circulaire, parue au JORF no 0035, le 11 février 2020.

Dans ce contexte, il est plus que nécessaire et urgent d’accompagner les acteurs du vrac pour qu’ils s’approprient correctement la pratique.

The Conversation

Fanny Reniou et Elisa Robert-Monnot ont reçu des financements de Biocoop, dans le cadre d'un partenariat recherche.

Elisa Robert-Monnot a reçu des financements de Biocoop dans le cadre d'une collaboration de recherche

Sarah Lasri ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

14.04.2025 à 12:27

Discrimination en raison de l’origine sociale : quand la France respectera-t-elle les textes internationaux ?

Jean-François Amadieu, Professeur d'université, Université Paris 1 Panthéon-Sorbonne

L’origine sociale est considérée comme une source de discrimination. Pourtant, la France tarde à le reconnaître en dépit de preuves patentes. Jusqu’à quand&nbsp;?
Texte intégral (1826 mots)

L’origine sociale est considérée comme une source de discrimination. Pourtant, la France tarde à le reconnaître en dépit de preuves patentes. Jusqu’à quand ?


L’origine sociale figure dans la liste des critères de discrimination dans plusieurs textes internationaux qui s’imposent à la France, notamment la Déclaration universelle des droits de l’homme du 10 décembre 1948, la Convention européenne de sauvegarde des droits de l’homme et des libertés fondamentales du 4 novembre 1950 et la Convention C111 de l’Organisation internationale du travail (OIT) de 1958. Ces textes prennent soin de mentionner l’origine nationale ou sociale.

Mais, dans la liste des critères de discrimination du Code du travail, du Code pénal et dans le statut de la fonction publique, on ne trouve que le terme « origine » sans plus de précision. Cet oubli rend invisibles les discriminations en raison de l’origine sociale et empêche les individus de faire valoir leurs droits.

Derrière ce qui peut sembler une simple imprécision dans la rédaction de nos lois se cache, en réalité, une volonté d’ignorer la dimension sociale des phénomènes de discrimination.

Des demandes sans réponses

L’OIT demande régulièrement à la France de respecter la convention C111 en incluant le terme « origine sociale » dans le Code du travail, sans succès à ce jour.

L’Assemblée parlementaire du Conseil de l’Europe a voté à l’unanimité en 2022 une résolution qui appelle les États membres « à clairement interdire cette forme de discrimination dans la législation ». Elle souligne que,

« dans toute l’Europe, l’origine sociale des personnes, les conditions de leur naissance ont une forte influence sur leur avenir, leur accès à l’éducation et à l’apprentissage tout au long de la vie, leurs perspectives d’emploi et leurs possibilités de mobilité sociale ».

Elle invite aussi à « recueillir des données relatives à l’origine sociale ».


À lire aussi : Devenir manager ne fait plus rêver… sauf les enfants issus d’un milieu populaire


Or, en France, l’Insee vient d’introduire une question dans le recensement concernant les origines « nationales » des parents, mais a refusé de le faire s’agissant de l’origine sociale (« la profession des parents ») en dépit des protestations. Le Conseil de l’Europe invite aussi à « obliger les entreprises publiques et privées à publier des données relatives à l’écart salarial entre les classes ».

Rien de tel n’existe en France en dehors d’expérimentations isolées. En Grande-Bretagne des dizaines de grandes entreprises y procèdent depuis plusieurs années grâce à un index de la mobilité sociale.

La position du défenseur des droits

L’origine sociale n’a jamais été mentionnée dans les présentations que le défenseur des droits donne des différentes discriminations pour informer les victimes sur leurs droits. En 2025, le mot « origine » est illustré par cet exemple : « Je n’ai pas été embauché à cause de mes origines maghrébines ». Il suffit de saisir l’expression « origine sociale » dans le moteur de recherche du défenseur des droits pour ne rien trouver en dehors de documents qui concernent les origines nationales.


Abonnez-vous dès aujourd’hui !

Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).


Pour savoir si les délégués du défenseur des droits dans les départements savent que l’origine peut aussi être « sociale », je leur ai envoyé en 2024 des courriers sous le nom de Kevin Marchand en posant par exemple cette question :

« En regardant le site du défenseur des droits, j’ai vu que l’origine est un critère de discrimination. Vous donnez l’exemple d’une personne qui serait d’origine maghrébine. Ce n’est pas mon cas, mais je suis mis de côté dans mon entreprise pour les promotions et suis souvent moqué en raison de mon origine sociale très modeste ou de mon prénom populaire. Sur votre site, vous dites que le nom est un critère de discrimination, mais qu’en est-il du prénom ? Est-ce que “l’origine sociale” ou bien le prénom sont des critères de discrimination ? »

La réponse explicite la plus fréquente est que ni le prénom en lui-même ni l’origine sociale en elle-même ne sont dans la liste des critères de discrimination. L’idée que les Kevin puissent être harcelés et discriminés au motif que leur prénom est un marqueur social ne saute pas aux yeux de délégués qui suivent ce qui est écrit dans notre droit et la doctrine du défenseur des droits.

Pas de problème d’origine sociale

Chaque année, un baromètre des discriminations est publié par le défenseur des droits dans lequel on propose aux interviewés une liste de critères de discrimination pour savoir s’ils sont témoins ou victimes de discriminations et sur quels critères. Or, dans cette liste, ne figure jamais l’origine sociale. De plus, chaque année, un focus spécifique est choisi et bien entendu l’origine sociale a été oubliée (nous en sommes au 17e baromètre).

L’Ined et l’Insee dans l’enquête « Trajectoire et origines » ne proposent pas non plus aux répondants l’origine sociale parmi les 12 motifs de traitement inégalitaire et de discrimination (genre, âge, orientation sexuelle…) et un des items regroupe « origine ou nationalité ». Il en résulte une vision réductrice des réalités vécues par les répondants.

La réalité des discriminations

Proposer ou ne pas proposer un critère de discrimination aux salariés change beaucoup la vision des discriminations réellement vécues. Dans le baromètre égalité du Medef, quand on demande aux salariés s’ils craignent d’être discriminés et pour quel motif, « l’origine sociale modeste » est le quatrième critère de discrimination le plus cité derrière l’âge, l’apparence physique et le genre. Et, chez les hommes, c’est même la troisième crainte de discrimination au travail. On apprend que 80 % des salariés estiment avoir une caractéristique potentiellement stigmatisante. La séniorité arrive en tête (19 %), suivie de l’origine sociale modeste (17 %).

En 2020, dans ce même baromètre, la question suivante était posée : « Parmi les caractéristiques suivantes, lesquelles vous qualifient le mieux ? », et l’origine sociale modeste était citée en premier.

Le Huff Post, 2023.

Et il ne s’agit pas seulement d’un ressenti. L’origine sociale pèse sur les chances d’obtenir des diplômes, mais aussi sur celles d’être recruté et de faire carrière par l’effet notamment du réseau familial.

France Stratégie a analysé précisément l’effet du milieu social sur les salaires :

« L’écart de salaire moyen entre deux personnes, dont la seule différence est l’origine migratoire, est de 150 euros. Somme qui est multipliée par dix entre un enfant de cadre et un enfant d’ouvrier non qualifié. Des caractéristiques étudiées, l’origine sociale s’avère la plus déterminante en termes de revenu d’activité. En moyenne, 1 100 euros nets par mois séparent le quart des personnes d’origine favorisée du quart des personnes d’origine modeste, à origines migratoire et territoriale comparables. C’est presque deux fois plus que l’écart entre hommes et femmes (600 euros). Si on tient compte du diplôme de l’individu et de son conjoint, un écart demeure entre les classes. »

Combien de temps faudra-t-il pour que le classisme soit reconnu au même titre que le racisme dans le droit de la discrimination ? La France a simplement intégré ce que l’on nomme le « racisme anti-pauvre » avec la « particulière vulnérabilité résultant de la situation économique », mais ce critère traite de la situation actuelle, pas du milieu social d’origine.

La France bat de loin le record mondial du nombre de critères de discrimination figurant dans notre droit (plusieurs dizaines dans le Code du travail), parfois sans que le défenseur du droit puisse même expliquer en quoi consiste un critère (« Capacité à s’exprimer dans une langue autre que le français »). Dans ces conditions, il est frappant que la situation socioéconomique des parents reste ignorée dans l’indifférence générale.

The Conversation

Jean-François Amadieu ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

14.04.2025 à 12:27

Cinq ans après la pandémie, le travail fait-il encore sens ?

Elodie Chevallier, Chercheuse sur le sens au travail, Université catholique de l’Ouest

Selon une étude, la pandémie de Covid-19 a eu un effet immédiat sur le sens au travail en France et au Canada. Cinq&nbsp;ans après, faute de changements durables, ce bouleversement perdure.
Texte intégral (2050 mots)
La France a fait état d’une hausse des démissions de 19,4&nbsp;% en 2021. Opolja/Shutterstock

La pandémie de Covid-19 a agi comme un révélateur du sens accordé au travail. En France et au Canada, elle a provoqué une prise de conscience immédiate. Ses effets se prolongent aujourd’hui : « grande démission », stratégie d’autopréservation face à l’épuisement professionnel, baisse du sentiment d’utilité, aspiration à la reconnaissance des efforts et transitions professionnelles vers des métiers avec plus de sens. Cinq ans après, quelles leçons en avons-nous vraiment tirées ?


Nous nous souvenons tous et toutes de ce que nous faisions le jour où nous avons appris que nous allions être confinés pour quelques semaines… qui se sont transformées en quelques mois. Face à ce virus encore inconnu, nous étions décidés à nous mobiliser, à nous battre, à encourager les travailleuses et les travailleurs essentiels. Nous rêvions du monde d’après, celui où l’on retrouverait nos libertés, celui où l’on mettrait fin aux pratiques qui n’ont plus de sens. Cinq ans après, qu’en est-il de ce « monde d’après » ?

Nous avons mené une recherche pour mieux cerner les effets de la pandémie de Covid-19 sur le sens accordé au travail en France et au Canada. Une première étude qualitative par groupe de discussion s’est déroulée en plein cœur de la pandémie (janvier 2022) auprès de professionnels du conseil en orientation. Une seconde étude quantitative, réalisée à l’issue de la pandémie (janvier 2023), par questionnaire auprès de 166 travailleurs et travailleuses avec au moins cinq ans d’expérience, nous a permis de comprendre l’impact des modalités de travail imposées par la pandémie sur le sens au travail.

La pandémie a clairement eu un effet sur le sens accordé au travail, que ce soit en France ou au Canada, de manière positive ou négative, notamment en fonction des conditions de travail vécues.

La « Grande Démission »

Depuis 2020, plusieurs phénomènes témoignent d’un désengagement croissant ou d’une remise à distance du travail de la part des salariés, révélant un rapport à l’emploi en pleine évolution. Avant la pandémie, la notion de bullshit jobs faisait déjà débat. Depuis, de nouveaux concepts comme le quiet quitting, le « brown-out » ou encore le task masking ont émergé, illustrant une remise en question de l’engagement au travail.


Abonnez-vous dès aujourd’hui !

Chaque lundi, des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).


Parmi ces dynamiques, la « Grande Démission » (Great Resignation) a marqué les esprits. Aux États-Unis, de nombreux salariés ont changé d’emploi pour améliorer leurs conditions de travail. Dans d’autres pays, avec davantage d’encadrement social du travail, le phénomène a été plus mesuré.

Le Canada a connu une hausse des démissions de 14,6 % en 2021 tout en gardant un taux d’emploi plus élevé qu’en 2020.

La France a fait état d’une hausse des démissions de 19,4 % en 2021. Contrairement aux idées reçues, il ne s’agissait pas d’un rejet du travail. Après avoir démissionné, les actifs reprenaient rapidement un emploi. Leur volonté était d’accéder à de meilleures conditions d’emploi dans un marché favorable. Ce phénomène a déjà été observé lors de précédentes reprises économiques, notamment dans les années 2000 avec la bulle Internet, comme en a fait état La Dares.

« Quiet quitting » et autopréservation

Le « quiet quitting », autre buzz word entendu à la sortie de la pandémie, témoigne d’une désillusion croissante vis-à-vis de l’investissement professionnel. Il s’agit moins d’une démission silencieuse que d’une stratégie d’autopréservation face à un travail perçu comme épuisant et dénué de sens. On pourrait le rapprocher de la notion de freinage observée dans les organisations scientifiques du travail, où chaque acte était chronométré.


À lire aussi : « Quiet quitting » : au-delà du buzz, ce que révèlent les « démissions silencieuses »


Pourquoi ces tendances refont-elles surface ?

Si les mesures pour faire face à la pandémie ont permis d’apporter plus de flexibilité et d’autonomie dans le travail, force est de constater que le retour à la normale s’est accompagné de peu de changements structurels. Au contraire, les tendances préexistantes ont été exacerbées : fin du télétravail dans certaines entreprises, conditions de travail rendues encore plus difficiles dans certains métiers, retour dans l’ombre de populations de travailleurs applaudi et considéré comme essentiels lors des temps les plus difficiles de la pandémie de Covid-19.

Deux actifs sur dix s’interrogent davantage sur le sens de leur travail

Dans ces conditions, l’après-pandémie a fait l’effet d’une douche froide laissant un goût amer à de nombreux salariés. Cela s’est traduit par une attention beaucoup plus forte au fait d’occuper un travail qui a du sens. En 2022, deux actifs sur dix s’interrogent davantage sur le sens de leur travail depuis la crise, un phénomène particulièrement marqué chez les jeunes, les cadres et les employés du secteur public.

S’agit-il d’un phénomène purement français ? Pas forcément si l’on regarde de l’autre côté de l’atlantique. Au Canada on note également une quête de sens accrue depuis la pandémie. Il semblerait donc que l’on ait affaire à un phénomène global. Alors, cinq années après le début de la pandémie de Covid-19, il est intéressant de se demander quel a été l’effet de la pandémie sur ce phénomène.

Transition professionnelle

Les évènements, qu’ils soient prévus ou non, influencent notre rapport au travail et nos choix de carrière. La pandémie de Covid-19, en particulier, a été un bouleversement majeur, parfois qualifié de choc de carrière en raison de ses effets sur les trajectoires professionnelles. Chez certaines personnes, cela peut influencer le sens qui est accordé au travail, car l’évènement vient changer l’ordre des valeurs et des priorités.

Cet évènement s’est accompagné de mesures de confinement qui nous ont poussés à changer nos habitudes de vie et de travail. Moins de temps dans les transports, plus de temps en famille, chez certaines personnes cela a créé les conditions pour revoir leurs priorités de vie. La conciliation travail-famille et la recherche d’un équilibre de vie ont été parmi les arguments les plus entendus par les professionnels de l’orientation qui recevaient des personnes amorçant une transition professionnelle. Certaines personnes ont saisi cette occasion pour aller vers un travail davantage porteur de sens à leurs yeux. D’autres personnes ont plutôt vécu cette période comme un évènement qui a participé à dégrader un sens qui n’était pas toujours très fort.

Baisse du sentiment d’utilité

Le travail à distance qui s’est imposé de manière spontanée, ainsi que l’arrêt de certaines activités, a créé un sentiment de perte de sens. Nos résultats montrent que les télétravailleurs à temps plein ont plus souvent connu une baisse de leur sentiment d’utilité et d’autonomie, en particulier dans les métiers considérés comme « non essentiels ».

De même, les personnes qui ont connu une période prolongée d’inactivité – plus de six mois – ont plus souvent exprimé une perte de sens, due notamment à l’absence des relations professionnelles et à la diminution de leurs responsabilités.

Aussi, l’étiquetage de certains métiers comme « non essentiels » a conduit les travailleurs concernés à remettre en question leur utilité sociétale et donc leur engagement professionnel. À l’inverse, ceux occupant des emplois essentiels ont souvent ressenti une plus grande fierté, mais aussi une surcharge et un manque de reconnaissance qui se sont fait sentir un peu plus tard.

Efforts non reconnus

La pandémie a montré qu’une nouvelle manière de considérer le travail était possible, en laissant plus d’autonomie aux salariés, en valorisant certaines professions dénigrées et pourtant essentielles. Mais ces avancées ont été temporaires. Les travailleurs ont fait un énorme effort d’adaptation pour faire face à la pandémie, et ils constatent aujourd’hui que cet effort n’a pas été reconnu. La revalorisation des métiers essentiels s’est souvent limitée à des primes ponctuelles, sans réelle refonte des conditions de travail. La flexibilité et l’autonomie, expérimentées à grande échelle avec le télétravail, ont été freinées par le retour forcé au bureau dans certaines organisations.

Beaucoup de travailleurs ont eu le sentiment d’avoir été floués. Et c’est cela qui a eu l’effet le plus néfaste sur le sens accordé au travail, lorsque les actes ne suivent pas les paroles.

La revalorisation du travail doit dépasser les simples déclarations pour se traduire par des actions concrètes. Il est nécessaire de repenser l’équilibre entre la contribution des salariés et la rétribution qu’ils reçoivent, d’offrir plus d’autonomie à ces derniers et de rapprocher les décisions du terrain. Le sens du travail ne peut être imposé de manière abstraite. Il repose sur la reconnaissance authentique et tangible de l’apport de chaque individu au bon fonctionnement de l’organisation, et cette reconnaissance doit aller au-delà des mots pour être réellement vécue au quotidien.

The Conversation

Elodie Chevallier est chercheuse associée au Centre de recherche sur le travail et le développement et membre du comité scientifique du CERIC.

14.04.2025 à 12:27

Pour sortir de la kakistocratie -le management par les nuls- il suffit d’affronter l’incompétence !

Isabelle Barth, Secrétaire général, The Conversation France, Université de Strasbourg

Être dirigé par des incompétents, ça n’arrive pas qu’aux autres. Et quand cette incompétence se propage, on est en kakistocratie. Pour en sortir, des actions concrètes sont possibles.
Texte intégral (1930 mots)

Devoir travailler pour (ou être dirigé par) des incompétents, c’est le cauchemar de nombreux salariés ! Ça n’arrive pas qu’aux autres. Et quand cette incompétence se propage dans toute l’organisation, on bascule dans la kakistocratie. S’il n’existe pas de solution magique pour en sortir, des actions concrètes sont possibles pour la prévenir ou en limiter les effets.


La kakistocratie au travail ? C’est la direction par des incompétents ! Et si toutes les organisations ne sont pas des kakistocraties (heureusement !), la kakistocratie se retrouve dans tous les secteurs d’activités.

Spontanément, elle est souvent associée aux grosses structures, à l’administration, au secteur public. En réalité, la taille ne joue aucun rôle et on retrouve aussi des personnes incompétentes à la tête de PME, d’ETI et même de start-up. C’est dire que tout le monde peut être, un jour ou l’autre, concerné. Or la kakistocratie nous interpelle vivement, car elle constitue l’inverse exact de ce qui nous est enseigné dès le plus jeune âge, cette idée selon laquelle « il faut être compétent pour réussir » !

Des conséquences négatives

Mon enquête sur le sujet montre que cette situation produit de nombreux effets, tous négatifs. Parmi ceux cités, citons la perte de performance, la dégradation de l’image de l’entreprise, l’absentéisme, un climat délétère, voire de la souffrance au travail…

Or, voir des incompétents recrutés, puis obtenir des promotions, pallier l’incompétence de son manager au prix de son temps et de son énergie, comprendre qu’un dirigeant notoirement incompétent restera en poste pour de nombreuses années, constituent des pertes de repères et produisent de la souffrance. Comment sortir de cette situation ?

Différentes formes d’incompétence

Face à une kakistocratie, de nombreuses personnes adoptent le comportement qui leur semble le plus adapté de leur point de vue : le désengagement. Cela peut prendre différentes formes, allant de la démission à l’absence. Sans oublier le « quiet quitting » qui consiste à faire le minimum demandé. Certains individus vont plus loin, jusqu’à dénoncer la situation, mais être un lanceur d’alerte est loin d’être simple ! D’autres encore adoptent la posture consistant à affronter la question de l’incompétence. Comment ?


À lire aussi : Victime d’un manager incompétent ? Bienvenue en « kakistocratie » !


Il faut tout d’abord distinguer l’incompétence métier de l’incompétence managériale. La première concerne les hard skills. Si elle est bien repérée, une formation ad hoc permet d’y remédier assez rapidement en général. L’incompétence managériale est plus complexe à gérer. D’abord, parce qu’elle est moins facile à objectiver et souvent diffuse dans l’organisation. En outre, ce type d’incompétence concerne… les dirigeants, ce qui rend plus difficile sa remise en cause. Pourtant, des actions concrètes et mobilisables pour éviter la propagation de ces insuffisances professionnelles sont possibles.

Tout commence dès le recrutement

Commençons par les méthodes les plus évidentes pour éviter que l’incompétence prenne sa place dans l’organisation et se développe au point de devenir une kakistocratie, et ce, dès le recrutement. Les concours qui confondent bagage de connaissances et passeport de compétences doivent être proscrits à tout prix. On le sait, une tête peut être bien remplie et bien faite, mais complètement à côté des attentes inhérentes au poste.

De même, il ne faut pas confondre les compétences d’expertise et de management. Pas plus que le meilleur joueur de football ne fait, le plus souvent, un bon entraîneur, le meilleur vendeur ne sera pas mécaniquement un bon chef des ventes. Ni le meilleur ouvrier un bon chef d’atelier… Éviter ce biais assez courant suppose de ne pas faire du management la seule voie de promotion. Car cette attitude amène des personnes à accepter un poste de manager pour des raisons aussi mauvaises que compréhensibles (l’augmentation de salaire, les avantages, la capacité à prendre des décisions, le pouvoir de faire…).

Le syndrome du fils du patron

La lutte contre toutes les formes de clanisme a aussi un rôle central à jouer, au moment du recrutement ou d’une promotion. Le critère pour l’un ou l’autre doit être les compétences du candidat, et non un lien familial, ou une proximité de formation – un candidat n’est pas bon parce qu’il a fait les mêmes études. Le fameux syndrome du « fils du patron » et toutes les formes de corporatisme doivent être combattus avec une volonté affirmée.

La lutte contre l’incompétence passe aussi par des actions de formation, à commencer par l’évaluation de la vraie compétence. Trop souvent apparences et compétences sont confondues, attribuant des qualités et un potentiel à des personnes sûres d’elles et sachant se mettre en avant. Prendre conscience de ces biais cognitifs pour mieux les combattre est une nécessité.

De même, une formation au management responsable a un rôle majeur. Dans cette optique, un salarié compétent apte à progresser dans l’entreprise ne doit pas être appréhendé comme un futur concurrent, auquel il convient de barrer la route. Au contraire, un bon manager sait faire grandir ses équipes et accepter que certains deviennent meilleurs que lui !


Abonnez-vous dès aujourd’hui !

Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).


Une question d’organisation

Par ailleurs, l’action contre la kakistocratie ne peut pas faire l’économie d’une réflexion sur l’organisation et sur les usages. Quatre voies principales sont à privilégier.

  • Mieux vaut privilégier les compétences internes que de recourir à des consultants externes. Chaque fois qu’une entreprise fait appel à des expertises extérieures (qui peuvent avoir leur utilité), elle envoie aussi un signal négatif à ses équipes qui ne chercheront plus à monter en compétences.

  • Une seconde voie à privilégier consiste à ralentir sur les changements d’organisation, la mobilité des personnes. Trop fréquentes, ces réorganisations permanentes ou presque font perdre toute possibilité de capitaliser sur ses compétences. La compétence a toujours un « coût d’entrée » et le retour sur investissement de cette acquisition n’est jamais instantané.

  • Il importe aussi de donner des marges de manœuvre aux personnes, sans les contraindre à suivre des scripts et des procédures rigides. Les premiers et les seconds ont pour effet de faire perdre toute initiative.

  • Enfin, être vigilant sur les routines qui s’installent et qui sont le nid des « compétences spécialisées » est essentiel. Il faut avoir en tête qu’il existe un moment critique dans le parcours des individus. Le moment où la remise en cause d’un diagnostic ou d’une marche à suivre n’est plus possible, car le salarié est persuadé de son hypercompétence, est critique.

L’incompétence, ça se pense aussi

Faire de l’incompétence un atout ! Un oxymore ? Non, mais il faut accepter de passer par plusieurs étapes. Ainsi, l’incompétence est à la fois une obsession managériale et un impensé. L’incompétence n’est vue que comme le contraire de la compétence. Dans la réalité, les choses sont plus complexes : la compétence et l’incompétence sont indéniablement liées.

Il faut rappeler quelques définitions. L’incompétence (comme la compétence) n’existe qu’en « action » et elle se définit par l’adéquation avec un poste, une fonction, une mission à un moment donné dans un contexte donné. On peut être un manager évalué très compétent dans une entreprise et ne plus l’être dans une autre.

On n’est jamais compétent ou incompétent « en soi ». Ce point est très important : trop souvent, l’incompétence dans un poste débouche sur un diagnostic d’incompétence d’une personne en général.

TED X Clermont-Ferrand 2023.

Nous sommes tous des incompétents

Accepter (en commençant par soi) qu’on soit tous incompétents en quelque chose ou pour quelqu’un. Ce qui amène à :

  • avoir une posture d’apprentissage permanent, aussi bien pour les hard skills que pour les soft skills ;

  • accepter de se faire aider, aller vers les autres (et pas seulement les sachants) et sortir de son silo professionnel pour apprendre ;

  • voir dans ses collaborateurs (et éventuellement son manager) un potentiel qui peut évoluer ;

  • accepter les erreurs et les voir comme des occasions d’apprendre (à condition qu’elles ne se répètent pas à l’identique), de façon à permettre des initiatives qui ne voient le jour qu’avec la confiance en soi. C’est d’ailleurs une des compétences managériales les plus importantes : savoir instaurer la « sécurité psychologique ». Il s’agit de remettre les personnes dans leur zone de compétences et de leur faire confiance.

Faire de l’incompétence une source d’inspiration

Une ouverture plus disruptive est de regarder faire ceux et celles qu’on a enfermés dans leur statut d’incompétents, car leurs « bricolages » (au sens de Lévi-Strauss) peuvent être des sources d’inspiration. Ils proposent d’autres chemins, d’autres façons de faire qui peuvent être inspirantes, et performantes !

L’incompétence, pensée, acceptée, peut alors devenir une source d’innovation et de créativité. Sortir de la kakistocratie passe donc par le management de l’incompétence. Pour cela, il faut l’apprivoiser afin qu’elle ne reste pas une obsession ni, encore moins, une condamnation.

The Conversation

Isabelle Barth ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

14.04.2025 à 12:27

Transformer le management : la démarche Grand 8

Thierry Nadisic, Professeur en Comportement Organisationnel, EM Lyon Business School

Thomas Misslin, Doctorant, Sciences de Gestion, Dauphine-PSL - Chef de projet, Executive Education, EM Lyon Business School

Voici les extraits de «&nbsp;Transformer le management&nbsp;: la démarche Grand&nbsp;8&nbsp;», un livre qui présente une démarche de transformation managériale à la fois fondée sur les recherches et validée par la pratique.
Texte intégral (1920 mots)
Nous avons nommé la démarche que nous vous présentons dans ce livre, «&nbsp;le Grand 8&nbsp;». De même que l’attraction foraine du même nom, elle vise à faire vivre aux managers d’une entreprise une expérience immersive et mémorable. Metamorworks/Shutterstock
Fourni par l'auteur

Dans des environnements chahutés, les entreprises cherchent à évoluer afin de répondre aux besoins économiques, sociétaux et environnementaux de l’ensemble de leurs parties prenantes. L’un de leurs leviers clés est leur transformation managériale. Celle-ci prépare l’encadrement à aider les collaborateurs à trouver plus de sens, de lien social, de compétence, d’autonomie et d’engagement dans leur travail. Voici les extraits de « Transformer le management : la démarche Grand 8 ». Ce livre présente une démarche d’accompagnement à ce type de transformation à la fois fondée sur les recherches et validée par la pratique.*


Nous consacrons une grande partie du temps et de l’énergie de nos vies à travailler dans des organisations, en particulier les entreprises. Nous le faisons car nous pensons que cela en vaut la peine : nous participons ainsi à mettre à la disposition de toute la société des biens et des services qui répondent à ses besoins, qu’il s’agisse de biens comme des plantes pour son jardin ou de services comme l’emprunt qui financera l’achat d’un nouveau chez soi. Ce sens collectif de notre action est l’un des avantages que nous retirons de notre collaboration, en plus du revenu de notre travail et du plaisir que nous ressentons dans la relation aux autres, nos collègues en particulier.

Depuis l’avènement de la nouvelle révolution industrielle fondée sur les technologies de l’information, le contexte stratégique est devenu plus incertain pour les organisations. Il faut s’adapter aux réseaux sociaux, à la digitalisation, à l’intelligence artificielle. Les entreprises doivent aussi se positionner de façon innovante pour continuer à répondre aux demandes changeantes de leurs clients. Plus largement faire face aux bouleversements des sociétés et des économies dus à la mondialisation, à l’arrivée de nouvelles générations sur le marché du travail, aux menaces sur notre environnement naturel. À ces bouleversements systémiques viennent s’ajouter des crises, qu’elles soient sanitaires ou liées à un sentiment d’insécurité géopolitique. Ces changements entraînent des transformations pour ce qui est de la manière de manager dans les organisations. Celles-ci réagiront en effet mieux face à un environnement incertain si elles aident leurs membres à développer une capacité de prise de décision plus autonome et une coopération plus fluide.


Abonnez-vous dès aujourd’hui ! Chaque lundi, des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).


C’est aux managers d’organiser ces nouvelles formes de prise de décision et de coopération en trouvant d’autres façons de faire que le traditionnel style directif. Cela implique de leur part une transformation comportementale afin de maîtriser de nouvelles compétences de management. Celles-ci peuvent consister à organiser le travail de façon plus transversale, à déléguer le pouvoir de décider et d’agir aux collaborateurs (approche souvent appelée empowerment) ou à mieux partager la vision de l’organisation avec leurs équipes. Ces compétences sont traditionnellement acquises par des formations. Ce que nous vous proposons avec ce livre, c’est la présentation d’une approche plus profonde qui vise à accompagner une véritable transformation des comportements managériaux, au service à la fois du projet de l’entreprise et des buts de chaque personne concernée.

Les comportements managériaux cibles peuvent être regroupés dans ce que l’on appelle « le modèle managérial cible de l’entreprise ». Ils impliquent en parallèle une transformation de son organisation et de ses processus de gestion. Par exemple des procédures fondées sur un contrôle hiérarchique étroit a priori de toute action seraient rapidement contradictoires avec le développement de l’empowerment des collaborateurs. Les changements comportementaux réalisés ne pourront être inscrits dans la durée que s’ils trouvent une organisation, une structure et des processus qui les soutiennent.

Dans ce livre, nous définissons le management comme l’activité consistant à coordonner l’action de plusieurs personnes au service d’un but commun. Quant au leadership, il désigne le processus d’influence entre le responsable d’un collectif et les membres de celui-ci […] Nous avons nommé la démarche que nous vous présentons dans ce livre « le Grand 8 ». De même que l’attraction foraine du même nom, elle vise à faire vivre aux managers d’une entreprise une expérience immersive et mémorable. Plus fondamentalement, elle se fonde sur « trois huit » : huit principes actifs qui sont les moteurs de l’acquisition de nouveaux comportements (par exemple le principe de co-construction) ; huit axes pédagogiques qui constituent le parcours que suivra tout participant (dont notamment le rodage des nouveaux comportements avec un groupe de pairs) ; et huit leviers de coopération qui permettent à tous les acteurs du Grand 8 d’avancer en bonne intelligence. Ces trois huit seront détaillés tout au long de chacune des trois parties de ce livre […]

[Si on détaille] la seconde partie du livre, [celle-ci] est composée des huit axes pédagogiques opérationnels du Grand 8 : le lancement, l’observation de l’état des comportements managériaux des participants et la fixation d’objectifs de développement, les séances dites synchrones (c’est-à-dire des moments où les participants sont réunis en même temps en groupes de session, que ce soit en présentiel ou en distanciel) pour acquérir de nouveaux comportements, le travail à distance, la coopération en groupes de pairs, l’utilisation d’un carnet de bord, la mise en œuvre de projets et la convention d’envol du parcours. Un lecteur qui voudrait avoir une vue complète de la démarche en action lira d’abord cette partie […] Le Grand 8 est une recette de cuisine : pour que le plat réussisse, il faut suivre des étapes, mais le plus important est la manière dont les ingrédients se mélangent. Nous rappellerons donc régulièrement dans cette deuxième partie qu’il convient de penser l’action des huit axes pédagogiques comme un système plutôt que comme une séquence.

Ce livre est le résultat d’expériences pratiques. Les auteurs ont pu, en tant que professionnels au sein de l’école de management EM Lyon Business School, accompagner les communautés de 80 à 850 managers au sein d’entreprises partenaires dans les secteurs de la banque, de la logistique, des services informatiques ou de la santé. L’évolution des comportements managériaux qui en a résulté a amené les équipes de ces managers à plus d’envie de s’engager, à des initiatives innovantes et à mieux coopérer. Les entreprises accompagnées ont pu mieux réaliser leurs objectifs stratégiques et leurs managers ont grandi et su favoriser le bien-être au travail de leurs collaborateurs. […] L’épilogue [du livre] montre les résultats concrets obtenus au travers d’une série de mesures, individuelles et collectives, de l’appropriation et de la mise en pratique au quotidien des comportements visés.

Enfin, le Grand 8 est fondé sur les dernières études en neurosciences, psychologie comportementale, pédagogie, théorie des organisations, management et accompagnement. Cette ouverture sur la recherche nous a amenés à le concevoir comme un système ouvert et évolutif. Nous vous donnons ici toutes les clés pour que vous puissiez le mettre en place à votre tour, que ce soit en tant que dirigeant, directeur des ressources humaines ou de la transformation ou responsable de la formation dans votre organisation ou en tant que professeur, consultant, coach ou formateur dans une entreprise partenaire.


Cet article a été écrit avec la participation de Claire Moreau, coach et directrice de programmes chez Humans Matter, et de Gilles Basset, consultant indépendant en Executive Education.

The Conversation

Thomas Misslin est chef de projet de programmes de développement managérial sur mesure dans le département executive education d'emlyon business school

Thierry Nadisic ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

14.04.2025 à 09:28

Google, antitrust enforcement and the future of European digital sovereignty

Anne C. Witt, Professor of Law, Augmented Law Institute, EDHEC Business School

Google’s antitrust worries are piling up in the US and in Europe. But the Trump administration isn’t pleased with EU regulatory efforts.
Texte intégral (1954 mots)
Google’s logo is visible at the company’s site in Cupertino, California, US. NorthSky Films / Shutterstock

Since its beginnings as a humble student start-up in 1998, Google has pulled off a meteoric rise. In 2025, its parent company, Alphabet, is a vast multinational technology conglomerate and one of the world’s most valuable companies. While much of Alphabet’s growth was internal, it also added to its empire through shrewd acquisitions, including of Android, DoubleClick and YouTube. Since 1998, it has acquired at least 267 companies.

Alphabet is a key player in many digital markets, including general search, browsers, online advertising, mobile operating systems and intermediation. Google Search, for example, is now the most widely used general search engine in the world. Globally, its market share has been at least 78% for the past 10 years.

Unsurprisingly, antitrust agencies, whose task is to protect competition, have been taking a close look at Google’s conduct and that of other tech giants. While having market power is not illegal if it is the result of a superior product, protecting such a position by means that are not meritorious is.


A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!


Google’s conduct under scrutiny

In recent years, there has been growing concern that Google may be using anticompetitive means to protect and extend dominant positions in core digital markets. In 2017, 2018 and 2019, the European Commission fined Google over €8 billion for abusing dominant positions in key markets – more than any other Big Tech company to date. A fourth investigation into Google’s behaviour in the advertising technology market, in which the European Commission is likely to request structural changes to Google’s advertising business, is nearing completion. The national competition agencies of the EU member states have also actively enforced EU and national abuse-of-dominance rules. Private antitrust class actions for damages are adding to Google’s woes.

In 2022, the EU enacted the Digital Markets Act (DMA) to create an additional tool for intervening against entrenched market power in core platform markets. The DMA regulates the behaviour of so-called gatekeeper companies, aiming to make markets more contestable for competitors and fairer for users. In September 2023, the European Commission designated Alphabet as a gatekeeper in no fewer than eight platform markets for the following services: Google Search, Google Maps, Google Play, Google Shopping, Google Ads, Chrome, YouTube and Google Android.

Within days of the DMA’s conduct rules becoming binding on Alphabet in March 2024, the European Commission opened the first noncompliance investigation to assess whether Google Search was continuing to treat Alphabet’s own services more favourably than its rivals’, and whether Google Play prevented app developers from steering consumers to other channels for better offers.

For the Trump administration, EU rules amount to non-tariff restrictions

The territorial scope of these rules is limited to services offered in Europe. They do not regulate how Google operates in the United States – this is subject to US antitrust law. Nonetheless, the European Commission’s enforcement actions have provoked the ire of the current US administration. In February 2025, the White House issued a memorandum titled “Defending American Companies and Innovators From Overseas Extortion and Unfair Fines and Penalties” that takes issue with European antitrust and regulatory measures against US companies. According to the Trump administration, the EU’s rules amount to non-tariff restrictions and unfair exploitation of US companies, and they interfere with American sovereignty. The memorandum stresses that Washington will not hesitate to impose tariffs and other actions necessary to mitigate the harm to the United States.

According to the European Union, such actions would amount to economic coercion and interfere with its legislative sovereignty to decide under what conditions services are offered on European soil. In 2022, likely with the possibility of a second Trump presidency in mind, it enacted the so-called Anti-Coercion Instrument, which allows the European Commission to impose a wide range of “response measures”, including tariffs and restrictions on imports, exports, intellectual property rights, foreign direct investment, and access to public procurement. Such response measures could be imposed on US digital services.

Potential for escalation

The situation has the potential to further escalate the risk of a trade war between Europe and the United States. However, the dispute over tech regulation does not appear to be about substantive antitrust principles per se.

In 2020, the US House of Representatives issued a bipartisan report stressing the need for the United States to address the lack of competition in digital markets and the monopoly power of dominant platforms like Amazon, Apple, Facebook and Google. The Federal Trade Commission and the Department of Justice subsequently brought antitrust lawsuits against all four companies, most of which are still pending.

The Department of Justice filed two separate antitrust suits against Google in 2020 and in 2023. In the first case, a Washington DC district court in August 2024 found Google guilty of violating section 2 of the Sherman Antitrust Act, and established that Google had attempted to protect its monopoly power in the market for general search through anticompetitive means. Judge Amit P. Mehta is now determining appropriate remedies, and the Department of Justice recently reiterated its request that the judge break up Google.

The second US case against Google is still pending. The accusations in it are similar to those underlying the European Commission’s ongoing investigation into Google’s behaviour in the market for advertising technology. While the case was initiated during the Biden administration, it has not (yet) been shut down since Trump returned to power. It’s also worth noting that the new head of the Federal Trade Commission has stressed that Big Tech is a main priority of his agency. There seems to be concern on both sides of the Atlantic that Google has been restricting competition. The crux of the discord, most likely, is that European regulators are telling US companies what to do – even if on European territory.

Europe lacks equivalents to Big Tech

The European Commission appears determined to keep enforcing its antitrust rules and the DMA. On March 19, 2025, it informed Alphabet that its preliminary assessment had shown that Google’s behaviour in search and in the Google Play Store was incompatible with the DMA. Also, the first noncompliance decisions against Apple and Meta under the DMA are expected shortly – even though the fines may well stay below the maximum 10% of a company’s global annual turnover allowed by the act, in view of its novelty.

Europe is not an insignificant market for Google and other US tech companies. In 2024, Google reportedly generated 29% of its global revenue, or $100 billion, in Europe, the Middle East and Africa. Europe has no equivalents to Google or other Big Tech companies, and the EU today imports 80% of its digital technology. In September 2024, the Draghi Report issued a stark warning to bloc leaders, highlighting waning geopolitical stability and the need for Europe to focus on closing the innovation gap with the US and China in advanced technologies. Less than five months later, the European Commission published the Competitiveness Compass, a roadmap to restoring Europe’s dynamism and boosting economic growth. Strong measures from the White House in retaliation for European antitrust and regulatory enforcement might just give this process additional impetus. President Trump cannot make European tech great again, because it never was great. But his policies may unintentionally help make it so.

The Conversation

Anne C. Witt ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

13.04.2025 à 13:07

L’effondrement des traités de limitation des armements met l’humanité entière en danger

Julien Pomarède, Associate professor in International Politics, Promoter of the WEAPONS Project (FNRS - 2025-2028) (Université de Liège) - Research Fellow REPI ULB. Promoter « WEAPONS » Research Project (FNRS - 2025-2028), Université de Liège

Tout l’édifice normatif construit depuis plus de soixante ans pour limiter ou interdire certains armements, notamment nucléaires, est en train de disparaître.
Texte intégral (3080 mots)

Ces dernières années, on observe un rapide délitement des conventions internationales interdisant ou encadrant les armements, nucléaires ou non. Exacerbé par les conflits récents, en particulier par la guerre d’Ukraine, ce processus, que les États justifient par leurs impératifs de sécurité immédiate, met en danger l’avenir de la sécurité internationale et, au-delà, rien de moins que l’habitabilité de notre planète.


Depuis la Seconde Guerre mondiale, les conventions internationales sur la limitation des armements ont joué un rôle clé dans la régulation des arsenaux militaires mondiaux. Certes, elles n’ont pas permis une abolition complète des armements particulièrement létaux et peu discriminants pour les civils. De même, les adhésions des États à ces conventions sont variables et leur transgression a été, et reste, régulière. Mais ces textes fournissent un cadre institutionnel, normatif, efficace et raisonnable dans les contraintes qu’ils font peser sur la marge de manœuvre des États à s’armer et à se défendre – un cadre qui subit aujourd’hui un délitement rapide.

Du TNP à New START, des décennies d’efforts de limitation des armements

Certaines des plus importantes de ces conventions ont été adoptées lors de la guerre froide, période historique inégalée en termes de prolifération des moyens physiques de destruction.

Sur le nucléaire, rappelons deux textes piliers : le Traité de non-prolifération des armes nucléaires (TNP, 1968), et le Traité sur les forces nucléaires à portée intermédiaire (INF, 1987), accord majeur passé entre les États-Unis et l’Union soviétique (puis la Russie).

En limitant la prolifération des armes nucléaires et en visant l’élimination des missiles à portée intermédiaire en Europe, ces accords ont permis de créer un environnement de contrôle et de réassurance entre les grandes puissances.

Les textes relatifs au contrôle des armes nucléaires ont également connu des évolutions significatives après la guerre froide, avec l’adoption du Traité sur l’interdiction des essais nucléaires (1996) et le New START (Start signifiant Strategic Arms Reduction Treaty, littéralement « traité de réduction des armes stratégiques »), signé en 2010 entre les États-Unis et la Russie, qui a pour objectif de limiter les arsenaux nucléaires stratégiques de chaque pays, en plafonnant surtout le nombre de têtes nucléaires déployées.

L’effet combiné de ces traités, dont ceux évoqués ne sont que des exemples d’un ensemble normatif plus vaste, a permis une réduction importante des stocks d’armes nucléaires, lesquels sont passés – pour le cumulé seul États-Unis/URSS puis Russie – d’un pic d’environ 63 000 au milieu des années 1980 à environ 11 130 en 2023.

Des efforts de désarmement dans d’autres secteurs ont été poursuivis après la fin de la guerre froide, comme la Convention d’Ottawa sur les mines anti-personnel (1997) et celle d’Oslo sur les bombes à sous-munitions (2008). Ces régimes se sont développés en raison surtout des pertes civiles causées par ces armements et de leur « violence lente ». Susceptibles de ne pas exploser au moment de leur utilisation, ces mines et munitions restent enterrées et actives après la période de guerre, ce qui tue et mutile des civils, pollue les souterrains, constitue un fardeau financier pour le déminage et freine voire empêche les activités socio-économiques (par exemple l’agriculture).

Une dégradation inquiétante

Le problème est que, dernièrement, tout cet édifice normatif construit ces soixante dernières années s’effrite et se trouve menacé de disparition.

En 2019-2020, les États-Unis se retirent des traités INF et Open Skies. Le traité Open Skies, signé en 1992, permet aux États membres d’effectuer des vols de surveillance non armés sur le territoire des autres signataires pour promouvoir la transparence militaire et renforcer la confiance mutuelle. En 2020-2021, la Russie rétorque en faisant de même.

Le New START a également connu une trajectoire accidentée. Lors de sa première présidence, Trump avait refusé à la Russie d’étendre la durée de validité de l’accord, le jugeant trop désavantageux pour les États-Unis. S’il fut ensuite étendu sous l’administration de Joe Biden, la participation de la Russie fait l’objet d’une suspension depuis février 2023, ce qui implique par exemple l’impossibilité d’effectuer des contrôles dans les installations russes (une des mesures de confiance prévues par le Traité). Au vu de la situation actuelle, le renouvellement de New START, prévu pour 2026, ne semble pas acquis.

Les effets de cette érosion normative ne sont pas moins inquiétants parmi les autres États dotés. Prenant acte de ces désengagements et en réaction aux livraisons d’armes des États-Unis à Taïwan, la Chine a fait savoir en juillet 2024 qu’elle suspendait ses pourparlers sur la non-prolifération nucléaire et a entamé une politique d’augmentation de ses arsenaux. Plus récemment encore, Emmanuel Macron a annoncé qu’une augmentation du volume des Forces aériennes stratégiques françaises serait à prévoir.

Le troisième âge nucléaire

Ces décisions ouvrent la voie à ce que certains qualifient de « troisième âge nucléaire ». Cette nouvelle ère, caractérisée par un effritement marqué de la confiance mutuelle, est d’ores et déjà marquée par une nouvelle course aux armements, qui allie politique de modernisation et augmentations quantitatives des arsenaux.

La reprise de la course aux armements ne fait qu’ajouter une couche d’incertitude supplémentaire et de tensions potentielles. Certaines de ces tensions, d’une ampleur plus vue depuis la fin de la guerre froide, se manifestent déjà ces dernières années : en 2017, les États-Unis et la Corée du Nord se sont mutuellement menacés de destruction nucléaire. Et depuis février 2022, la Russie a à multiples reprises brandi la menace d’un usage de la bombe nucléaire afin de dissuader les pays occidentaux de soutenir militairement l’Ukraine.

Dernier danger, non des moindres et qui se trouve décuplé par la reprise de la course aux armements : l’humanité n’est jamais à l’abri d’une défaillance technique des appareils de gestion et de contrôle de l’arme nucléaire.

On l’aura compris : agglomérés, ces facteurs nous font vivre dans une période particulièrement dangereuse. Et cela, d’autant plus que les évolutions concernant les autres types d’armements ne sont pas moins inquiétantes, en particulier dans le contexte des tensions entre la Russie et ses voisins directs liés à l’invasion de l’Ukraine. Certains pays ont quitté (Lituanie) et annoncé vouloir quitter (Pologne et les trois pays baltes) les conventions interdisant l’usage des mines anti-personnel et des bombes à sous-munitions. Même si, comme la Russie, les États-Unis n’ont pas adhéré à la convention d’Oslo, la livraison des bombes à sous-munitions à l’Ukraine consolide cette érosion normative globale en participant au déploiement de ces munitions sur les champs de bataille contemporains.

Un effondrement normatif injustifié à tous points de vue

Pour justifier le retrait ou la transgression des conventions internationales sur la limitation des armements (et des pratiques guerrières illégales plus généralement), l’argument principalement avancé est le suivant : cela permet de mieux dissuader et de mener la guerre plus efficacement.

Autrement dit, pourquoi prendre le risque de se mettre en position d’infériorité stratégique en s’astreignant à des limites que des pays qui nous sont hostiles ne se donnent pas la peine de respecter ? Pourquoi ne pas augmenter son seuil de brutalité, partant de l’idée que, dès lors, on aura plus de chances 1) de dissuader l’ennemi de nous déclarer la guerre et 2) si la dissuasion échoue, de sortir vainqueur du conflit ?

Cette réflexion, qui peut sembler cohérente au premier abord, repose en réalité sur une lecture simpliste des rapports politiques et des dynamiques guerrières. C’est une idée infondée et lourde de conséquences, à la fois pour la stabilité internationale, pour l’avenir de l’humanité et pour l’état environnemental de notre planète. Trois raisons permettent de donner corps à ce constat.

Tout d’abord, le fondement rationnel du démantèlement de cet appareil normatif est questionnable. Le nucléaire est un exemple frappant, à commencer par le Traité INF. Rappelons que, selon les estimations, l’usage de « quelques » centaines de bombes nucléaires suffirait à mettre en péril la quasi-entièreté de la vie sur Terre, par la combinaison de l’effet explosif et du cataclysme climatique qui s’en suivrait. En d’autres termes, les stocks post-guerre froide, même réduits à environ 13 000 aujourd’hui à l’échelle planétaire, sont déjà absurdes dans leur potentiel de destruction. Les augmenter l’est encore plus.

C’est pourquoi nombre d’experts estiment que la décision de Trump de retirer les États-Unis du Traité INF présente bien plus d’inconvénients que d’avantages, au premier rang desquels la reprise (devenue réalité) d’une course aux armements qui n’a pour conséquence que de dépenser inutilement des sommes astronomiques dans des arsenaux nucléaires (qui, rappelons-le, présentent la tragique ironie d’être produits pour ne jamais être utilisés) et de replonger l’humanité dans l’incertitude quant à sa propre survie.

Ajoutons à cela que l’on peut sérieusement douter de la capacité des États à gérer les effets d’une guerre nucléaire sur leurs populations. À cet égard, la comparaison avec l’épidémie de Covid-19 est instructive. Quand on voit que les gouvernements ont été incapables de contenir une pandémie infectieuse, en raison notamment des politiques de restriction budgétaire en matière de santé et de services publics plus généralement, on peine à croire qu’ils pourraient gérer la catastrophe sanitaire et médicale consécutive à des frappes nucléaires.

Passons maintenant au champ de bataille lui-même et à la remise en cause récente des accords sur les mines et les bombes à sous-munitions. S’affranchir de tels régimes n’a guère plus de sens, pour la simple raison que conduire la guerre plus « salement » n’a pas de lien avec une efficacité plus grande dans l’action militaire.

Les exemples historiques abondent, à commencer par les guerres récentes des grandes puissances. En Ukraine, l’armée russe est responsable d’un nombre incommensurable de crimes de guerre et utilise massivement des mines et des bombes à sous-munitions. Pourtant, cette litanie d’atrocités n’a pas amené plus de succès. La Russie s’est embourbée, sacrifie des soldats par dizaines de milliers, et du matériel en masse, pour des gains territoriaux qui restent limités au vu de la consommation en vies humaines et en ressources.

Le bilan de la guerre contre le terrorisme des États-Unis et de leurs alliés dans les années 2000-2010 n’est pas plus reluisant. Sans même compter le volume considérable de ressources allouées aux campagnes du contre-terrorisme militaire, la pratique étendue de la torture, les assassinats ciblés (par drones ou forces spéciales), le développement d’un archipel de centres de détention extra-légaux (type Guantanamo ou Black Sites (prisons secrètes) de la CIA), l’usage de munitions incendiaires en zone urbaine (bombes au phosphore blanc en Irak), tout ce déluge de violence n’a pas suffi à faire de la guerre contre la terreur autre chose qu’un échec cuisant aux conséquences encore aujourd’hui désastreuses.

En somme, effriter le régime d’interdiction des armes non discriminantes ne rend pas la guerre plus efficace mais la rend, pour sûr, plus meurtrière, plus atroce et étend ses effets létaux davantage au-delà de la guerre elle-même en blessant et en tuant encore plus de civils.

Enfin, la destruction de ces régimes de régulation engendrera des conséquences démesurées pour deux autres batailles bien plus essentielles à mener : le maintien de nos démocraties et de l’habitabilité de notre planète.

Éroder ces traités revient à s’aligner sur les pratiques sanglantes des régimes autoritaires, à commencer par la Russie ou même encore la Syrie qui, du temps de Bachar al-Assad et de la guerre civile, avait aussi fait un usage généralisé de mines et d’autres armes visées par ces conventions d’interdiction. Alors que la crédibilité internationale de nos normes démocratiques est déjà significativement écornée du fait de livraisons et soutiens militaires à des pays responsables de massacres, détruire ces régimes de régulation ne ferait qu’encourager plus largement le recours à ces types d’armes par tous les régimes, démocratiques ou non.

Se ressaisir avant qu’il ne soit trop tard

Enfin, et c’est au fond l’enjeu majeur, ces dynamiques augmentent l’inhospitalité de notre planète pour la vie humaine. Si les grandes puissances prenaient un tant soit peu au sérieux l’urgence climatique à laquelle nous sommes tous confrontés, un encadrement bien plus strict des activités militaires existerait dans le domaine.

Les institutions militaires sont responsables d’une pollution considérable et de destructions d’écosystèmes entiers, en raison des destructions environnementales provoquées par les armes/munitions elles-mêmes, de la consommation démesurée d’hydrocarbures et des activités entourant les armes nucléaires (extractions minières, tests, gestion des déchets). La remilitarisation qui s’annonce et l’effritement des traités de limitation des armements ne font qu’accélérer la catastrophe écologique vers laquelle on se dirige. À quoi bon continuer à militariser à outrance une planète qui tolère de moins en moins notre présence ?


À lire aussi : Guerre en Ukraine et destruction de l’environnement : que peut le droit international ?


Pour résumer, les conventions adoptées au cours des décennies passées ont permis de poser quelques limites raisonnables à une destruction humaine et environnementale de masse qui n’a fait que grossir, s’étendre et se normaliser depuis la seconde moitié du XIXe siècle.

Détruire ces régimes de régulation – sous le futile prétexte qu’on ne devrait pas s’imposer des limites que les autres ne se posent pas – ne présente que des désavantages.

Ce détricotage normatif va au-delà de la question seule des armements ; il reflète le mépris grandissant pour nos standards démocratiques et, au-delà, pour le vivant dans son ensemble.

The Conversation

Julien Pomarède a reçu des financements du Fonds National de la Recherche Scientifique (FNRS - Belgique).

13.04.2025 à 13:05

La semi-liberté, solution pour désengorger les prisons et réinsérer les détenus ?

Marion Vannier, Chercheuse en criminologie, Université Grenoble Alpes (UGA)

Le doublement des places en semi-liberté annoncé par Gérald Darmanin, ministre de la justice, interroge. Une politique de réinsertion sera-t-elle menée, ou s’agit-il uniquement de désengorger des prisons surpeuplées&nbsp;?
Texte intégral (1835 mots)

Alors que la surpopulation carcérale pousse le gouvernement à élargir les dispositifs alternatifs, le doublement des places en semi-liberté annoncé en janvier 2025 interroge. Cette annonce sera-t-elle accompagnée de moyens humains, sociaux et territoriaux indispensables à la réinsertion des détenus ?


Le 23 janvier 2025, lors d’un déplacement à l’École nationale de l’administration pénitentiaire (Enap) à Agen, le garde des sceaux, Gérald Darmanin, a dévoilé deux mesures majeures. La première concerne l’ouverture, prévue pour le 31 juillet 2025, d’un établissement pénitentiaire de haute sécurité spécialement réservé aux narcotrafiquants. En parallèle, il a annoncé le doublement des places en semi-liberté d’ici à 2027, pour atteindre 3 000 places au total. Tandis que la première mesure répond à une logique sécuritaire de contrôle et d’isolement, la seconde est présentée comme une réponse pragmatique à la crise de la surpopulation carcérale. Ensemble, ces annonces traduisent une volonté politique de concilier fermeté pénale et ouverture limitée à la réinsertion.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Comment réduire la surpopulation carcérale ?

L’étude des politiques pénales états-unienne a permis d’identifier trois approches principales pour résoudre la surpopulation carcérale : la construction de nouvelles prisons, la libération anticipée des détenus et la modification des lois pour réduire le recours à l’incarcération.

Un exemple récent de cette logique se trouve au Royaume-Uni, avec le programme Standard Determinate Sentences, dit SDS40, qui permettait la libération anticipée de certains détenus après 40 % de leur peine. Les infractions graves, comme le meurtre ou le harcèlement criminel, sont exclues du dispositif. Ce phénomène, qualifié de « bifurcation », vise à concilier des objectifs contradictoires et offrir ainsi un compromis politique, où la volonté de réduire l’emprisonnement pour certains s’accompagne du maintien strict de l’incarcération pour d’autres.

La situation actuelle en France reflète ce mécanisme, à ceci près que l’élément prétendument progressiste, à savoir le doublement des places en semi-liberté, mérite un examen critique. Plutôt que de traduire un véritable engagement structurel en faveur de la réinsertion, le doublement des places en semi-liberté annoncé par Gérald Darmanin semble relever d’un ajustement ponctuel face à la crise carcérale.

Certes, le ministre évoque des moyens supplémentaires, mais les détails concrets sur l’accompagnement social, éducatif ou médical restent flous. En l’absence d’une réforme profonde des conditions de mise en œuvre de la semi-liberté, cette mesure s’apparente davantage à une réponse pragmatique court-termiste qu’à une stratégie cohérente de réintégration et de justice sociale.

Qu’est-ce que la semi-liberté ?

La semi-liberté est un aménagement de peine permettant aux condamnés de quitter un centre de détention à des horaires définis pour exercer des activités extérieures (travail, formation, soins, vie familiale, etc.). Elle est accordée par le juge de l’application des peines] sous certaines conditions, et constitue souvent une phase probatoire avant une libération conditionnelle. Toutefois, la personne demeure en prison : toute absence non autorisée est considérée comme une évasion. Cette procédure a démontré son efficacité en termes de prévention de la récidive.

Les places en semi-liberté se répartissent entre 9 centres de semi-liberté (CSL, établissements autonomes) et 22 quartiers de semi-liberté (QSL, rattachés à un établissement pénitentiaire) soit 1 635 places disponibles en France, d’après la direction de l’administration pénitentiaire (2025).

Selon cette dernière, au 1er janvier 2025, le taux d’occupation était de 88 %, en forte augmentation par rapport à 2021 (68,8 %), ce qui illustre l’essor de ce dispositif. Cependant, la répartition de ces établissements est inégale. Certains se situent en zone rurale, mal desservie par les transports, limitant ainsi les opportunités de réinsertion. D’autres, comme celui de Grenoble bénéficient d’un ancrage urbain facilitant la transition vers la vie civile.

L’octroi d’une mesure de semi-liberté repose sur l’implication active du condamné dans un parcours d’insertion, incluant la recherche de soins, la réparation des dommages, la recherche d’emploi ou la participation à une formation et le maintien des liens familiaux. Cependant, ces efforts individuels ne suffisent pas. Il apparaît évident que l’efficacité de la semi-liberté dépend avant tout d’un accompagnement structuré pour reconstruire une trajectoire stable.

Des services d’insertion et de probation sous-dotés

Cependant, les services pénitentiaires d’insertion et de probation (Spip) en France sont confrontés à une charge de travail excessive et à des ressources financières limitées, ce qui entrave leur capacité à accompagner efficacement les personnes en semi-liberté, comme le montre un rapport du Sénat). Selon les chiffres communiqués par la direction de l’administration pénitentiaire pour 2024, il manque 327 conseillers pénitentiaires d’insertion et de probation, 61 directeurs pénitentiaires d’insertion et de probation, 51 psychologues, 45 coordinateurs d’activités culturelles et 36 assistants de service social.

Bien que le budget de l’administration pénitentiaire ait connu des augmentations, une part significative de ces fonds est allouée à la construction de nouvelles places de prison. Par exemple, en 2023, plus de 680 millions d’euros ont été consacrés à la construction de 15 000 places supplémentaires, avec un coût total estimé à 4,5 milliards d’euros d’ici 2027. Le projet de loi de finances pour 2024 prévoyait une augmentation de 3,9 % des dépenses de fonctionnement des Spip, en lien avec la création de 1 500 emplois, entre 2018 et 2022. Mais le projet de loi des finances 2025, adopté le 14 février, prévoit une diminution du budget alloué aux Spip, passant de 123,2 millions d’euros en 2024 à 121,8 millions d’euros en 2025, suscitant nombre d’inquiétudes quant au fonctionnement des aménagements de peine et de la réinsertion efficace des personnes détenues.

Repenser les parcours de réinsertion

Par ailleurs, il est impératif d’assurer un ancrage local des structures et un accès facilité aux transports, en les implantant stratégiquement selon les opportunités d’emploi. La localisation des centres de semi-liberté ne doit donc pas être aléatoire, mais pensée pour maximiser l’insertion professionnelle et sociale. L’implication des collectivités et des citoyens] est aussi un facteur clé, car elle permet de commencer à tisser des liens qui perdureront entre les personnes détenues et la communauté qu’ils cherchent à réintégrer. La réussite de la semi-liberté repose sur la collaboration entre l’administration pénitentiaire, les acteurs sociaux et les entreprises locales.

Il est enfin crucial que cette collaboration soit conçue de manière à reconnaître les détenus non seulement comme des individus à réhabiliter, à reformer, mais aussi comme des acteurs capables d’autonomie et dotés d’expériences uniques, comme j’ai tenté de le montrer dans l’ouvrage Prisoner Leaders : Leadership as Experience and Institution.

Le débat sur la semi-liberté et le phénomène de bifurcation observé invitent à une réflexion plus large sur le format carcéral. Certaines initiatives internationales, telles que Rescaled et Working in Small Detention Houses (Wish), inspirées des modèles nordiques, montrent l’intérêt de structures spécialisées et intégrées localement. Ces approches favorisent un accompagnement plus personnalisé et une transition progressive vers la liberté.

En France, le programme pilote Inserre suit cette logique en prévoyant la création d’une nouvelle catégorie d’établissement pénitentiaire, axée sur la réinsertion par le travail. La première structure de ce type verra le jour à Arras, en 2026], et illustre une volonté d’adapter les infrastructures carcérales aux défis de la réinsertion.

S’il est essentiel de repenser la place de la réinsertion dans les politiques pénales, en évitant une approche purement punitive, il est crucial d’imaginer la prison non pas comme un espace géographiquement et symboliquement isolé, mais comme une institution intégrée à la communauté, favorisant des liens continus entre les personnes détenues et les acteurs sociaux tout au long de leur peine, et non uniquement à sa fin. Cette nouvelle conceptualisation est fondamentale pour une réinsertion efficace, pour la prévention de la récidive et pour le maintien de la cohésion sociale.


Article écrit avec la collaboration de Céline Bertetto, Patrick Malle, Marie-Odile Théoleyre, Bénédicte Fischer, et Jean-Charles Froment.

The Conversation

Marion Vannier a reçu des financements du fond 'UK Research & Innovation'.

13.04.2025 à 13:05

La flexibilité électrique, ou comment décaler nos usages pour optimiser la charge du réseau

Etienne Latimier, Ingénieur énergies renouvelables électriques et réseaux F/H, Ademe (Agence de la transition écologique)

La hausse à venir de notre consommation électrique ainsi que le développement des énergies renouvelables impliquent d’optimiser davantage l’équilibre entre offre et demande.
Texte intégral (1407 mots)

La « flexibilité électrique », c’est-à-dire la capacité à ajuster production, distribution et consommation sur le réseau électrique pour répondre aux fluctuations de la demande, n’est pas un enjeu nouveau. Ce concept revêt une importance nouvelle face à l’impératif de décarbonation de l’économie. Cela permet par exemple d’éviter que la charge de tous les véhicules électriques au même moment de la journée ne mette en péril la stabilité du réseau.


Les débats sur l’énergie en France voient monter en puissance, depuis quelques mois, la notion de flexibilité électrique. De plus en plus d’entreprises françaises développent des outils dédiés à mieux piloter la demande en électricité.

Comprendre pourquoi cette notion, pourtant ancienne, prend aujourd’hui une ampleur nouvelle, implique d’observer les deux grandes tendances qui dessinent l’avenir du système énergétique français : la décarbonation et le déploiement des énergies renouvelables.

D’un côté, la France poursuit son effort de décarbonation de l’économie dans le but d’atteindre au plus vite ses objectifs de réduction des émissions de gaz à effet de serre. La Stratégie nationale bas carbone (SNBC) vise la neutralité carbone à l’horizon 2050. Cet enjeu requiert d’électrifier un maximum d’usages qui utilisaient des énergies thermiques. En premier lieu la mobilité, en encourageant le passage des véhicules thermiques aux électriques, mais aussi l’industrie, qui s’appuie encore beaucoup sur les fossiles à des fins de production de chaleur, et enfin le chauffage, pour lequel le gaz concerne encore 15 millions de foyers en France.

Malgré des mesures d’efficacité énergétique permises par la rénovation et des gains de rendement menés en parallèle, les nouveaux usages liés à la décarbonation commencent à engendrer une progression globale de la consommation électrique du pays.

De l’autre côté, pour répondre à ces besoins, la France incite au développement rapide des énergies renouvelables, avantageuses sur les plans économique et environnemental.

La Programmation pluriannuelle de l’énergie (PPE), actuellement en consultation, table sur une évolution de la part des énergies renouvelables dans le mix de production électrique française qui passerait de 25 % en 2022 à 45 % environ en 2050.

Piloter l’offre et la demande

Ces énergies se caractérisent par une production plus variable. En ce qui concerne le photovoltaïque et l’éolien, ils ne produisent d’électricité que lorsqu’il y a du soleil ou du vent. L’électricité étant difficile à stocker, la marge de manœuvre pour répondre à cette variabilité temporelle consiste à agir sur l’offre et la demande.

Jusqu’ici, c’est surtout par l’offre que le pilotage s’opérait, en s’appuyant le volume de production nucléaire et en réalisant simplement un petit ajustement à l’aide des tarifs heures pleines/heures creuses. Désormais, l’enjeu est de piloter l’offre différemment et d’actionner davantage le levier de la demande.

D’où l’utilité de la flexibilité électrique, par lequel le consommateur jouera un rôle plus important par ses pratiques de consommation.

Décaler nos usages

Comme évoqué précédemment, la seule alternative à la flexibilité électrique est le stockage de l’électricité. Or cette méthode est moins vertueuse. Elle présente un coût économique élevé même si le prix des batteries a diminué. En effet leur production engendre, par la pollution qu’elle génère, un coût environnemental peu cohérent avec la démarche de décarbonation menée en parallèle. Sans parler des risques à venir en matière d’approvisionnement, certains des métaux intégrés aux batteries étant considérés comme critiques.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Privilégier la flexibilité la majorité du temps – et garder la possibilité du stockage pour pallier les variations de production intersaisonnières – apparaît donc comme l’option la plus pertinente. L’idée est d’adapter la consommation à l’offre, en évitant de faire transiter l’électricité par des intermédiaires de stockage. Concrètement, cela consiste à viser, lors du suivi, un équilibre constant entre l’offre et la demande, en incitant les usagers à consommer davantage lorsque la production est importante. En particulier, dans le cas du solaire, en pleine journée.

En effet, la production solaire atteint aujourd’hui en France un niveau significatif en journée, même en hiver. Celle-ci est même supérieure à nos besoins au milieu de certaines journées d’été. Le surplus est, dans la mesure du possible, envoyé à l’étranger, mais cela ne suffit pas toujours pour l’utiliser dans sa totalité. Pour résoudre ce problème, la flexibilité électrique consiste à développer la logique des heures pleines heures creuses, en créant d’autres périodes tarifaires qui intègrent de nouvelles heures creuses en cœur de journée. C’est ce que la Commission de régulation de l’énergie commence à mettre en place.

Il s’agit par exemple d’inciter les consommateurs à décaler la recharge du million de véhicules électriques déjà en circulation en France – 18 millions attendus en 2035 – pendant les périodes de production solaire. Dans l’édition 2023 de son bilan prévisionnel, RTE estime que la consommation annuelle des véhicules électriques s’élèvera en 2035 à 35 TWH, contre 1,3 TWh en 2023. Il faudra donc éviter que toutes les voitures se retrouvent à charger en même temps au retour de la journée de travail.

Inciter le consommateur à décaler ses consommations

Encourager de tels comportements implique une incitation économique qui peut passer par des offres de fourniture électrique. Tout comme le tarif heures pleines/heures creuses qui existe déjà, mais dont les horaires vont être petit à petit modifiés.

D’autres offres plus dynamiques, proposant des plages horaires plus précises encore, différenciées au sein de la semaine, de la journée et de l’année, commencent aussi à émerger. L’offre EDF Tempo, par exemple, permet de payer plus cher son électricité pendant une période qui concerne les heures pleines de 20 journées rouges dans l’année, tandis que le reste du temps est plus avantageux financièrement.

La flexibilité électrique existe depuis les années 1980 mais elle peine encore à se développer. En effet, les citoyens sont davantage sensibles à la maîtrise de leur consommation. Les deux sont pourtant complémentaires : il s’agit non seulement de consommer moins mais aussi mieux. Pour cela, il est crucial de rendre ce type d’offres disponibles et surtout le plus lisibles possible pour les consommateurs en montrant leur facilité d’utilisation, même si certaines resteront orientées vers un public plus averti que d’autres.

Pour le consommateur cela implique de prendre certaines habitudes, mais ce décalage partiel de nos usages – lorsque c’est possible – ne concerne pas l’année entière. Surtout, il permet de contribuer à éviter le gaspillage d’électricité tout en réalisant des économies.

The Conversation

Etienne Latimier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

13.04.2025 à 13:03

African Credit Rating Agency : l’Afrique cherche à s’émanciper des agences de notation occidentales

Oussama Ben Hmiden, Professeur de finance, HDR, ESSCA School of Management

L’African Credit Rating Agency (Afcra) devient en 2025 la première agence africaine de notation financière. Une alternative aux grandes institutions comme Standard&nbsp;&amp;&nbsp;Poor’s, Moody’s et Fitch&nbsp;?
Texte intégral (2076 mots)
L’idée de l’Africa Credit Rating Agency (Afcra) est de construire une grille d’analyse qui épouse les réalités du continent, ses défis, mais aussi ses atouts souvent invisibilisés. StudioProX/Shutterstock

L’African Credit Rating Agency (Afcra), portée par l’Union africaine, devient en 2025 la première agence africaine de notation financière. Une alternative aux grandes institutions comme Standard & Poor’s, Moody’s et Fitch ?


L’année 2025 marque un tournant pour la finance africaine, avec le lancement attendu de l’African Credit Rating Agency (Afcra), portée par l’Union africaine. Prévue au second semestre, cette agence de notation continentale ambitionne de proposer des analyses de crédit sur mesure, alignées sur les réalités économiques du continent.

La notation de crédit est une évaluation de la capacité d’un émetteur – que ce soit une entreprise, une institution financière ou un État – à rembourser ses dettes. Elle constitue un instrument utile quant à la prise de décision de la part des fournisseurs de capitaux. Elle équivaut à un passeport pour le crédit offrant la possibilité d’accès à des capitaux étrangers. Dans le contexte d’une économie mondialisée, cet élargissement de l’accès au marché s’accompagne le plus souvent d’une diminution des coûts de financement, notamment au profit des émetteurs qui bénéficient d’une notation élevée.

Pourtant, le débat reste vif. Depuis des années, les notations des agences internationales Moody’s, Standard & Poor’s (S&P) ou Fitch, qui influencent directement le coût des emprunts des États africains, sont au cœur des polémiques. Alors que le continent cherche à attirer davantage d’investisseurs, une question s’impose : ces évaluations conçues à des milliers de kilomètres sont-elles vraiment adaptées aux défis et aux atouts uniques de l’Afrique ?

Oligopole mondial de la notation de crédit

Dans les années 1990, le paysage financier africain était marqué par une asymétrie frappante : seule l’Afrique du Sud arborait une notation souveraine. Quinze ans plus tard, en 2006, près de la moitié des 55 pays du continent – 28 États – restaient encore invisibles sur la carte des agences de notation. Si ces dernières présentent leurs analyses comme de simples opinions, leur impact est tangible : leurs notes influencent directement les décisions d’investissement et les taux d’intérêt appliqués aux États africains.

Leur domination oligopolistique soulève des critiques. Les notations, censées réduire l’asymétrie d’information entre investisseurs et États, sont jugées trop génériques. De nombreux experts et dirigeants africains critiquent des méthodologies de notation jugées inadaptées, car elles peinent à saisir les spécificités des économies locales. Fortement axées sur des données quantitatives, parfois biaisées, elles ne rendent pas toujours justice aux réalités africaines. Le manque de données locales fiables renforce cette limite, laissant place à une subjectivité accrue et à des évaluations menées par des experts souvent éloignés du contexte régional.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Prime de risque africaine

Sur le continent, une frustration grandit : celle d’une « prime de risque africaine ». Exagérée, imposée par des notations jugées trop sévères, elle ne refléterait pas les progrès économiques et structurels réalisés. Une étude du Programme des Nations unies pour le développement (Pnud) estime que cette surévaluation du risque entraînerait des surcoûts d’emprunt de plusieurs milliards de dollars par an pour les pays africains.

D’après ce rapport, la sous-évaluation des notations souveraines par les agences (S&P, Moody’s, Fitch) engendre un surcoût annuel estimé à 74,5 milliards de dollars pour les pays africains, dont, notamment, 14,2 milliards en surcoûts d’intérêts sur les dettes domestiques, 30,9 milliards en opportunités de financement manquées pour ces mêmes dettes et 28,3 milliards supplémentaires pour les eurobonds – des obligations ou titres de créance émis par un pays dans une monnaie différente de la sienne.

Variation entre les trois grandes agences de notation et les scores de la plate-forme Trading Economics
Variation entre les trois grandes agences de notation et les scores de la plateforme Trading Economics. UNDP

Les critiques portent sur deux aspects :

  • Les biais quantitatifs : les modèles standardisés ne reflètent pas toujours les réalités locales, en particulier l’impact des économies informelles. Ils sous-estiment le rôle essentiel des diasporas dans le financement des États. En 2024, selon un rapport de la Banque mondiale, les Africains vivant à l’étranger ont envoyé 100 milliards de dollars vers le continent, soit l’équivalent de 6 % du PIB africain.

  • Les lacunes qualitatives : le manque de données contextuelles conduit à des évaluations subjectives. En 2023, le Ghana a ainsi rejeté sa notation de Fitch, la qualifiant de « déconnectée des réformes en cours ». Plusieurs pays africains ont publiquement rejeté les notations qui leur ont été attribuées au cours des dix dernières années.

L’alternative : Africa Credit Rating Agency (Afcra)

Face à ces limites, une réponse Made in Africa a germé : la création de l’Africa Credit Rating Agency (Afcra), une agence de notation pensée par des Africains, pour des Africains. Portée par l’Union africaine, cette initiative ambitionne de réécrire les règles du jeu.

L’idée est de construire une grille d’analyse qui épouse les réalités du continent, ses défis, mais aussi ses atouts souvent invisibilisés. Au cœur du projet : des méthodes transparentes, nourries par des données locales et des indicateurs taillés sur mesure. Les indicateurs sur mesure pourraient inclure la valorisation des actifs naturels, la prise en compte du secteur informel et des mesures du risque africain réel plutôt que perçu. L’objectif est d’obtenir des notations plus complètes grâce à cette sensibilité contextuelle.

Asymétrie d’information

Les agences de notation se présentent traditionnellement comme des actrices clés pour atténuer les déséquilibres informationnels sur les marchés. Leur promesse est d’éclairer les investisseurs en évaluant les risques de crédit, permettant ainsi des décisions mieux informées. Cette légitimité, acquise au fil des décennies, repose sur un double pilier : l’innovation constante dans leurs méthodes d’analyse et une réputation forgée par leur influence historique sur les marchés.

Un paradoxe persiste. Le modèle économique dominant – où les émetteurs financent eux-mêmes leur notation – alimente des suspicions récurrentes de conflits d’intérêts.

Nos recherches interrogent cette tension à travers une analyse de l’évolution du secteur des agences de notation, des fondements théoriques de son existence et des risques liés à la concentration du pouvoir entre quelques acteurs.

Un constat émerge, l’opacité des critères méthodologiques et la technicité des modèles utilisés nourrissent autant la défiance que la dépendance des marchés. Les agences s’appuient sur des indicateurs quantitatifs – PIB, dette publique, inflation – et qualitatifs – risque politique, transparence gouvernementale –, dont les pondérations varient, aboutissant à des évaluations parfois incohérentes. Pour renforcer leur crédibilité, une exigence s’impose : rendre lisible l’invisible, en clarifiant les processus d’évaluation sans sacrifier leur nécessaire complexité.

Méthologies IA et ESG

Des recherches récentes explorent le potentiel des méthodologies d’intelligence artificielle (IA) et d’apprentissage automatique pour intégrer les facteurs ESG (environnementaux, sociaux et de gouvernance) dans l’évaluation du risque. Ces avancées visent à surpasser les limites des modèles traditionnels en capturant la complexité des relations entre les indicateurs ESG et le risque financier, avec pour objectif de renforcer la précision et la fiabilité des évaluations du risque pour favoriser une allocation du capital plus éclairée et durable.

Pour l’Afrique et l’Afcra, ces approches mettraient en lumière des atouts sous-estimés, comme la résilience du secteur informel ou certaines spécificités institutionnelles. Elles permettraient aussi de mieux comprendre les liens complexes entre les critères ESG et le risque financier propres au continent. L’objectif pour l’Afcra serait de créer des évaluations plus précises et adaptées, réduisant la « prime de risque africaine ».

L’essor d’agences régionales représente une avancée importante vers un système plus équilibré. Pour réussir, les gouvernements africains doivent coordonner leurs efforts, soutenir les initiatives locales et instaurer un dialogue constructif avec les agences internationales. L’Afrique est en marche vers une meilleure souveraineté financière. L’Afcra saura-t-elle relever le défi ?

The Conversation

Oussama Ben Hmiden ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

13.04.2025 à 13:03

Le retour de Murakami : « La Cité aux murs incertains », une plongée troublante entre deux mondes

Anne Bayard-Sakai, Professeure émérite de littératrue japonaise, Institut national des langues et civilisations orientales (Inalco)

Sept&nbsp;ans après son dernier roman, Haruki&nbsp;Murakami revient avec un nouvel ouvrage, «&nbsp;la Cité aux murs incertains&nbsp;».
Texte intégral (1797 mots)
Dans son nouveau roman, Murakami traite un des motifs qui l’obsèdent : les vies parallèles. Alma Pratt/Unsplash, CC BY

Sept ans après son dernier roman, Haruki Murakami revient avec un nouvel ouvrage, la Cité aux murs incertains, travaillant les motifs du réel, de l’irréel et des vies parallèles que nous pourrions mener.

Cet article contient des spoilers.


« Il me serait très délicat d’expliquer à quelqu’un qui mène une vie ordinaire que j’ai vécu pendant un certain temps dans une cité fortifiée. La tâche serait trop complexe », fait dire Haruki Murakami à son narrateur dans son dernier roman, la Cité aux murs incertains, dont la traduction française vient de paraître, deux ans après l’original en japonais. Et pourtant, dans le mouvement même où le narrateur renonce à cette tâche impossible, l’auteur, lui, s’y attelle, pour le plus grand plaisir de lecteurs qui dans l’ensemble mènent, probablement, des vies ordinaires.

Passer d’un monde à un autre, y rester, en revenir, y retourner, disparaître… S’il fallait résumer ce dont il est question ici, ce serait peut-être à cette succession de verbes qu’il faudrait recourir. Les fidèles de cet auteur majeur de la littérature mondiale en ce XXIe siècle le savent : la coexistence de mondes parallèles est l’un des thèmes centraux de son univers, et ce roman en offre une nouvelle exploration. Mais nouvelle, vraiment ? Ces mêmes lecteurs auront peut-être éprouvé en le découvrant une impression de familiarité un peu déconcertante, quelque chose qui relèverait de l’inquiétante étrangeté, l’« Unheimlich », chère à Freud.

« Selon Jorge Luis Borges, il n’existe qu’un nombre limité d’histoires qu’un écrivain peut véritablement raconter avec sincérité au cours de sa vie. En quelque sorte, nous ne sommes capables de traiter ce nombre limité de motifs que sous différentes formes et avec les moyens limités dont nous disposons », précise l’auteur dans une postface destinée à éclairer la genèse du roman.

Précision indispensable, car l’histoire qui nous est racontée ici, Murakami l’a déjà traitée à deux reprises. D’abord en 1980, dans une nouvelle jamais republiée depuis, qui porte le même titre que le roman de 2023 (à une virgule près, comme il l’indique). Puis en 1985, dans une œuvre particulièrement ambitieuse, la Fin des temps.

Abandonner sa propre ombre

Que partagent ces trois textes ? Un lieu hors du temps, une cité ceinte de hauts murs, à laquelle on ne peut accéder qu’en abandonnant sa propre ombre, et où le narrateur occupe la fonction de liseur de rêves. Mais cette matrice romanesque est prise dans des réseaux narratifs très différents, d’une complexité croissante. Si la nouvelle de 1980 est centrée sur la Cité, le roman de 1985 est construit sur deux lignes romanesques distinctes qui se développent dans des chapitres alternés et qui s’ancrent chacune dans un univers singulier dont l’un seulement correspond à la Cité entourée de remparts – toute la question étant de savoir comment ces lignes vont finir par se croiser.

Dans cette amplification ne se joue donc pas seulement une complexification du dispositif : c’est le lien même entre des univers différents qui s’affiche désormais au cœur du dispositif avec, en 2023, ce qui apparaît comme une intériorisation d’univers pluriels et comme introjectés.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Le roman débute avec un amour entre deux adolescents. Celui-ci se noue autour du récit qu’avant de disparaître, la jeune fille fait d’une « cité entourée de hauts murs », dans laquelle vit son être véritable tandis que seule son ombre est présente devant le jeune homme. Pour rejoindre celle qu’il a perdue, celui-ci va donc passer dans la Cité, en acceptant de se séparer de son ombre. Mais il n’y restera finalement pas, revient dans le monde (où il devient directeur d’une bibliothèque – et on sait l’importance et la récurrence de ces lieux dans l’œuvre de l’auteur), jusqu’au moment où, de nouveau, il franchira le mur d’enceinte de la Cité, avant d’en repartir…

Le narrateur est ainsi toujours pris lui-même dans une incertitude, où sa propre identité est remise en question, où la réalité s’effrite : est-il lui-même ou son ombre ? Y a-t-il un monde plus réel que l’autre ? Le narrateur dit :

« Dans ma tête se déroulait un conflit acharné entre le réel et l’irréel. Je me trouvais enserré entre ces deux mondes, à l’interface subtile entre le conscient et le non-conscient. Il me fallait décider à quel monde je voulais appartenir. »

Comme toujours dans les romans de Murakami, il n’y a pas de choix, les personnages ne sont pas maîtres de leur destin, ils sont mis dans l’incapacité de trancher.

« C’est comme si nous nous contentions d’empiler les hypothèses les unes sur les autres jusqu’à ce que, à la fin, nous ne soyons plus capables de séparer les hypothèses des faits »,

dit, à un moment donné, l’ombre et le narrateur, plus loin, d’enchérir :

« Tandis que j’étais là, seul dans la neige blanche, que je contemplais au-dessus de moi le ciel d’un bleu profond, j’avais parfois l’impression de ne plus rien comprendre. À quel monde est-ce que j’appartenais, à présent ? »

cite aux murs incertains Murakami

La question se pose à lui avec d’autant plus d’insistance que cette Cité est une ville racontée, par la jeune fille, par le narrateur, par l’auteur lui-même, que son existence est d’abord celle d’un discours, d’une production imaginaire, d’une fiction.

Mais la vie du narrateur hors de la Cité est, elle aussi, une fiction, celle inventée par l’auteur, d’où, pourrait-on dire, une indétermination sur la teneur en réalité de chacun des mondes, indétermination qui sape les certitudes du lecteur tout autant que celles du narrateur : quel est, en somme, l’univers de référence ? Murakami se garde bien de le dire.

Dans une interview, donnée à plusieurs journaux nationaux à l’occasion de la sortie du roman, Murakami explique :

« Il y a de multiples bifurcations dans la vie. Souvent je me demande ce que je serais devenu si j’avais pris à tel moment tel autre chemin. Dans un autre univers, je serais peut-être toujours patron d’une boîte de jazz. Je ne peux pas m’empêcher de penser que le monde dans lequel je suis, là maintenant, et un autre, qui n’est pas celui-là, sont intimement liés. »

Et il ajoute :

« Conscient et inconscient. Le présent qui est là, et un autre présent. Aller et venir entre ces deux mondes, voilà ce qui est au cœur des histoires que j’écris, et qui ressurgit toujours. Écrire des romans, pour moi, c’est sortir de ma conscience actuelle pour entrer dans une autre conscience, si bien que l’acte d’écrire et le contenu de que j’écris ne font qu’un. »

Si la Cité aux murs incertains occupe une place si cruciale dans son imaginaire qu’il ne cesse d’y revenir, c’est bien en définitive parce qu’elle est l’incarnation même – la mise en mots – de cet ailleurs, du temps, de l’espace, de la conscience, qui est au fondement de sa vision du monde et de son projet d’écriture.

The Conversation

Anne Bayard-Sakai ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

12.04.2025 à 16:57

Le déficit commercial entre les États-Unis et l’Union européenne : un déséquilibre plus structurel qu’il n’y paraît

Charlie Joyez, Maitre de Conférence en économie, Université Côte d’Azur

Quelle est la réalité du déficit entre les États-Unis et l’Union européenne&nbsp;? Quels biens sont concernés&nbsp;? Y a-t-il des évolutions alarmantes&nbsp;? Nos réponses en six graphiques.
Texte intégral (1698 mots)

Pour justifier sa politique unilatérale de droits de douane, le président des États-Unis Donald Trump mobilise le déficit commercial de son pays, notamment vis-à-vis de la « méchante » Union européenne. Quelle est la réalité de ce déficit ? Quels biens sont concernés ? Y a-t-il des évolutions alarmantes ?


L’aversion proclamée de Donald Trump pour les déficits commerciaux l’a rapidement poussé, dès le début de son second mandat, à dénoncer un déficit excessif (bien qu’exagéré) des États-Unis envers l’Union européenne (UE). Le taux historique de 20 % de droits de douane imposé aux importations européennes, annoncé en avril 2025 et suspendu depuis, vise tout d’abord à réduire ce déficit bilatéral. Malgré cette pause dans la politique des droits de douane, il convient d'étudier en détail la composition des causes du déficit entre les États-Unis et l'Union européenne.

Ce déséquilibre commercial entre les États-Unis et l’UE s’est en effet largement et rapidement dégradé ces dernières années, jusqu’à atteindre 169 milliards de dollars en 2023 (données de la base pour l’analyse du commerce international (Baci)), soit environ 0,6 % du PIB des États-Unis cette année-là.

Mais, au-delà de cette dégradation, il est possible de voir des changements structurels à l’œuvre qui sont inquiétants pour les États-Unis et pour leur compétitivité vis-à-vis du partenaire européen.

Aggravation récente du déficit

Le déficit commercial des États-Unis envers l’Union européenne n’est pas récent, et existe dès la création de l’UE au milieu des années 1990. Toutefois, il s’est largement aggravé ces dix dernières années, comme le montre la figure 1 ci-dessous. Cette détérioration s’explique facilement : la demande outre-Atlantique était stimulée par une croissance bien plus forte qu’en Europe.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


En effet, depuis 2008, la croissance cumulée des États-Unis atteint 27 % contre seulement 16 % dans l’UE. Une seconde raison est l’appréciation relative du dollar (inférieur à 0,8 € jusqu’en 2014, autour de 0,9 € depuis), rendant les biens européens moins chers pour le consommateur américain. Réciproquement, cet écart de taux de change limite la compétitivité des biens « Made in USA » sur le marché européen.

Cependant, cette évolution est également structurelle. Cela est visible si l’on regarde la composition des exportations de chacun, comme le reporte la figure 2, ci-dessous.

Les exportations européennes vers les États-Unis ne changent pas beaucoup sur la période, on remarque seulement une augmentation de la part de la section VI de la classification « Harmonized System » correspondant aux industries chimiques (et pharmaceutiques), de 20 % à 30 % du total. Les exportations européennes sont donc surtout concentrées sur les sections VI, XVI (machines et appareils) et XVII (matériel de transport) qui représentent, à elles seules, deux tiers des exportations européennes vers les États-Unis.

Fortes exportations de pétrole

À l’inverse, dans les exportations américaines vers l’UE, la part de l’industrie chimique se maintient (légèrement supérieure à 20 %), mais les autres points forts traditionnels (qui étaient, comme l’Europe, les sections XVI et XVII) diminuent assez sensiblement au profit des exportations de la section V (minéraux) et, tout particulièrement, de pétrole, depuis 2022.


À lire aussi : Décrochage de croissance entre la France, l’UE et les États-Unis : l’urgence d’un choc de productivité


Les exportations états-uniennes deviennent dès lors nettement plus concentrées que les exportations européennes, même si la tendance est notable dès 2020.

Cette concentration des exportations de chaque bloc dans leurs domaines respectifs va de pair avec une diminution du commerce intrabranche, c’est-à-dire de flux croisés (importations et exportations) de biens similaires, comme le montre l’indice de Grubel et Llyod :

Déficit en termes de valeur ajoutée

L’analyse ci-dessus, malgré son intérêt, reste profondément biaisée pour identifier ce qu’il y a d’« états-uniens » qui est consommé en Europe, et inversement. En effet, dans l’économie globalisée actuelle, les biens exportés des États-Unis vers l’UE ne sont pas forcément fabriqués aux États-Unis. À vrai dire, une part non négligeable de la valeur ajoutée de chaque exportation provient de l’étranger, et parfois même du pays « importateur ».

Ainsi une vision plus correcte des déficits bilatéraux consiste à regarder le déficit commercial non plus en valeur brute, mais en valeur ajoutée. C’est toute l’ambition du programme Trade in Value Added (Tiva) de l’OCDE. D’après ces données, qui s’arrêtent en 2020, le solde commercial en valeur ajoutée est encore plus à l’avantage de l’Union européenne à 27 que le solde commercial brut.

Ainsi, le solde commercial en valeur ajoutée diverge de plus en plus du solde commercial brut qui est au centre des discussions. En 2020, le déficit en valeur ajoutée est 1,79 fois supérieur au déficit observé en valeur brute, contre un rapport de 1,06 en 2000 !

Les consommateurs américains consomment donc de plus en plus de la valeur ajoutée créée en Europe – à travers la hausse des importations de l’UE, mais pas seulement. Et si la réciproque est vraie pour les consommateurs européens, jusqu’en 2019, la tendance est nettement moins marquée.

Complexité des biens échangés

Enfin, une dernière dimension à étudier est la qualité des exportations de chaque partenaire dans cette relation bilatérale. En effet, les spécialisations commerciales sont plus ou moins bénéfiques dans le sens qu’elles peuvent favoriser le pays exportateur ou, au contraire, se révéler perdantes pour lui.

Par exemple, un pays dont l’économie s’enferme dans une trop forte spécialisation en biens primaires risque de voir le déclin de l’industrie et à terme de la croissance, comme l’illustre l’exemple du « mal Hollandais » ou les « malédictions des ressources naturelles ».

Ce potentiel bénéfique des paniers de spécialisation a été labellisé « complexité économique ». Il se calcule à la fois pour chaque bien (un bien est-il plus ou moins « complexe » à produire ?), mais aussi au niveau des États (un pays exporte-t-il des biens complexes ou non ?).

Si, au début de la période observée, les scores de complexité des deux partenaires étaient similaires, et ce jusqu’en 2017 (voire supérieurs pour les États-Unis avant 2010), la complexité des biens exportés de l’UE vers les États-Unis augmente tendanciellement depuis 2015, quand elle baisse drastiquement depuis 2017 aux États-Unis. La forte spécialisation des États-Unis dans les combustibles fossiles et l’abandon relatif de la spécialisation dans l’industrie pèse donc sur la complexité des biens échangés.

Et les services ?

Les États-Unis voient donc leur déficit commercial avec l’Union européenne se dégrader fortement depuis dix ans. Cependant, ce déficit apparent est encore moins marqué que le décrochage du commerce en valeur ajoutée entre les deux blocs. Cela va de pair avec une réorientation structurelle des exportations américaines vers une plus grande part de ressources naturelles, qui explique une concentration des exportations, une plus faible part des échanges intrabranches dans le total et un décrochage de la complexité des exportations américaines, qui pourrait à terme profiter à l’Union européenne.

France 24, 2025.

Toutefois, il convient de noter que toutes ces observations ne prennent en compte que le solde du commerce en biens et ignorent la dimension du commerce de services.

On sait déjà que la prise en compte de ce commerce de services réduit des deux tiers le déficit commercial bilatéral des États-Unis avec l’Union européenne, grâce à leurs monopoles dans les nouvelles technologies.

Cependant, cela ne change pas notre conclusion principale, à savoir que ce décrochage dans le solde commercial des biens démontre un changement structurel profond des exportations américaines vers l’UE, qui abandonnent l’industrie de pointe pour se concentrer sur les deux autres extrémités du spectre : les ressources naturelles et les services numériques.

The Conversation

Charlie Joyez ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

12.04.2025 à 16:55

Pour lutter contre la désinformation sur les réseaux, tirer des leçons de la régulation audiovisuelle

Winston Maxwell, Directeur d'Etudes, droit et numérique, Télécom Paris – Institut Mines-Télécom

Nicolas Curien, Professeur émérite honoraire du CNAM, Académie des technologies

L’asymétrie entre la régulation des chaînes de télé et de radio et les réseaux sociaux est de moins en moins justifiée. La régulation pourrait être adaptée pour les algorithmes.
Texte intégral (2054 mots)

Les députés socialiste Thierry Sother et écologiste Jérémie Iordanoff tirent la sonnette d’alarme : l’outil principal de l’Union européenne pour lutter contre la désinformation sur les réseaux, le règlement sur les services numériques (DSA), est une « digue fragilisée ».

De la même façon, Viginum, le service de vigilance et protection contre les ingérences numériques étrangères, décrit la facilité avec laquelle l’algorithme de TikTok a pu être manipulé pour torpiller les élections roumaines et souligne que le même phénomène pourrait se produire en France, à travers TikTok ou d’autres grands réseaux.


La dérive désinformationnelle aujourd’hui observée sur les réseaux sociaux, et en particulier sur X, constitue un sérieux motif d’inquiétude, selon les députés Thierry Sother et Jérémie Iordanoff, qui appellent à mieux mobiliser les armes disponibles, voire à en créer de nouvelles. Le Brésil par exemple n’a pas hésité à interdire X sur son territoire jusqu’à ce que le réseau se conforme aux exigences d’un juge.

À la recherche de nouveaux outils réglementaires, la régulation de la radio et de la télévision, médias depuis longtemps confrontés au problème de désinformation, peut être une source d’inspiration.

Une telle approche nécessiterait d’être adaptée au fonctionnement des réseaux sociaux, en particulier en l’appliquant aux algorithmes de recommandation, qui sont à la source des bulles d’informations qui piègent les internautes.

Une asymétrie réglementaire entre réseaux sociaux et audiovisuel

Comme rappelé dans le rapport parlementaire, le règlement européen sur les services numériques (ou DSA) impose aux grands réseaux sociaux de déployer des outils pour enrayer la désinformation. Le DSA ne les oblige certes pas à vérifier chaque contenu posté par les utilisateurs, mais à mettre en place des mesures techniques appropriées pour réduire l’impact des contenus préjudiciables. Ceci représente une avancée majeure par rapport à la situation antérieure, en établissant un équilibre entre, d’un côté, la liberté d’expression sur les réseaux et, de l’autre, la protection des institutions et des citoyens européens contre des attaques perpétrées par l’intermédiaire de ces mêmes réseaux.

Au titre du DSA, la Commission européenne a entamé des procédures d’enquête et de sanction mais, selon les députés, les effets « tardent à se faire sentir et les investigations tendent à repousser l’action » : de fait, aucune sanction n’a été infligée à ce jour.

Ainsi que l’explique un récent rapport de l’Académie des technologies auquel les auteurs de cet article ont contribué, la désinformation est un phénomène ancien, que les règles de pluralisme ont su endiguer dans les médias audiovisuels, tout en préservant la liberté d’expression.

Dès lors, pourquoi ne pas appliquer ces mêmes règles aux grands réseaux sociaux ? Contrairement à ces derniers, les services audiovisuels sont strictement encadrés : selon le Conseil d’État, l’Arcom doit veiller à ce que les chaînes assurent une expression pluraliste des courants de pensée et d’opinion. Cette autorité a ainsi suspendu, en mars 2022 puis mars 2025, la diffusion de plusieurs chaînes de télévision russes, en raison de manquements manifestes à l’honnêteté de l’information.

Si TikTok était un service audiovisuel, il aurait sans doute déjà encouru de lourdes sanctions, voire des interdictions d’émettre. Pourquoi une telle différence de traitement ?


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Asymétrie de moins en moins justifiée

Trois principales raisons sont invoquées.

Tout d’abord, les réseaux sociaux ne choisissent pas les contenus postés par les utilisateurs, ils ne font que les héberger ; ils ne poussent pas un programme vers des téléspectateurs, les internautes venant chercher les contenus comme dans une bibliothèque. Aujourd’hui, ce motif de non-régulation semble beaucoup moins pertinent qu’au début des années 2000. En effet, les algorithmes de recommandation sélectionnent la plupart des contenus et les dirigent de manière ciblée vers les utilisateurs afin que ceux-ci restent connectés, avec, pour résultat, l’augmentation des recettes publicitaires des plateformes.

Ensuite, les réseaux sociaux n’exercent pas le même impact que la télévision. En 2013, la CEDH a ainsi rejeté l’idée que les réseaux sociaux auraient une influence équivalente à celle de la télévision, en estimant que

« les choix inhérents à l’utilisation d’Internet et des médias sociaux impliquent que les informations qui en sont issues n’ont pas la même simultanéité ni le même impact que celles qui sont diffusées à la télévision ou à la radio ».

Ce raisonnement, recevable au début des années 2010, ne l’est clairement plus aujourd’hui, alors que 53 % des jeunes de 15 à 30 ans s’informent principalement à travers les réseaux sociaux, l’incidence relative de la télévision s’étant significativement réduite.

Enfin, les canaux hertziens de la télévision constituent une ressource rare, propriété de l’État. Les chaînes qui exploitent ce spectre radioélectrique, ce qui n’est pas le cas des services numériques, doivent en retour respecter des obligations de service public, comme le pluralisme. Cet argument perd de sa force aujourd’hui, car l’évolution des marchés numériques a spontanément créé une rareté de choix pour les internautes, en plaçant quelques grandes plateformes en position oligopolistique de gate keepers dans l’accès à l’information.

Si la diversité des contenus disponibles en ligne est théoriquement quasi infinie, leur accessibilité effective est quant à elle régie par le petit nombre des algorithmes des plus grandes plateformes. Le pouvoir né de cette concentration sur le marché de l’accès à l’information justifie pleinement une régulation.

Vers des algorithmes pluralistes…

À l’évidence, la « matière » régulée ne serait pas les contenus postés sur les plateformes par les utilisateurs, mais l’algorithme de recommandation qui organise les flux et capte l’attention des visiteurs. Cet algorithme devrait être considéré comme un service de télévision et se voir imposer des règles de pluralisme, à savoir l’obligation de mettre en avant des informations impartiales et exactes et de promouvoir la diversité des opinions exprimées dans les commentaires.

Si l’idée d’un « algorithme pluraliste » apparaît séduisante, la complexité de sa mise en œuvre ne peut être ignorée. Considérons un individu qu’un algorithme a piégé à l’intérieur d’une bulle informationnelle et qui se trouve donc privé de pluralisme. S’il s’agissait d’un service de télévision, il conviendrait d’inclure dans le flux les points de vue de personnes en désaccord avec les contenus prioritairement mis en avant. Une approche difficile à appliquer à un algorithme, car elle exigerait que celui-ci soit capable d’identifier, en temps réel, les messages ou personnes à insérer dans le flux pour crever la bulle sans perdre l’attention de l’internaute.

Une approche alternative consisterait à accorder une priorité croissante à la diffusion d’informations issues de tiers de confiance (fact-checkers), au fur et à mesure que l’utilisateur s’enfonce dans un puits de désinformation. Ce dispositif s’approche de celui des community notes utilisé par X ; des chercheurs ont néanmoins montré qu’il n’est pas assez rapide pour être efficace.

Selon une troisième approche, les messages provenant de sources identifiées comme problématiques seraient coupés. Ce procédé radical a notamment été utilisé par Twitter en 2021, pour suspendre le compte de Donald Trump ; son emploi est problématique, car la coupure est une procédure extrême pouvant s’apparenter à la censure en l’absence d’une décision de justice.

Mesurer le degré d’artificialité, une approche qui fait ses preuves

Une dernière approche envisageable s’inspire des instruments multifactoriels utilisés par les banques dans la lutte contre le blanchiment de capitaux. Les contenus seraient marqués d’un score de risque de désinformation et les scores élevés « dépriorisés » dans le système de recommandation, tandis que seraient rehaussés les poids des informations issues de sources journalistiques plus fiables.

Le score de risque serait calculé à partir d’au moins deux critères : le degré d’artificialité dans la diffusion du message, indiquant la vraisemblance du recours à des bots ; et le degré d’artificialité dans la création du contenu, indiquant la vraisemblance d’une génération par l’IA. Un tel indicateur double est proposé par l’Académie des technologies dans son rapport. Des outils d’IA vertueux pourraient par ailleurs aider au calcul du score, ou encore à l’identification d’informations de confiance, permettant de contrer les messages litigieux.

Les plateformes objecteront qu’une obligation de pluralisme violerait la liberté d’expression. C’est en réalité tout le contraire : selon la Cour européenne des droits de l’homme, le pluralisme préserve la liberté d’expression et le débat démocratique, en prévenant la manipulation de l’opinion.

Le pluralisme a fait ses preuves dans l’audiovisuel, il est temps désormais de l’appliquer aux grands réseaux sociaux, même si les modalités techniques restent à définir.

The Conversation

Winston Maxwell fait partie du groupe de travail sur l'IA Générative et la mésinformation de l'Académie des Technologies. Il a reçu des financements de l'Agence nationale de Recherche (ANR).

Nicolas Curien est membre fondateur de l'Académie des technologies, où il a piloté en 2023-2024 le groupe de travail "IA générative et mésinformation". Il a été membre du Collège du CSA (devenu Arcom), de 2015 à 2021, et membre du Collège de l'Arcep, de 2005 à 2011.

50 / 50
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Lava
La revue des médias
Le Grand Continent
Le Monde Diplo
Le Nouvel Obs
Lundi Matin
Mouais
Multitudes
Politis
Regards
Smolny
Socialter
The Conversation
UPMagazine
Usbek & Rica
Le Zéphyr
 
  CULTURE / IDÉES 1/2
Accattone
Contretemps
A Contretemps
Alter-éditions
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  IDÉES 2/2
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
Philo Mag
Terrestres
Vie des Idées
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
 
   FIABILITÉ FAIBLE
Contre-Attaque
Issues
Korii
Positivr
Regain
Slate
Ulyces
🌓