LePartisan.info À propos Podcasts Fil web Écologie Blogs REVUES Médias
Souscrire à ce flux
L’expertise universitaire, l’exigence journalistique

ACCÈS LIBRE UNE Politique International Environnement Technologies Culture

▸ les 50 dernières parutions

15.04.2025 à 11:12

Activité physique et santé : aménager nos espaces de vie pour contrer notre tendance au moindre effort

Boris Cheval, Associate professor, École normale supérieure de Rennes

Neville Owen, Distinguished Professor, Swinburne University of Technology and Senior Scientist, Physical Activity Laboratory, Baker Heart and Diabetes Institute, Baker Heart and Diabetes Institute

Silvio Maltagliati, Maître de conférence , Université Bretagne Sud (UBS)

L’inactivité physique est souvent attribuée à un manque de motivation individuelle. Cette perspective minimise le rôle des lieux de vie où les opportunités de bouger sont trop rares.
Texte intégral (2421 mots)

Le manque d’activité physique et la sédentarité sont souvent attribués à un manque de motivation individuelle. Réductrice et contre-productive, cette perspective minimise le rôle crucial des lieux de vie, de travail, de loisirs ou encore d’études, où les opportunités de bouger sont trop rares et celles de rester assis trop nombreuses.


Malgré la prise de conscience des bienfaits de l’activité physique pour la santé physique et mentale, les niveaux d’inactivité continuent d’augmenter dans le monde. L’inactivité physique est l’un des principaux problèmes de santé dans le monde. La France n’est pas épargnée.

Lutter contre la « pandémie » d’inactivité physique

En 2022, 31,3 % de la population mondiale était inactive, contre 23,4 % en 2000 et 26,4 % en 2010. Les adolescents sont particulièrement touchés, puisque, à travers le monde, 80 % des 11-17 ans ne pratiquent pas les soixante minutes d’activité modérée à vigoureuse quotidiennes. À l’échelle mondiale, l’inactivité physique serait responsable de 4 à 5 millions de décès chaque année, soit une vie perdue toutes les six à huit secondes.

En France, la situation est similaire. Un rapport de Santé publique France paru en septembre 2024 montre que les niveaux d’activité restent insuffisants, surtout chez les femmes, les enfants, les adolescents et les populations défavorisées. Selon l’Agence de sécurité sanitaire française (Anses), 95 % des adultes sont exposés à un risque pour la santé du fait d’un manque d’activité physique et d’un temps trop long passé assis (ou sédentarité).


Chaque mardi, le plein d’infos santé : nutrition, bien-être, nouveaux traitements… Abonnez-vous gratuitement dès aujourd’hui.


Pour lutter contre cette « pandémie » d’inactivité et atteindre l’objectif de l’Organisation mondiale de la santé (OMS) qui vise à réduire l’inactivité de 15 % d’ici 2030, il est essentiel de mieux comprendre l’ensemble des facteurs qui influencent l’activité physique. Parmi eux, le rôle de l’environnement bâti et des facteurs sociaux mérite une attention particulière.

À noter que l’environnement bâti (ou built environment, en anglais) désigne l’ensemble des espaces construits ou modifiés par l’être humain, dans lesquels les gens vivent, travaillent, se déplacent et interagissent. Il comprend notamment les bâtiments (résidentiels, commerciaux, industriels, etc.), les infrastructures de transport (routes, trottoirs, pistes cyclables, transports en commun), ou encore les espaces publics aménagés (places, parcs urbains, installations sportives).

L’environnement bâti et les facteurs sociaux : des éléments déterminants

L’activité physique ne dépend pas uniquement de la motivation individuelle, mais résulte d’un ensemble d’influences, allant des caractéristiques personnelles aux politiques publiques.

Le modèle écologique, inspiré des travaux de Kurt Lewin, soutient que le comportement humain se construit à l’intersection de l’individu et de son environnement. Cette approche rejoint le concept d’« affordance » de Gibson (ou « opportunités d’action ») qui montre comment les propriétés d’un environnement peuvent faciliter ou freiner certaines actions.

Le modèle écologique moderne, souvent associé à Bronfenbrenner, précise cette idée en identifiant cinq niveaux d’influence interconnectés : le niveau intrapersonnel (les facteurs individuels tels que l’âge ou les motivations), le niveau interpersonnel (les relations sociales et le soutien familial), le niveau organisationnel (écoles, clubs sportifs), le niveau communautaire (urbanisme, infrastructures) et le niveau politique (réglementations, investissements publics).

Nouveau, la newsletter Science ! Tous les 15 jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique. Abonnez-vous !

Tel qu’il a été appliqué à l’activité physique, ce modèle met en évidence le rôle central de l’environnement bâti. Il est désormais soutenu par un ensemble de preuves internationales. Des infrastructures adéquates – telles que les pistes cyclables, les trottoirs, et les espaces verts – favorisent l’activité physique dans divers contextes (mobilité, loisirs, travail/école, domicile).

À l’inverse, l’absence d’équipements appropriés ou un environnement dominé par des infrastructures favorisant la sédentarité limite ces opportunités. Le modèle écologique souligne également les interactions entre les différents niveaux ; par exemple, un cycliste motivé peut être découragé si les pistes cyclables semblent dangereuses, ou une personne désireuse de nager peut renoncer à cette activité si la piscine la plus proche est trop éloignée.

Des disparités au détriment des zones défavorisées et milieux ruraux

Les inégalités sociales exacerbent ces disparités. Les quartiers privilégiés disposent généralement d’infrastructures sportives modernes, accessibles et sécurisées, tandis que les zones défavorisées sont confrontées à de nombreux obstacles : infrastructures vieillissantes, manque d’espaces dédiés et sentiment d’insécurité.

Ces conditions découragent particulièrement les groupes qui se sentent davantage en insécurité, c’est-à-dire les femmes, les enfants et les personnes âgées. Par ailleurs, ces inégalités se manifestent aussi entre les milieux urbains et ruraux. Dans les territoires ruraux, bien que des espaces naturels existent, l’absence d’aménagements spécifiques et les longues distances jusqu’aux infrastructures limitent les opportunités de pratique physique.

Comprendre la tendance naturelle à minimiser l’effort

La théorie de la minimisation de l’effort en activité physique (Tempa) postule que les êtres humains ont une tendance naturelle à éviter les efforts physiques non nécessaires. Ce mécanisme, profondément ancré au niveau biologique, influence la manière dont nous interagissons au sein de nos environnements.

Cette tendance a des racines évolutives : dans un passé lointain où la conservation de l’énergie était cruciale pour la survie, minimiser l’effort permettait d’optimiser les ressources disponibles, améliorant ainsi les chances de survie et de reproduction.


À lire aussi : Nous sommes programmés pour la paresse


Cependant, dans nos sociétés modernes où la sédentarité est omniprésente, ce mécanisme de minimisation de l’effort, autrefois avantageux, devient désormais un facteur de risque pour la santé. Nous avons tendance à être attirés par des activités peu exigeantes d’un point de vue énergétique, telles que l’utilisation de moyens de transport motorisés ou de loisirs sédentaires comme regarder la télévision.

L’aménagement de nos espaces de vie et de travail renforce cette tendance. Les technologies facilitent les tâches ménagères, réduisant ainsi les occasions de bouger, tandis que les transports motorisés encouragent l’inactivité, même pour de courtes distances.

Enfin, dans le cadre professionnel et scolaire, des environnements peu modulables, avec des bureaux fixes, ne favorisent pas l’activité physique. Par exemple, en France, selon nos calculs, un élève passerait l’équivalent d’une année entière (nuits incluses), en position assise. Ce constat interpelle. Les opportunités sédentaires sont omniprésentes, et ce legs de l’évolution nous incite à nous y adonner naturellement, ce qui rend le maintien d’une activité physique régulière difficile pour beaucoup.

En d’autres termes, il ne faut pas négliger le rôle crucial des environnements dans l’explication de nos comportements, lesquels ne sont pas uniquement régis par des processus rationnels, mais aussi par des mécanismes plus automatiques ou spontanés.

Dans des domaines autres que l’activité physique, la prolifération des fast-foods ou les crises financières aux États-Unis, par exemple, peuvent expliquer en grande partie, respectivement, l’augmentation des taux d’obésité ou les difficultés d’épargne des ménages, comme le rappelle Loewenstein. De même, il serait réducteur de considérer ces phénomènes uniquement comme des questions de motivation individuelle.

Associer l’activité physique à des expériences agréables et motivantes

Le cadre théorique du moindre effort offre une approche novatrice pour concevoir des interventions de santé publique qui favorisent l’activité physique et réduisent le temps sédentaire, en adoptant une double stratégie : faire de l’activité physique l’option comportementale par défaut et garantir une expérience positive dès sa pratique. En réduisant l’accessibilité des équipements qui impliquent une faible dépense d’énergie, par exemple les escaliers mécaniques, on peut encourager des comportements plus actifs. Toutefois, cette approche seule ne suffit pas à assurer un engagement durable.

Et, par ailleurs, il est essentiel que les environnements restent pleinement adaptés aux personnes à mobilité réduite ou avec d’autres besoins spécifiques. Mais les options qui limitent l’activité physique ne doivent pas être celles qui sont rendues accessibles par défaut.

Il est également capital d’associer l’activité physique à des expériences agréables et motivantes, notamment par l’ajustement de l’intensité de l’effort ou l’intégration de stimuli positifs, tels que la musique et des environnements naturels plaisants, pour augmenter le plaisir perçu et diminuer la sensation d’effort.


À lire aussi : Pourquoi mettre en avant ses bénéfices pour la santé ne suffit pas à promouvoir une activité physique régulière


L’efficacité de ces stratégies dépend d’une approche contextuelle et adaptée aux spécificités des différents environnements de vie. De plus, il est indispensable de considérer les inégalités sociospatiales, car l’accès aux infrastructures, ainsi que la motivation des personnes à utiliser ces infrastructures varient selon les conditions de vie. Des interventions ciblées sont nécessaires pour garantir une équitable accessibilité et la promotion d’expériences affectives positives, notamment pour les populations vulnérables.

Repenser l’aménagement des espaces et l’accès aux structures sportives

Il convient de dépasser l’idée selon laquelle l’inactivité physique résulte uniquement d’un manque de motivation individuelle. Repenser l’aménagement des espaces, réguler l’accessibilité aux infrastructures sportives et intégrer l’activité physique dans les politiques publiques constituent des leviers décisifs pour lutter contre l’inactivité physique et la sédentarité.

Ce changement de paradigme, qui intègre notre tendance au moindre effort et le modèle écologique, ouvre la voie à des interventions plus justes et efficaces, notamment auprès des populations les plus vulnérables.

The Conversation

Boris Cheval a reçu des financements de la Chaire de recherche Rennes Métropole et des financements européens (Horizon).

Neville Owen a bénéficié des National Health and Medical Research Council of Australia research grants and fellowships.

Silvio Maltagliati ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

14.04.2025 à 17:40

La recherche en France : comment l’État a (ou n’a pas) financé l’innovation à travers l’Histoire

Jean-Luc Chappey, Professeur d'histoire des sciences, Université Paris 1 Panthéon-Sorbonne

En France, deux parenthèses historiques marquent un réel investissement financier de l’État dans la recherche scientifique et l’innovation technique : la Révolution française et les Trente Glorieuses.
Texte intégral (2242 mots)
Les Trente Glorieuses (1945 à 1973) ont été la seule période de large financement public de la recherche en France au XX<sup>e</sup>&nbsp;siècle. NCI/Unsplash

En France, deux parenthèses historiques marquent un réel investissement financier de l’État dans la recherche scientifique et l’innovation technique : la Révolution française et les Trente Glorieuses.


Entre 1793 et 1794, le gouvernement révolutionnaire parvient à impulser une véritable politique nationale de recherche et développement. Sous la conduite du Comité de salut public où siègent les plus grandes figures scientifiques du moment, les chimistes Guyton-Morveau et Prieur de la Côte d’Or, cette politique de recherche permet aux armées de la République française de résister aux assauts des puissances coalisées, puis de conquérir de nouveaux territoires.

Ce moment particulier de la Révolution se caractérise par une augmentation des financements publics accordés aux activités scientifiques, dont les budgets sont désormais débattus sur les bancs des assemblées.

De la culture du salpêtre nécessaire à la fabrication des munitions à l’utilisation des aérostats comme outils de renseignement aériens, les savants et les ingénieurs bénéficient d’un soutien financier sans égal des autorités, en dépit des réelles difficultés économiques et financières que connaît alors la nation.

S’ils sont encore souvent mal payés et de manière irrégulière, les savants travaillent dans de nouveaux lieux de savoirs (Muséum national d’histoire naturelle ou Conservatoire national des arts et métiers) au sein desquels s’accumulent livres, collections de plantes, de minéraux ou d’instruments confisqués à l’Église et aux émigrés (aristocrates exilés, ndlr) ou spoliés par les armées révolutionnaires.

Sous le Directoire (1795-1799), Paris s’impose comme une véritable capitale des sciences en Europe. La ville attire de nombreux visiteurs qui assistent aux enseignements dispensés dans les nouvelles institutions, comme l’éphémère École normale de l’an III ou la plus durable École polytechnique. Le rôle joué par l’État au cours de la Révolution française tranche nettement avec les régimes antérieurs et postérieurs.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Du XVIIe à la Révolution : faiblesses de financement de l’absolutisme

En effet, auparavant, en dépit de la volonté affichée depuis Jean-Baptiste Colbert de vouloir impulser les recherches scientifiques par le biais de l’Académie royale des sciences (1666), la prise en charge des recherches scientifiques par l’État reste largement insuffisante, même dans les domaines les plus stratégiques (navigation, cartographie, astronomie, physique).

Or, le développement des sciences fondé sur la culture expérimentale repose, dès le XVIIe siècle, sur l’innovation technique et le recours à des machines de plus en plus coûteuses, telle la pompe à air. Les académiciens manquent de moyens et, en dépit d’une augmentation des sommes accordées par Louis XV puis Louis XVI, ne cessent de revendiquer des financements durables.

Obligés de rechercher un deuxième emploi, la grande majorité des académiciens ont recours au patronage de quelques grands mécènes ou aux contributions de savants dont la richesse personnelle leur permet de s’imposer comme de véritables patrons. Le naturaliste-entrepreneur Buffon, directeur du Jardin du roi et propriétaire d’une forge à Montbard, ou le chimiste-directeur de l’Arsenal et fermier général Lavoisier, tous deux, grandes figures de l’aristocratie d’Ancien Régime, mobilisent leur fortune pour pallier les insuffisances du financement royal et consolider leur autorité au sein de l’espace scientifique français et européen.

L’endettement auquel fait face l’État tout au long du XVIIIe siècle empêche la mise en œuvre d’une réelle politique des sciences par la monarchie. Certes, l’expédition de La Pérouse (1785-1788) est une entreprise particulièrement coûteuse, mais elle constitue un simple coup médiatique de Louis XVI dans la lutte à distance que se livrent les puissances impériales, la France et l’Angleterre.

S’ensuit la parenthèse dorée pour la recherche de 1793 à 1799, évoquée plus haut, lors de la période révolutionnaire.

Au XIXe siècle, une indifférence de l’État et des faux-semblants

À son arrivée au pouvoir en novembre 1799, Napoléon Bonaparte confirme l’importance des recherches scientifiques, privilégiant les institutions formant les serviteurs de l’État aux dépens des académies qui restent néanmoins des espaces de débats importants.

Accompagné par l’État qui prend en charge la rémunération des professeurs, le développement des sciences physiques au début du XIXe siècle est indissociable de la construction d’instruments et de machines de plus en plus coûteux. Mais l’argent public ne peut pas suffire à répondre rapidement à ces nouveaux besoins.

La création, par Laplace et Berthollet en 1808, de la Société d’Arcueil, société savante financée par des capitaux privés, a valeur de symbole : devant l’incapacité de l’État à financer les machines nécessaires au développement de la nouvelle physique, les savants se rapprochent des industriels et des banquiers, acteurs du capitalisme naissant, scellant ainsi l’alliance étroite entre les développements des industries et des sciences qui se renforcent tout au long du XIXe siècle.

Sous le Second Empire, le directeur de l’Observatoire de Paris Urbain Le Verrier n’hésite pas à importer des méthodes de gestion des personnels venues de l’industrie et transforme l’établissement en une véritable usine où chaque astronome est payé en fonction du nombre d’étoiles qu’il découvre.

La question des sources de financement des sciences devient une question politique, l’État étant accusé de privilégier le financement des transports et de la rénovation urbaine aux dépens des activités scientifiques. Après le philosophe Charles Jourdain qui se plaint en 1857 des « vicissitudes » structurelles du budget de la recherche et de l’enseignement, Louis Pasteur, dont la carrière s’est construite au croisement des milieux scientifiques et des milieux économiques, met en garde contre la « misère » des laboratoires qui risque d’entraîner le retard de la recherche française.

Deux ans plus tard, la défaite des armées françaises semble lui donner raison. En dépit des mots d’ordre volontaristes du chimiste, devenu ministre de l’instruction publique (1886-1887), Marcellin Berthelot et du vote de subventions supplémentaires aux laboratoires (en particulier dans le domaine médical), les hommes de la IIIe République n’augmentent pas le budget de la science de manière significative. La grande réforme des universités françaises du philosophe et directeur de l’enseignement supérieur (1884-1902) Louis Liard, dans les années 1890, s’appuie largement sur la mobilisation des finances privées.

Le XIXe se caractérise par une réelle indifférence de l’État envers les recherches scientifiques, les efforts financiers étant le plus souvent limités dans le temps et réservés à certains domaines liés à des applications industrielles, agricoles ou médicales, jugées « utiles ». Ni les Lumières ni les républicains des années 1880 qui s’en réclament ne mettent en œuvre une réelle politique scientifique cohérente.

Une seconde parenthèse d’investissement après la Seconde Guerre mondiale

Il faut finalement attendre la seconde moitié du XXe siècle pour assister à un réengagement de l’État en matière de recherches scientifiques.

Au lendemain de la Seconde Guerre mondiale, le financement massif accordé aux activités scientifiques constitue le cœur du redressement national et de la promotion de l’État providence. Impulsées par la création de nouvelles institutions scientifiques (du CNRS en octobre 1939 au CEA en octobre 1945), les sciences fondamentales sont alors considérées comme les supports du développement industriel et économique, des politiques de défense comme la dissuasion nucléaire ou de gestion des populations. L’essor des technosciences participe à la construction du mythe que le progrès sera la réponse à tous les maux.

Le tournant néolibéral des années 1990

Pourtant, dès les années 1990, et en dépit, une fois encore, des déclarations d’intention, les finances accordées aux projets scientifiques et techniques restent très en deçà des attentes. À cette période, de profondes transformations sont opérées. Les politiques néolibérales de Reagan et Thatcher touchent progressivement la France et l’Union européenne à travers une série de réformes des institutions scientifiques et universitaires, dans le cadre du « processus de Bologne ». Celles-ci bouleversent les modalités de gestion de la recherche de la fin des années 1990 aux années 2010.

Parallèlement à la baisse progressive des budgets accordés aux laboratoires et aux unités de recherche, ces réformes valorisent un modèle de recherche sur contrat, souvent de trois ou quatre ans, qui, outre de faire émerger et de consolider la concurrence entre chercheurs et établissements, a pour conséquence de promouvoir l’individualisme et la surenchère de projets de courte durée. Finalement, la compétition scientifique prime sur une réelle politique de la recherche qui, lors de la récente pandémie mondiale, a particulièrement montré ses limites, la France étant incapable de produire un vaccin contre le Covid-19.

Dans ce contexte, l’annonce d’une baisse drastique du budget de la recherche française en 2025 doublée de l’idée, défendue par le président du CNRS d’une « loi vertueuse et darwinienne qui encourage les scientifiques, équipes, laboratoires, établissements les plus performants à l’échelle internationale » constitue une réelle rupture tant avec l’idéal des révolutionnaires de 1793-1794 qu'avec les ambitions des membres du Conseil national de la résistance, réaffirmé en 1954 lors du Colloque de Caen autour de Pierre Mendès-France et défendu, non sans mal, au cours des Trente Glorieuses.

C’est justement parce que les défis actuels (climatologique, environnemental ou médical) obligent à penser de nouvelles formes d’interdisciplinarité que l’État devrait investir massivement dans les sciences et y reprendre un réel pouvoir d’impulsion et de direction.

The Conversation

Jean-Luc Chappey ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

14.04.2025 à 17:39

Tarifs douaniers de Trump : une aubaine économique pour l’Inde

Catherine Bros, Professeur des universités en économie, Université de Tours - LEO, Université de Tours

La guerre douanière peut constituer une aubaine économique pour l’Inde. Spécialisation dans les services, stratégie protectionniste, alternative à la Chine, le pays de Modi devient encore plus incontournable.
Texte intégral (1508 mots)
Le comportement erratique de l’administration états-unienne rend tout partenariat avec l’Inde encore plus désirable pour les Européens, les Africains ou même les Asiatiques. Madhuram Paliwal/Shutterstock

Les droits de douane états-uniens sur les biens indiens passent de 17 % en 2023 à 26 % en 2025. Pourtant, le pays le plus peuplé du monde peut voir dans cette politique agressive des États-Unis une aubaine économique, ce pour trois raisons : sa faible intégration au marché mondial, sa politique d’autonomie stratégique « Atmanirbhar Bharat » et son positionnement d’alternative à la Chine.


Les États-Unis sont le premier client de l’Inde. Ils concentrent 19 % des exportations indiennes. L’Inde s’est considérée comme relativement épargnée par la nouvelle politique douanière américaine dévoilée le 2 avril dernier. Les droits de douane des États-Unis sur les biens indiens passeront de 17 % en 2023, à 26 % en 2025, si le président Trump n’en décale pas une nouvelle fois la prise d’effet…

Ce chiffre de 26 % est bien inférieur aux droits imposés aux autres nations du Sud-Est asiatique, qui, dans une certaine mesure, sont concurrentes de l’industrie indienne. Le Bangladesh, par exemple, se voit imposer des droits de douane à 37 %, le Vietnam 46 % et la Thaïlande 36 %. Certains secteurs clés de l’industrie indienne, comme l’industrie pharmaceutique, sont même exempts de droits supplémentaires. Cette exemption souligne l’importance stratégique des exportations de médicaments génériques de l’Inde vers les États-Unis. Une stratégie douanière à géométrie variable.

L’Inde, qui n’a pas prévu de riposter, a au contraire bon espoir de conclure un accord relativement avantageux grâce aux négociations bilatérales engagées dès février 2025, suite à la visite du premier ministre indien Narendra Modi aux États-Unis.

Réindustrialisation indienne ?

Certains voient dans cette nouvelle politique douanière une occasion pour l’Inde de se réindustrialiser, ce dont elle a grandement besoin pour le développement de son emploi. L’Inde a, au fil des ans, perdu son avantage comparatif dans certains secteurs au profit d’autres pays d’Asie du Sud et du Sud-Est comme le Bangladesh, la Thaïlande ou le Vietnam. Ces derniers font face à des droits de douane plus élevés que l’Inde, et en plus forte augmentation. De quoi susciter un regain de compétitivité pour ces industries indiennes ? Elles nécessiteraient cependant des investissements de long terme.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


La stratégie industrielle indienne a préféré se concentrer sur des secteurs plus avancés technologiquement, en instaurant, au travers du Production Linkes Incentive (PLI) Scheme, des subventions à la création de capacité de production. L’objectif : diminuer sa dépendance aux importations et stimuler ses exportations dans des secteurs prioritaires. Le secteur des semi-conducteurs, par exemple, en a largement bénéficié avec l’espoir, entre autres, de faire de l’Inde un hub manufacturier pour ces produits. Elle espère attirer 27 milliards d’euros d’investissements directs étrangers (IDE). La tâche sera certainement rendue plus ardue par la politique protectionniste états-unienne.

La réindustrialisation indienne doit passer par des réformes réglementaires et des investissements dans les infrastructures. En dépit des substantiels progrès réalisés dans ces domaines, il reste à faire. Dans tous les cas, pour que la politique protectionniste des États-Unis puisse encourager le développement de l’industrie indienne, il lui faudrait être stable ; ce qui ne semble pas être l’orientation première de l’actuelle administration Trump.

Faible intégration au commerce mondial

La participation de l’Inde au commerce mondial des biens est modeste compte tenu de la taille de son économie : la part de marché de l’Inde dans les échanges mondiaux était, en 2023, de 2 %. En dépit d’une balance commerciale de plus en plus excédentaire vis-à-vis des États-Unis, l’Inde a été relativement épargnée par la hausse des droits de douane, en raison, entre autres, de la faible part des importations indiennes (3 %) dans les importations totales américaines.


À lire aussi : L’Inde peut-elle prendre la place de la Chine dans le commerce mondial ?


Son économie, très peu intégrée dans les chaînes de valeur mondiales, sera de facto, moins durement secouée par la nouvelle politique douanière des États-Unis. Si son économie échange peu de biens avec le reste du monde, l’Inde dispose d’un avantage comparatif dans le secteur des services, qui constitue près de la moitié de ses exportations de biens et services. Or, les services sont peu concernés par les droits de douane et restent en dehors du périmètre de la nouvelle politique états-unienne.

Le protectionnisme indien : « Atmanirbhar Bharat »

Le tournant protectionniste des États-Unis peut venir renforcer la conviction du gouvernement indien du bien-fondé d’une faible intégration de son économie dans les échanges mondiaux de biens. L’économie indienne est peu ouverte et sa politique commerciale tend depuis longtemps vers le protectionnisme. Le dernier plan de politique industrielle « Atmanirbhar Bharat » (« Inde autosuffisante ») vise à la fois à la promotion des exportations, mais également à l’autonomie stratégique de l’économie indienne dans bon nombre de secteurs : pharmaceutique, solaire, électronique.

La politique industrielle indienne depuis le programme « Make in India » n’a pas cherché à créer de la croissance par les exportations, mais à attirer les capitaux étrangers pour la création sur le territoire indien de capacités de production à destination, principalement, du marché indien. Les investissements directs étrangers (IDE) ont largement progressé, tout en partant d'un niveau relativement faible : ils étaient à 45,15 milliards de dollars en 2013. En 2022, ils s'élevaient à 83,6 milliards de dollars.

L’Inde plus que jamais courtisée

L’Inde renforce sa position stratégique sur la scène internationale. Son économie attirait déjà les convoitises des investisseurs, grâce à son marché potentiel de 1,4 milliard de consommateurs et son positionnement d’alternative en Asie à la Chine. Le comportement erratique de l’administration Trump rend tout partenariat avec l’Inde encore plus désirable, en particulier pour les Européens.

Nul doute que les pourparlers commerciaux pour un accord entre l’Union européenne et l’Inde, entamés en 2022 et remis sur le devant de la scène par la visite de la présidente de la Commission européenne à New Delhi en février 2025, prendront une autre dimension aux yeux des Européens. L’actuel gouvernement nationaliste indien a considérablement œuvré pour que l’Inde devienne un acteur pivot dans la communauté internationale. Ce rôle de premier plan sur la scène internationale constitue un atout électoral significatif qui devrait renforcer l’influence de Narendra Modi au sein du pays.

The Conversation

Catherine Bros ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

14.04.2025 à 17:38

Devenir propriétaire de son logement : cartographie des (nouveaux) dispositifs

Alexis Laszczuk, Professeur associé de management stratégique, ESSCA School of Management

Et si la crise du logement illustrait l’épuisement de l’alternative propriétaire ou locataire. De nouvelles offres émergent, multipliant les possibilités d’accession à la propriété.
Texte intégral (1782 mots)

Et si la crise du logement illustrait l’épuisement de l’alternative propriétaire ou locataire. De nouvelles offres émergent, multipliant les possibilités d’accession à la propriété.


La crise du logement met en évidence des tensions entre dynamiques économiques et sociales. Bien essentiel, le logement devient un facteur d’inégalités croissantes. La hausse des taux d’intérêt entre mi 2022 et début 2024 a rendu l’accession à la propriété difficile pour de nombreux ménages français.

En 1980, la France comptait 50 % de propriétaires. Aujourd’hui, la proportion atteint 58 % (voir graphique) soit très en dessous de la moyenne européenne de 70 %. L’Angleterre et les États-Unis sont à 65 %. Avec un marché locatif saturé et 2,5 millions de demandes en attente dans le secteur social, les fractures générationnelles, sociales et territoriales se creusent.

De nouveaux modèles

Pour répondre à cette situation, diverses pistes émergent afin de faciliter l’accès à la propriété. Entre innovations et remises au goût du jour de solutions anciennes, des initiatives publiques et privées se multiplient. Cependant, cette offre complexe peut perdre les particuliers, confrontés à des décisions lourdes et chargées émotionnellement.

Cet article décrypte les nouvelles solutions disponibles, analyse leurs propositions de valeur et explore les mécanismes sous-jacents de leurs modèles d’affaires.

Le démembrement de propriété consiste à diviser la propriété en deux. D’un côté, la nue-propriété (ou le droit de disposer du bien, c’est-à-dire qu’il peut vendre ou transmettre le bien, mais ne peut l’utiliser ni en percevoir les fruits comme des loyers) et l’usufruit (droit d’utiliser le bien et d’en percevoir les revenus). Ce mécanisme, utilisé pour l’investissement et la transmission patrimoniale, permet au nu-propriétaire d’acquérir un bien à moindre coût, tandis que l’usufruitier en tire des revenus ou un usage temporaire, avec des avantages fiscaux pour les deux parties.


À lire aussi : Fiscalité, la cause oubliée de la crise du logement


Dans le cadre de l’achat immobilier, ce dispositif permet à un particulier d’acquérir la nue-propriété à un coût réduit, tandis qu’un autre acteur (souvent un bailleur) détient l’usufruit pour une durée définie. Pendant cette période, l’usufruitier perçoit les loyers ou occupe le bien, sans charges pour le nu-propriétaire. À la fin du démembrement, ce dernier récupère la pleine propriété, souvent valorisée. Idéal pour préparer une résidence future ou investir avec une meilleure rentabilité, le démembrement élimine également les contraintes de gestion locative.

Un coût d’accès réduit à la propriété

Une autre piste d’innovation est la dissociation foncier-bâti, qui sépare la propriété du terrain de celle du logement. Dans ce cadre, l’acquéreur devient propriétaire du bâti, tandis que le terrain appartient à une entité publique, privée ou associative, moyennant une redevance modeste. Ce modèle permet de réduire le coût d’accès à la propriété en excluant le foncier souvent très onéreux en zone urbaine, et limite la spéculation immobilière en encadrant la revente du logement par des clauses inscrites dans le bail. Courant au Royaume-Uni, cette solution est adoptée en France par les organismes de foncier solidaire (OFS) via le bail réel solidaire (BRS), garantissant une offre durable de logements abordables.

Un exemple notable est la Foncière de la Ville de Paris, créée pour faciliter l’accès à la propriété des ménages à revenus moyens. La Foncière conserve la propriété des terrains, tandis que les logements construits dessus sont vendus sous le régime du BRS, permettant aux acquéreurs de devenir propriétaires du bâti à des prix maîtrisés, environ 5 000 €/m2, soit la moitié du prix du marché parisien. Les acquéreurs paient une redevance pour l’occupation du terrain, réduisant le coût global et préservant l’accessibilité financière sur le long terme.

Le co-investissement dans le secteur du logement repose sur un principe simple : plusieurs acteurs unissent leurs ressources pour financer des projets immobiliers. Ces acteurs peuvent inclure des institutions publiques, des investisseurs privés, des entreprises ou des particuliers. En mutualisant les fonds et les compétences, ce modèle permet de partager les risques et de réaliser des projets souvent inaccessibles individuellement, tels que la construction de logements sociaux, de résidences étudiantes ou des programmes de rénovation urbaine. Les partenariats public-privé illustrent bien cette approche, combinant fonds publics et privés pour créer des logements abordables.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Accompagnement personnalisé

Dans un contexte de besoins croissants en logements, certains acteurs adaptent le co-investissement à la construction et à la vente de logements à destination des particuliers. Par exemple, Virgil aide les jeunes actifs à accéder à la propriété sans un apport personnel important. L’entreprise finance jusqu’à 25 % du prix d’achat sans exiger de loyers ni de mensualités sur cette part, préservant ainsi la capacité d’emprunt des acquéreurs. En complément, elle propose un accompagnement personnalisé : évaluation du budget, aide à la négociation du prêt, et formalités administratives. Ce soutien global simplifie le parcours immobilier et renforce la confiance des primo-accédants. Virgil se rémunère en récupérant sa mise réévaluée lors de la revente ou du rachat des parts, ainsi qu’une indemnité annuelle de 1 % par tranche de 10 % investie. Son modèle « asset-light » limite le capital immobilisé et diversifie les projets.

Face à la flambée des prix immobiliers et à la faible attractivité de l’investissement locatif, le modèle classique « usage contre loyer » montre ses limites, créant une inadéquation entre valeur d’usage et valeur d’échange. Inspiré du leasing automobile, un modèle hybride émerge, combinant propriété partielle, redevance fixe sur vingt-cinq ans et sécurité d’usage. Ce système veut offrir une alternative accessible et flexible, répondant aux besoins des ménages tout en garantissant des conditions financières attractives aux investisseurs.

Arte, 2024.

La flexipropriété permet un accès progressif à la propriété. L’acquéreur peut acheter une part initiale du bien, par exemple 20 %, tout en disposant de l’usage complet du logement. Le reste est détenu par un investisseur (bailleur social, promoteur ou banque), et l’acquéreur verse une redevance pour la part non possédée. Il peut ensuite racheter progressivement des parts supplémentaires selon ses capacités financières, jusqu’à atteindre la pleine propriété.

Un apport initial limité

Ce dispositif présente plusieurs avantages : il réduit le montant initial nécessaire pour devenir propriétaire, permet d’occuper le logement dès l’achat des premières parts et offre une montée en propriété adaptée aux ressources du ménage. Par exemple, Neoproprio propose un modèle où l’acquéreur finance 50 % du prix du bien et signe un bail emphytéotique de 25 ans, en versant une redevance annuelle réduite. Il occupe le logement comme un propriétaire tout en limitant l’apport initial et les mensualités. À l’issue des 25 ans, il peut lever une option d’achat au prix du marché ou quitter le dispositif avec une partie de la plus-value.

Au travers de ce dispositif, l’entreprise se rémunère grâce à la redevance annuelle versée par l’acquéreur (1,2 % de la valeur du bien) et à une part de la plus-value en cas de revente anticipée. Le modèle repose également sur une marge réalisée lors de l’achat et la gestion des biens via des fonds immobiliers partenaires. Ce mélange d’innovation financière et d’accompagnement personnalisé propose une solution à la fois rentable et adaptée aux besoins des ménages.

Persistance de freins

Plusieurs raisons expliquent que ces modèles d’acquisitions alternatifs soient moins plébiscités que l’achat immobilier classique. D’abord ils sont souvent perçus comme complexes en raison des montages juridiques et financiers qu’ils impliquent, ce qui peut décourager les particuliers. De plus, le manque de connaissance et de compréhension de ces dispositifs, ainsi que la dépendance à des tiers, introduisent des incertitudes supplémentaires. Enfin, ces modèles sont souvent perçus comme plus risqués ou moins sécurisés que l’achat classique, notamment en termes de revente et de valorisation du bien.

En synthèse, nous cartographions ces modèles d’accession à la propriété selon deux dimensions clés pour les particuliers souhaitant acquérir un logement : d’une part, le degré de propriété du bien, qui se situe entre la location et la pleine propriété ; d’autre part, le niveau de régulation exercé par les pouvoirs publics sur ces dispositifs.


Cet article a été rédigé avec Sylvain Bogeat, président de Métropoles 50.

The Conversation

Alexis Laszczuk est membre de Métropoles 50, think tank sur les métropoles, les territoires et leurs transitions.

14.04.2025 à 17:38

Choisir ou être choisi : ce que le sport révèle des logiques sociales à l’adolescence

Raffi Nakas, Chercheur associé au laboratoire ECP (Éducation, Cultures, Politiques), Université Lumière Lyon 2

Dans les cours d’éducation physique et sportive, le travail en équipe fait ressortir affinités ou clivages entre élèves. Ces dynamiques sont loin d’être anecdotiques.
Texte intégral (1750 mots)

Dans les cours d’éducation physique et sportive, les relations entre élèves se retrouvent au centre de la scène. Il suffit d’un travail en équipe pour que des affinités ou des clivages s’expriment. Tel élève est toujours choisi, tel autre peine constamment à se faire une place sur le terrain. Or, ces dynamiques, sous-tendues par des logiques sociales, sont importantes pour l’estime de soi.


Il y a dans les cours de récréation, les salles de classe ou les couloirs des collèges et des lycées, comme une chorégraphie invisible : des regards qui s’évitent ou s’accrochent, des silences parfois lourds de sens. À l’adolescence, les liens se tissent comme des toiles fragiles et mouvantes. Loin d’être le fruit du hasard, ces affinités obéissent à des règles sociales implicites, des logiques de genre, de statut, de performance ou encore d’origine.

Dans ce monde en miniature qu’est l’école, les relations entre adolescents racontent une histoire. Ces dynamiques, souvent jugées anecdotiques, sont en réalité structurantes : elles déterminent l’estime de soi, le sentiment d’appartenance, parfois plus.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


À l’école, une discipline est au cœur des interactions des élèves : c’est l’éducation physique et sportive (EPS). Il suffit en effet d’un travail en équipe et certaines alliances se dévoilent sans fard, des clivages s’expriment, des affinités et des exclusions se matérialisent en direct, visibles de tous. Certains vont être choisis et d’autres pas…

Les regroupements spontanés ou non en EPS (éducation physique et sportive) obéissent à des règles implicites qui méritent d’être décryptées.

Des logiques sexuées dans les espaces sportifs

Dès l’appel, les groupes se dessinent : d’un côté les garçons, souvent agités, compétitifs, de l’autre, les filles soit discrètes soit bavardes, repliées a priori dans un entre-soi rassurant.

À l’adolescence, le corps devient enjeu de regard. L’espace sportif exacerbe cette visibilité. On y est jugé, évalué non seulement sur ses performances, mais sur sa manière d’habiter son corps. La force, la vitesse, l’initiative – souvent perçues comme naturelles chez les garçons – sont valorisées. Les filles, elles, doivent composer avec une attente contradictoire : participer, mais sans excès, se donner à voir, mais sans s’exposer. Souvent, d’ailleurs, les filles ont d’autres objectifs que le gain, la victoire ou la performance en EPS.

Les normes de masculinité et de féminité pèsent sur les affinités : les garçons populaires évitent d’être vus avec des élèves « trop scolaires » ; les filles en rupture s’affichent entre elles, dans une sororité marginale, mais forte.

En pratique, les activités dites « masculines » (football, rugby) cristallisent les attentes viriles. Les filles qui s’y risquent doivent redoubler d’adresse ou d’ironie pour exister sans être moquées. À l’inverse, des garçons qui préfèrent la danse ou l’acrosport doivent se justifier, bricoler une posture de « dérision active » pour ne pas être exclus du cercle viril.

La ségrégation genrée n’est jamais aussi visible qu’en EPS et parfois même renforcée implicitement par les enseignants eux-mêmes avec des injonctions en apparence anodine du style : « allez, les filles, on se dépêche ! »

Le statut scolaire… et performatif

La constitution des groupes en EPS suit des logiques implicites. Les plus à l’aise physiquement se regroupent, dominent l’espace, imposent leur rythme, contestent les règles. Les moins à l’aise cherchent à s’effacer, à se faire oublier dans les marges du terrain, à ne pas exposer leurs lacunes si visibles au moment de marquer le point ou le panier.

Les élèves en difficulté scolaire peuvent retrouver une forme de légitimité dans la performance physique là où les « bons élèves » peuvent parfois être stigmatisés. L’EPS constitue un microcosme social où les hiérarchies habituelles peuvent être bouleversées, redistribuant les cartes du « prestige adolescent ».

Dans les sports collectifs par exemple, le moment de formation des équipes révèle une cartographie impitoyable du tissu relationnel de la classe. Les plus performants sont choisis en premier, dessinant une véritable hiérarchie visible aux yeux de tous. Cette sélection publique peut être vécue comme un rite de passage, particulièrement douloureux pour ceux systématiquement choisis en dernier. Ainsi, là où l’enseignant croit souvent à une forme d’autonomie, il expose en réalité les corps à l’épreuve du choix ou du non-choix : ne pas être choisi, c’est comprendre qu’on ne compte pas vraiment…

Dans le même temps, quand l’élève qu’on n’imaginait pas excellent est reconnu comme légitime, cette reconnaissance crée des ponts temporaires qui transcendent les stéréotypes et ouvrent des brèches dans la ségrégation ordinaire : l’EPS peut donc offrir des espaces de revalorisation pour certains élèves. La popularité se construit à l’intersection de certaines variables, parmi elles, la conformité aux attentes du groupe.

Le filtre de la variable sociale

Les enfants de milieu favorisé ont souvent des réseaux d’amis plus étendus, une capacité plus grande à naviguer dans les codes de la sociabilité scolaire. Ce capital invisible, mais décisif, participe à la socialisation secondaire. Le corps révèle alors les inégalités parfois plus crûment que le langage.

En maîtrisant les codes, en connaissant les règles et les attendus, une asymétrie socialement située se construit. Ces élèves, dont les familles encouragent les pratiques sportives et la performance, ont plus confiance en eux et répondent plus facilement aux attentes scolaires. In fine, ils tissent plus de liens que leurs camarades de milieux plus défavorisés.


À lire aussi : La compétition éloigne-t-elle les filles du sport ?


Par exemple, dans les activités physiques où il faut construire un enchaînement comme l’acrosport ou la danse, les élèves qui ont les codes ont des facilités à créer des collectifs de travail. À l’inverse, ceux qui font du « bruit », qui s’agitent, qui ne répondent pas aux normes de l’école, ont plus de mal dans ce type d’activités à sortir de « leur groupe social ».

On joue, on court, on coopère avec ceux qui nous ressemblent ou plutôt avec ceux qui partagent les mêmes codes. Sous couvert de neutralité, l’EPS prolonge alors une culture où l’espace de travail devient le lieu de reproduction symbolique des inégalités.

L’éducation physique et sportive, un révélateur de mécanismes d’inclusion et d’exclusion

L’adolescence dessine une carte relationnelle en perpétuelle reconfiguration, où s’entrecroisent des influences multiples. Le genre, l’origine sociale, le statut scolaire ne sont pas des variables isolées, mais des forces qui interagissent constamment.

Dans cette géographie mouvante, certains adolescents, comme des explorateurs, traversent différents territoires avec aisance. D’autres, plus sédentaires, construisent leur identité dans des espaces plus circonscrits. Ni l’une ni l’autre de ces stratégies n’est intrinsèquement meilleure, elles répondent à des besoins différents, à des contextes particuliers.


À lire aussi : L’amitié fait-elle toujours du bien aux adolescents ?


L’EPS, par sa dimension corporelle et émotionnelle, agit comme un révélateur puissant des mécanismes d’inclusion et d’exclusion à l’œuvre dans le monde adolescent. Elle offre également, par son caractère collectif, des opportunités uniques de tisser des liens transcendant les frontières habituelles des groupes d’affinités. En effet, en modulant les groupes et les objectifs, l’enseignant d’EPS peut aussi contribuer à faire travailler tous les élèves ensemble.

Il suffit souvent de dissocier le jeu de l’enjeu, de mettre en avant d’autres logiques que la victoire ou la performance pour permettre aux élèves de découvrir d’autres modalités de pratique comme l’empathie ou l’entraide et désacraliser en conséquence le fait de ne pas être choisi ou d’être choisi en dernier.

The Conversation

Raffi Nakas ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

14.04.2025 à 17:36

« Make Religion Great Again » : la place de la religion dans l’État trumpien

Laurie Boussaguet, Professeure des Universités en science politique, European University Institute, chercheure associée, Sciences Po

Florence Faucher, Professeure de sciences politiques (Centre d’études européennes), Sciences Po

Donald Trump a créé au sein de la Maison Blanche un «&nbsp;bureau de la foi&nbsp;». Aussi surprenant que soit ce décret, il est passé inaperçu.
Texte intégral (2223 mots)
Photo postée par la Maison Blanche, le 8&nbsp;février 2025, annonçant la création du Bureau de la foi, avec à sa tête la télévangéliste Paula&nbsp;White-Cain (en blanc, à droite). Compte X de la Maison Blanche

Le 7 février dernier, Donald Trump a créé au sein de la Maison Blanche un « bureau de la foi », chargé de renforcer la place de la religion aux États-Unis. Que signifie la création de cette nouvelle instance, et que dit-elle de l’administration Trump 2 ?


Depuis sa prise de fonctions, Donald Trump multiplie les annonces et signe des décrets à tour de bras. Lorsque le président des États-Unis prend des décisions, la mise en scène est toujours très soignée, comme le 20 mars dernier quand la Maison Blanche a été transformée en salle de classe pour la signature du décret visant à éliminer le ministère de l’éducation ou, début février, quand le chef de l’État s’est entouré de jeunes femmes et de fillettes au moment de promulguer le décret de « protection du sport féminin » contre les sportives transgenres. Autant de séances photos que les médias ne manquent jamais de relayer, soulignant la dimension « symbolique » des décisions du président.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Toutefois, et contrairement au sens commun qui assimile souvent le symbolique à une communication dépourvue d’effets concrets, ces politiques visent à transformer en profondeur l’État et la société. C’est tout particulièrement le cas en ce qui concerne la politique religieuse de la nouvelle administration, avec la création à la Maison Blanche d’un « bureau de la foi » (White House Faith Office (WHFO)), chargé de faire des recommandations au président et de consulter sur diverses questions des leaders religieux, qui a autorité sur l’octroi de subventions publiques aux institutions religieuses développant des activités sociales d’aide aux plus démunis.

Or, ces mesures sont passées quasi inaperçues dans les grands médias. À qui cette politique religieuse s’adresse-t-elle exactement ? Et pourquoi n’en a-t-on que très peu entendu parler ?

Deux discours fondateurs

Les 6 et 7 février 2025, deux semaines à peine après son retour à la Maison Blanche, Trump enchaîne les discours sur des thèmes religieux, accordant une grande place au christianisme conservateur, à ses chantres et à sa vision du monde. Le nouveau président mobilise à cette occasion de nombreux symboles (gestes, images, récits, citations des textes sacrés) facilement reconnaissables par une société états-unienne qui fréquente assidûment les églises.

La séquence s’ouvre, le 6 février 2025, par un premier discours de Trump lors du National Prayer Breakfast, qui se tient tous les ans au Capitole. Proclamant que « l’Amérique est et sera toujours une nation sous le regard de Dieu », il multiplie les références à des figures historiques des États-Unis n’ayant pas eu peur d’affirmer leur foi, notamment George Washington, « qui appelait souvent les Américains à se rassembler pour prier », et le « grand Roger Williams, qui a créé l’État de Rhode Island et nommé sa capitale Providence, et qui a construit la première église baptiste en Amérique ».

Répétant à plusieurs reprises la formule « Bring religion back » (« Faire revenir la religion »), Trump se présente en restaurateur de la tradition religieuse historique spécifique aux États-Unis.

Enfin, en écho à son discours d’investiture du 20 janvier 2025, quand il déclarait avoir été « sauvé par Dieu », lors de la tentative d’assassinat dont il avait été la cible le 13 juillet dernier, il annonce que cet épisode a été pour lui une épiphanie :

« Ça a changé quelque chose en moi… quelque chose s’est produit. »

Un tel récit fait écho aux récits de « renaissance », caractéristiques de l’imaginaire religieux des chrétiens évangéliques, et rapproche Trump des communautés conservatrices qui sont attentives à toute déclaration d’un renouvellement de la foi ; il se présente ainsi comme l’un d’eux, et non plus seulement comme un de leurs alliés politiques.

Le même jour, Trump prononce un second discours, lors d’un National Prayer Breakfast alternatif, organisé à l’hôtel Hilton de Washington. Il s’agit en fait du lieu originel où se tenait le NPB, mais il a été décidé en 2023 de déplacer l’événement au Capitole pour contester la trop grande emprise des chrétiens conservateurs sur la Maison Blanche et le Congrès.

L’organisation conservatrice à l’origine de cette tradition continue toutefois de maintenir l’événement au Hilton. Face à ce public très conservateur, Trump adopte un ton plus partisan : il se félicite d’avoir « éliminé le wokisme » au cours des deux semaines écoulées et annonce la prochaine création d’un « bureau de la foi » à la Maison Blanche.

Le décret instituant le Bureau de la foi : texte et image

Quelques heures plus tard, il signe un décret qui crée un groupe de travail visant à mettre fin aux mesures « antichrétiennes » de l’administration Biden, telles que les poursuites pénales par le ministère de la justice visant des personnes ayant bloqué l’accès aux cliniques pratiquant des avortements.

Ce décret, qui évoque implicitement la persécution des chrétiens sous l’Empire romain, introduit une équivalence entre leur sort et l’expérience vécue par les communautés évangéliques aux États-Unis. Ce narratif puissant construit une image déformée de la réalité, selon laquelle les chrétiens seraient une minorité opprimée, alors que près des deux tiers des habitants des États-Unis se réclament du christianisme et que des décennies de politiques publiques ont visé à limiter les discriminations à l’égard d’autres groupes sociaux.

Le lendemain, 7 février 2025, est signé le décret présidentiel qui instaure le Bureau de la foi de la Maison Blanche (acronyme en anglais, WHFO). Les gestes symboliques accompagnant cette décision sont nombreux, à commencer par le choix de la dénomination de cette nouvelle structure. Alors que ses versions précédentes s’appelaient « Bureau des initiatives confessionnelles et communautaires » (sous G. W. Bush, au moment de sa création) ou « Bureau des partenariats confessionnels et de quartier » (sous Obama), le bureau est désormais exclusivement celui de la foi. Or, la foi est caractéristique du christianisme alors que d’autres religions parlent simplement de croyances et insistent sur la pratique religieuse ou l’appartenance à une communauté.

Par ailleurs, si l’octroi de subventions publiques à des institutions privées, notamment religieuses, n’est pas nouveau, l’élimination de la référence aux communautés ou aux quartiers l’est, ce qui focalise l’attention sur la seule dimension religieuse. Ce nouveau bureau est également investi d’une mission de conseil auprès de la Maison Blanche, donnant aux chrétiens conservateurs une voie d’accès privilégiée au président et à son équipe.

La désignation des membres du nouveau WHFO est en outre significative : c’est la télévangéliste Paula White-Cain qui le dirige. Conseillère spirituelle de Trump de longue date et fervente opposante des politiques antidiscriminatoires, elle a œuvré dès son premier mandat au rapprochement de la Maison Blanche avec de nombreux groupes confessionnels évangéliques.

Enfin, la photo officielle accompagnant l’annonce de la signature de ce nouveau décret sur les réseaux sociaux de la Maison Blanche (voir en tête du présent article) peut être lue comme une image religieuse de facture très classique.

On y voit Trump au centre, assis à son bureau et entouré de plusieurs personnes en train de prier. Les figurants sont des pasteurs et prédicateurs évangéliques, dont des conseillers de son premier mandat. Certains ont apposé leurs mains sur le président ou les étendent dans sa direction, d’autres les ouvrent vers le ciel, d’autres encore les tiennent dans un geste de recueillement, et tous ont le regard et la tête baissés. La mise en scène est efficace et le message explicite : Trump est le héros qui va permettre le retour de la foi chrétienne au cœur de l’État.

On ne peut pas douter des intentions de Trump, martelées tout au long de la campagne présidentielle. Il affirmait devoir « sauver la religion dans ce pays » et n’hésitait pas à dépeindre l’élection comme une guerre sainte opposant la figure de proue de la chrétienté (lui-même) à la supposément antichrétienne Kamala Harris, qui est pourtant baptiste.

Bien sûr, la création du WHFO, en sa qualité de décision fédérale, concerne l’ensemble du pays. Mais elle répond plus particulièrement aux attentes des communautés religieuses qui ont largement voté pour Trump – 72 % des chrétiens blancs lui ont en effet donné leur voix, et le taux s’élève à 81 % chez les électeurs évangéliques et pentecôtistes. Rien de surprenant donc à ce qu’il adopte le point de vue et le programme de ces chrétiens qui l’ont porté au pouvoir. Sa politique religieuse est une récompense à leur soutien.

Une mesure insuffisamment remarquée

Le relatif désintérêt que l’instauration du Bureau de la foi de la Maison Blanche a suscité dans le débat public est frappant. Si les médias confessionnels ont relayé l’information, peu de médias généralistes s’en sont saisis, comme si cette information, noyée dans le flot d’annonces spectaculaires de la nouvelle administration, n’était finalement qu’un signal adressé à son électorat, une mesure « symbolique » aux effets négligeables.

Or, cette politique est significative et transformatrice. Elle institutionnalise la présence des religieux conservateurs au sein du gouvernement fédéral. Elle s’appuie sur des pratiques symboliques empruntées au répertoire évangélique. Elle remet en question la séparation de l’Église et de l’État aux États-Unis. Et elle révèle que le pouvoir entend désormais tirer sa légitimité du soutien privilégié d’une communauté identifiée, plutôt que des procédures démocratiques.

En somme, elle modifie le régime politique, à commencer par la neutralité confessionnelle, et impose des représentations collectives sur les pratiques appropriées à adopter, qui ne seront pas sans impact sur la vie quotidienne des citoyens américains.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

14.04.2025 à 17:35

Quel serait le « bon moment » pour changer de Constitution ?

Carolina Cerda-Guzman, Maîtresse de conférences en droit public, Université de Bordeaux

En France, tous les changements de Constitution eurent lieu après des crises majeures&nbsp;: guerres, révolutions ou coups d’État. Mais sommes-nous condamnés à réécrire le texte constitutionnel dans le tumulte&nbsp;?
Texte intégral (2295 mots)

En France, depuis 1789, tous les changements de Constitution eurent lieu après des crises majeures : guerres, révolutions ou coups d’État. Mais sommes-nous condamnés à réécrire le texte constitutionnel dans le tumulte ? L’exemple du Chili, qui a mené un processus constituant entre 2019 et 2023, permet de dépasser certaines idées reçues.


Depuis la dissolution de l’Assemblée nationale, le 9 juin 2024, la Ve République française traverse une période de forte instabilité. En 2024, quatre premiers ministres différents se sont succédé : Élisabeth Borne, Gabriel Attal, Michel Barnier, puis François Bayrou. Une première depuis 1958. Pourtant, cette République est fondée sur une Constitution que l’on présente souvent comme le cadre idéal pour garantir la stabilité du pouvoir exécutif. Si le texte qui fonde les institutions n’est plus à même d’assurer cette stabilité, se pose alors une question redoutable : faut-il envisager un changement de Constitution, et ce, dès maintenant ? Plusieurs éléments rationnels plaident pour ce changement et des modalités concrètes pour y procéder ont été formulées.

Face à cette hypothèse un argument revient pourtant de manière récurrente : le moment du changement n’est pas encore là, car les Constitutions sont des textes que l’on ne change qu’en cas de crise grave, lorsqu’il n’y a pas d’autre issue, lorsque les institutions sont paralysées. Ainsi, le « bon moment » pour changer de Constitution serait nécessairement une période troublée. Sommes-nous vraiment condamnés à écrire des Constitutions dans le tumulte ?

Les biais de l’histoire constitutionnelle française

Cette tendance à associer chaos et rédaction d’une nouvelle Constitution résulte en grande partie de l’histoire constitutionnelle de la France. Il faut reconnaître que sur ce point la France dispose d’une expérience particulièrement riche. Depuis la Révolution, il y a eu au moins 15 textes constitutionnels différents (16 si l’on ajoute les actes constitutionnels adoptés sous Vichy entre le 11 juillet 1940 et le 26 novembre 1942). En comparaison, les États-Unis d’Amérique n’en ont connu qu’une : celle rédigée par la Convention de Philadelphie en 1787. Certes, ce texte a été enrichi de 27 amendements, mais la Constitution française, née en 1958, en est déjà à sa 25ᵉ révision (la dernière en date étant celle du 8 mars 2024, relative à la liberté de recourir à l’interruption volontaire de grossesse).


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Or, que nous apprend cette foisonnante histoire constitutionnelle française ? Que les changements de Constitution arrivent généralement dans trois hypothèses majeures : soit en cas de révolution (les Constitutions de 1791, 1793, 1795, 1830 ou 1848 en sont des exemples), soit en cas de coups d’État (les Constitutions de 1799 ou de 1852 en attestent), soit après une défaite militaire et après la Libération (les Constitutions de 1814, 1875, de Vichy, puis celle du gouvernement provisoire de 1945 sont nées de ces contextes). L’actuelle Constitution est, quant à elle, née après un putsch militaire à Alger en mai 1958.

Ainsi, on tend à considérer que toute bascule constitutionnelle ne peut s’opérer que dans le cadre d’une crise majeure et existentielle, qui conduit à réassigner la source du pouvoir. C’est lorsque le pouvoir passe du monarque au peuple ou du peuple à un nouvel homme (plus ou moins providentiel) que l’on rédige une nouvelle Constitution. Le passé constitutionnel français empêche d’imaginer un changement constitutionnel apaisé, respectueux du cadre démocratique et du droit, où régneraient le dialogue et la concorde.

Les leçons issues des expériences étrangères

Si l’on prend l’Histoire comme une loi implacable, vouée à se répéter éternellement, cela impliquerait que, si un jour, l’on devait changer de Constitution, ceci ne pourrait se faire qu’au prix d’une rupture avec le droit en place. Dit autrement, la naissance d’une VIe République supposerait une violation du cadre établi par la Ve République. Or, il y a quelque chose de perturbant à se dire que, pour aboutir à un meilleur régime démocratique, l’on soit obligé de passer par un non-respect du droit existant. Non seulement, c’est problématique lorsque l’on est attaché au respect du droit et à la démocratie, mais c’est aussi fâcheux sur un plan plus utilitariste. L’illégalité de la naissance peut entacher durablement le texte, et donc constituer un handicap pour sa légitimité. Mais, en réalité, le plus gênant est qu’il n’existe nullement une telle fatalité en droit constitutionnel.

Toute constitution ne naît pas nécessairement du viol de la constitution qui l’a précédée et il est tout à fait possible de penser un changement constitutionnel respectueux du droit existant. De fait, il existe des pays où le texte constitutionnel anticipe déjà le processus à suivre. En effet, il arrive que des textes constitutionnels mentionnent les étapes à respecter pour un changement complet de Constitution et distinguent ainsi une révision partielle (changement de certains articles) d’une révision totale (changement complet du texte) de la Constitution. C’est le cas, par exemple, de la Suisse (articles 193 et 194), de l’Espagne (article 168) ou de l’Autriche (article 44). Ainsi, selon ces textes, il n’est pas nécessaire d’attendre que les institutions s’effondrent pour les rebâtir.

Ce que nous enseigne l’exemple chilien

Le raffinement des techniques d’élaboration des Constitutions tout au long du XXe siècle permet d’envisager un dépassement de l’histoire constitutionnelle française et de rejeter l’idée que les changements constitutionnels ne peuvent naître que dans des moments de crise existentielle.

Toutefois, il est certain que, pour que la bascule s’opère, une force favorable au changement constitutionnel est nécessaire. Il faut que cette force prenne corps et s’exprime à l’occasion d’un événement social, politique ou économique. Ainsi, si le changement de Constitution n’exige pas un effondrement du système, un événement nécessairement perturbateur doit le déclencher. Celui-ci peut être grave et destructeur, mais il peut être aussi plus minime.

Dans son essai Sortir de la Ve. Pour une fabrique citoyenne de la constitution, (éditions du Détour, décembre 2024), la juriste Carolina Cerda-Guzman propose des pistes pour une nouvelle Constitution plus inclusive et plus démocratique. CC BY

Pour ne prendre qu’un exemple, le Chili, celui-ci a connu un processus constituant entre 2019 et 2023. Ce processus débute par l’annonce d’une nouvelle hausse du prix du ticket dans la capitale. Très rapidement, les rues de Santiago se sont noircies de manifestants. Au moment où la demande d’un changement de Constitution est exprimée par la rue, les institutions chiliennes n’étaient ni bloquées ni paralysées. Il n’y avait même pas de crise politique majeure à cet instant. La hausse du prix du ticket de métro a été en réalité une étincelle, qui a constitué un point de focalisation d’un mécontentement plus profond, et a mis en mouvement une force favorable au changement constitutionnel.

Les manifestants se sont alors spontanément assemblés en « cabildos », qui est le nom donné au Chili à toute réunion de citoyennes et de citoyens traitant de questions d’intérêt commun. La reprise en main par la citoyenneté de la discussion constitutionnelle a contraint les partis politiques, puis l’exécutif, à enclencher un processus de changement de constitution participatif. Pour ce faire, une procédure en forme de sablier a été mise en place. L’idée étant que la participation populaire soit la plus large possible en début et en fin de processus mais qu’au milieu, donc lors de la rédaction du texte à proprement parler, la tâche soit confiée à un groupe plus restreint d’individus.

Ainsi, le processus a officiellement débuté par un référendum invitant le corps électoral à confirmer son souhait de changer de Constitution. Puis, une Assemblée constituante a été élue, composée à égalité de femmes et d’hommes (une première dans l’histoire mondiale), chargée de rédiger le projet de Constitution.

Enfin, ce texte fut soumis à un référendum pour approbation. Dans la mesure où le processus chilien s’est soldé, le 4 septembre 2022, par un rejet du texte, il ne peut être un exemple à suivre à la lettre. Pour autant, il prouve que la discussion constitutionnelle peut surgir à tout moment.

En France, nul ne sait quel sera cet élément déclencheur ni quand il adviendra. Il peut avoir lieu demain, dans quelques mois voire des années. Pour autant, plusieurs événements (la crise des gilets jaunes en 2018, les mouvements sociaux contre la réforme des retraites en 2019‑2020 puis en 2023, les émeutes et violences urbaines de juin 2023, le mouvement des agriculteurs en janvier 2024, ou même, avant eux, Nuit debout en 2016 ou le mouvement des bonnets rouges en 2013) laissent à penser qu’il peut survenir à tout moment. Si chercher à l’anticiper est vain, il est tout aussi faux de penser qu’il existe un « bon moment » pour changer de Constitution.

Le « moment constituant » n’est jamais bon ou mauvais en soi, il advient ou n’advient pas. Surtout, il ne naît pas nécessairement de la volonté d’un homme providentiel ou à la suite de l’effondrement d’un système, il peut naître de la demande, certes contestataire, mais raisonnée de citoyennes et de citoyens.

The Conversation

CERDA-GUZMAN Carolina est membre du conseil d'administration de l'Association française de droit constitutionnel.

14.04.2025 à 17:35

Pollution, environnement : la résilience de nos cellules menacée, un risque de mauvaise santé

Christian Neri, Directeur de Recherches INSERM, Inserm

Divers mécanismes protègent nos cellules des stress variés qu’elles subissent, nous prémunissant des maladies. Toutefois, divers indices semblent indiquer que ces capacités de résistance pourraient être menacées.
Texte intégral (2444 mots)

Divers mécanismes protègent nos cellules des stress variés qu’elles subissent, nous prémunissant des maladies. Toutefois, divers indices semblent indiquer que ces capacités de résistance pourraient être menacées.


Toutes les cellules des êtres vivants sont dotées de mécanismes de compensation qui leur permettent de s’adapter au stress. Ce dernier peut être soit inhérent au fonctionnement normal des organismes vivants (en fonctionnant, les cellules peuvent produire des substances délétères pour elles-mêmes), soit induit par l’exposition à des facteurs environnementaux (stress aigus résultant de traumas ou d’infections, stress chroniques dus à la pollution, aux températures extrêmes, à des relations sociales délétères…).

Cette compensation cellulaire, en garantissant la résilience des tissus, constitue l’assurance de notre capacité à nous prémunir des maladies. Le vieillissement se traduit par une érosion des capacités de compensation et de résilience de nos cellules.

Or, notre environnement, lorsqu’il est dégradé par les pratiques industrielles, atteint l’intégrité de ce mécanisme au même titre que le vieillissement, ce qui peut nous fragiliser avant l’heure. Cet amoindrissement est un danger de vie en mauvaise santé. Se saisir du problème passe par la conscientisation du mécanisme qui est à la racine de cet amoindrissement.

Qu’est-ce que la résilience ?

Le concept de résilience recouvre les capacités à surmonter les altérations provoquées par des éléments perturbateurs dans des situations variées.

Une forme bien connue de résilience concerne la récupération après un stress particulièrement agressif, comme la résilience psychologique mise en lumière par le neuropsychiatre Boris Cyrulnik. Issu de la physique, le concept de résilience traverse désormais de nombreuses disciplines, de l’économie à la psychologie en passant par l’écologie ou l’informatique. On parle aujourd’hui de la résilience des systèmes logistiques (eau, énergie, transport) ou des systèmes de santé.

Mais la résilience ne concerne pas que « l’après-crise », c’est aussi les capacités à surmonter le stress qui affecte un système ou un individu de manière discrète, voire silencieuse, avant la survenue du pire.

Stress et résilience du vivant

Le vivant est en permanence confronté au stress cellulaire. La réponse au stress cellulaire (notamment lors du développement et de la reproduction) est un garant d’adaptation et d’expansion d’une population donnée.

Un stress faible peut stimuler la longévité des cellules. Cependant, un stress excessif, par exemple sous l’effet de facteurs environnementaux, peut éroder les capacités de résilience cellulaire. Or, l’érosion de ces capacités est au centre du vieillissement des tissus. C’est un risque « corps entier », car les organes communiquent entre eux. Par exemple, le microbiote intestinal communique avec le cerveau et son altération peut être préjudiciable au cerveau. C’est un risque « vie entière », car la réussite de la réponse au stress cellulaire traite des phases critiques de l’existence comme la reproduction (taux de natalité), la grossesse (santé du fœtus) ou le développement de l’enfant.

Penser la résilience du corps sous l’angle de la récupération, une fois le pire survenu, c’est sous-estimer le préjudice que les pratiques industrielles et les pollutions air-sol-eau-aliments font encourir à notre santé. C’est enfermer toujours plus d’individus dans la perspective d’une mauvaise santé dont l’échéance est incertaine, mais qui surviendra trop tôt et trop fort.

En revanche, penser la résilience du corps comme un mécanisme toujours à l’œuvre, c’est pouvoir lutter contre ce qui empêche nos tissus d’être résilients, c’est pouvoir améliorer la précaution et la prévention.

Les mécanismes de résilience cellulaire

Ces mécanismes ne sont pas seulement ceux qui nous protègent contre les infections (comme l’immunité, par exemple).

Il s’agit aussi des mécanismes d’intégrité cellulaire, par exemple la réparation de l’ADN – dont l’altération présente un risque de division anarchique des cellules et de cancer, d’élimination des protéines présentant des défauts de fabrication ou abîmées par l’oxydation naturelle des tissus –, ou bien il peut s’agir de la production d’énergie nécessaire au fonctionnement des cellules, par exemple dans les mitochondries.

Ces mécanismes sont cruciaux dans les cellules qui ne se renouvellent pas, ou peu, comme les neurones du cerveau et du système nerveux central. Leur échec va sans doute de pair avec la transition des stades légers à sévères des maladies. Par exemple, la progression de la maladie de Huntington est marquée par la transition d’une phase de « compensation fonctionnelle » vers une phase de « décompensation », avec des mécanismes de résilience cellulaire qui ne parviennent plus à compenser les dommages neuronaux, un modèle qui vaudrait aussi pour la maladie d’Alzheimer.

Mais ce n’est pas tout : les mécanismes de résilience cellulaire sont au centre du vieillissement des tissus.

Au cours des trente dernières années, au moins douze caractéristiques du vieillissement ont été identifiées, dont certaines traitent directement des mécanismes de résilience cellulaire, comme la réduction de la fonction des mitochondries ou de l’autophagie (élimination des déchets intracellulaires), l’altération de l’intégrité de l’ADN et des protéines, et l’augmentation de la sénescence cellulaire, dans un modèle où le vieillissement serait principalement dû à une accumulation de mutations génétiques, accompagnée par une érosion épigénétique.

Il existe donc un solide faisceau de présomptions pour penser que ces mécanismes s’opposent aux effets du vieillissement et à la survenue des maladies chroniques.

La résilience cellulaire mise en péril

L’affaiblissement avant l’heure de la compensation cellulaire s’oppose aux bénéfices que l’on s’attend à voir découler de l’adoption d’une « bonne » hygiène de vie visant à réduire la charge de morbidité en agissant sur des facteurs de risques dits « modifiables », tels que l’alimentation, la sédentarité, les addictions, les lieux de vie, l’hygiène au travail, ou encore l’isolement social.

À ce titre, toute perturbation des mécanismes de résilience cellulaire par les polluants, directement (par exemple en altérant la réparation de l’ADN, l’autophagie), ou indirectement (par exemple en favorisant des mutations dans l’ADN est un risque de vie en mauvaise santé à plus ou moins brève échéance.

Au vu de l’étendue et de la gravité du problème (comme, par exemple, dans le cas des PFAS en Europe et aux États-Unis), il s’agit aussi d’un risque de « manque à gagner » systémique pour la société.

Dans un tel contexte, éviter que les pratiques industrielles érodent toujours plus nos capacités de résilience cellulaire est une responsabilité qui oblige tous les acteurs concernés, et cette responsabilité est proportionnelle à la puissance des acteurs. Mais comment prendre en compte ce risque majeur ?

Mesurer la résilience

À l’heure actuelle, on estime la résilience individuelle contre la survenue ou la progression d’une maladie à partir du poids, plus ou moins important selon les personnes, des facteurs de susceptibilité. Ceux-ci ne sont pas biologiques stricto sensu, mais souvent comportementaux (tabagisme, alcoolisme), conjoncturels (proximité d’une usine, solitude) ou socioprofessionnels (revenus, mobilité). Cependant, l’absence d’un facteur de susceptibilité ne signifie pas forcément que l’on soit résilient.

Intégrer les facteurs de résilience cellulaire en plus des facteurs de susceptibilité lorsqu’il s’agit d’évaluer le risque de vie en mauvaise santé pourrait fournir des modèles de prédiction plus robustes. Mais il faut pour cela disposer de marqueurs fiables de la résistance cellulaire, ce qui n’est pas chose aisée.

Les marqueurs les plus précis sont souvent des marqueurs biologiques (biomarqueurs). Idéalement, ils sont simples à mesurer (par exemple dans le sang ou les urines). Un biomarqueur de résilience doit rendre compte de l’état d’un mécanisme de compensation ou de l’intégrité d’un élément essentiel des cellules.

Il en existe relativement peu à ce jour, et la mise au point d’un nouveau biomarqueur est coûteuse. Elle repose notamment sur des données collectées sur le temps long, grâce à des cohortes de grande taille, comme par exemple Inchianti, Constances ou le UK Brains Bank Network.

Actuellement, l’oxydation de l’ADN, un marqueur indirect de l’intégrité de cette molécule essentielle,est l’un des biomarqueurs potentiels à l’étude. Dans ce contexte, de nouveaux outils sont explorés, par exemple les horloges épigénétiques, dont un pionnier est le chercheur Steve Horvath aux États-Unis.

Cet outil détecte certaines modifications chimiques de l’ADN (les méthylations, autrement dit l’ajout d’un groupement méthyle sur certaines parties de la molécule d’ADN) pour mesurer un « âge épigénétique ». Celui-ci, qui témoigne du vieillissement des tissus, est en quelque sorte un âge « biologique », et peut différer de l’âge chronologique.

Il est important de souligner que cet outil ne permet pas encore de mesurer l’âge biologique de tout le monde : il n’est pas validé pour cela, étant encore au stade des recherches.

Changer de paradigme

L’enjeu, aujourd’hui, est de réduire les maladies chroniques de façon globale, et de sortir des réponses ponctuelles. Or, le modèle actuel, focalisé sur les « maladies avérées », limite la portée de la prévention et l’anticipation des coûts sociétaux. En effet, les coûts cachés sont sous-évalués, voire ignorés.

Mettre au centre des réflexions sur la prévention la mise en péril d’un mécanisme fondamental de vie en bonne santé (nos capacités cellulaires à nous prémunir des maladies) pourrait constituer un vecteur de transformation des politiques de santé publique.

Les données scientifiques qui justifient cette mutation s’accumulent, y compris des données épidémiologiques à forte granularité géographique (celles-ci ont notamment été mises en lumière ces dernières années par diverses enquêtes menées par certains journalistes d’investigation).

Cette nécessaire transformation est cependant entravée de diverses manières (monopoles, lobbying industriel, accords bilatéraux, désinformation, manipulations des études, relégation au second plan des questions de santé, priorités budgétaires, ou encore sous-dimensionnement des acteurs de la vigilance…). Ces obstacles limitent notre capacité à adopter une politique santé-responsable, alors même que le dépassement des capacités de résilience cellulaire pourrait s’inscrire dans un modèle de risques « en chaîne », les pollutions chimiques s’accompagnant d’une santé figée à un niveau médiocre, résultant en des coûts systémiques accrus.

The Conversation

Christian Neri a reçu des financements de l'ANR, de CNRS Innovation, et de fondations (FRM, Association Huntington France, Hereditary Disease Foundation, Fondation CHDI). Christian Neri est membre du bureau de sociétés savantes en France (Président de la FSEV) et à l'étranger (ISEV).

14.04.2025 à 17:34

Que sont les GPU, cette technologie à laquelle on doit l’essor des jeux vidéo et de l’IA ?

Jonathan Rouzaud-Cornabas, Maître de conférences au Laboratoire d'informatique en image et systèmes d'information, INSA Lyon – Université de Lyon

Les GPU ont permis l’explosion des jeux vidéo dans les années&nbsp;1990 puis de l’IA depuis vingt&nbsp;ans. Ils permettent de faire certains calculs plus rapidement que les processeurs classiques.
Texte intégral (1939 mots)

Les GPU ont permis l’explosion des jeux vidéos dans les années 1990 puis de l’IA depuis vingt ans. Ils permettent de faire certains calculs plus rapidement que les processeurs classiques.


Les progrès massifs dans le domaine de l’intelligence artificielle doivent beaucoup à un type de composant informatique, les GPU, pour graphical processing unit – à tel point que l’on considère aujourd’hui Nvidia, le plus grand concepteur de GPU au monde, comme un acteur clef du marché de l’IA avec l’une des capitalisation boursière la plus élevée de tous les temps. Revers de la médaille, ses actions en bourse ont dévissé quand une entreprise chinoise, DeepSeek, a annoncé pouvoir faire des calculs avec moins de GPU que ses concurrents.

Les GPU ont émergé dans les années 80, avant d’exploser avec le marché des jeux vidéo. Si on trouve aujourd’hui un GPU dans de nombreux ordinateurs personnels et surtout dans les consoles de jeux, il faut des dizaines de milliers de GPU pour faire tourner les plus gros systèmes d’IA dans des fermes de calculs dédiées.

Le marché des GPU est très concentré, tant au niveau de la conception, de la fabrication et de la fourniture (le nombre de GPU produits étant très largement inférieur à la demande), qu’au niveau de l’hébergement (ces fermes nécessitant une expertise rare). Ils sont donc devenu un enjeu géostratégique – avec des investissements en centaines de milliards aussi bien aux USA qu’en France, mais aussi un conflit commercial majeur entre les États-Unis et la Chine.

Qu’est-ce qu’un GPU ?

Les GPU existent depuis le début des années 80 ; mais leurs principes fondamentaux datent des années 60, quand les « processeurs vectoriels » ont émergé. Ceux-ci ont été conçus pour traiter de grands tableaux de données (un tableau à une dimension s’appelle un vecteur, d’où le nom de « processeurs vectoriels ») et appliquer sur chaque élément du tableau la même opération, par exemple additionner les éléments d’un tableau deux à deux.

La puissance des processeurs vectoriels réside dans le fait qu’ils sont capables d’appliquer en même temps une opération sur plusieurs éléments, alors que les processeurs classiques de votre ordinateur, également appelés « processeurs scalaires », n’appliquent les opérations que sur un seul élément à la fois. Pour additionner deux tableaux de 32 cases, un processeur vectoriel traitera les 32 éléments en une seule fois, alors qu’un processeur scalaire classique un seul élément à la fois. Le nombre d’éléments qu’un processeur vectoriel peut traiter en parallèle est variable d’une génération de processeurs à l’autre.

Ceci étant, les problèmes que doivent résoudre les ordinateurs consistent rarement à effectuer la même opération sur tous les éléments d’un grand tableau, en dehors de cas bien particuliers… dont les jeux vidéos, et une grande partie des systèmes d’IA justement !


Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


GPU et jeux vidéos

Pour faire tourner un jeu vidéo moderne haut de gamme sur un ordinateur ou sur une console, il faut être capable d’afficher 60 images par seconde en haute résolution 4K. Une image 4K est un rectangle (une matrice) de 3840 pixels de haut par 2160 pixels de large. Pour chaque pixel, il faut 3 valeurs (rouge, vert et bleu) pour pouvoir représenter la palette de couleurs. Par conséquent, il faut calculer et mettre à jour 1 492 992 000 pixels par seconde. Pour faire tourner des jeux vidéo, les GPU ont donc repris les principes des processeurs vectoriels.

Dans le courant des années 1980 et 1990, la démocratisation de l’informatique et des jeux vidéos a fait exploser le marché des GPU. Avec leur démocratisation, leur coût a énormément baissé, à une époque où les gros ordinateurs (supercalculateurs) étaient très chers et complexes.

Par conséquent, les chercheurs ont cherché à détourner ces GPU conçu pour le jeu vidéo pour faire d’autres types d’opérations qui leur étaient utiles pour leur recherche. En effet, à performance égale, les GPU avaient (et ont toujours) un coût largement inférieur aux CPU.


À lire aussi : Prix Nobel de chimie 2024 : design des protéines et prédiction de leurs structures, deux facettes d’une même médaille


Un des premiers cas d’utilisation de ces GPU, en 2004, venait de la communauté d’algèbre linéaire, qui utilisait déjà du calcul vectoriel et a pu adapter ses méthodes à ce nouveau matériel. Il faut savoir que l’algèbre linéaire, qui est utilisée pour simplifier la résolution d’équations, est à la base de beaucoup de programmes simulant différents processus réels, depuis le Big Bang jusqu’à la météo ou aux infections de cellules par des virus.

Du jeu vidéo à l’IA

Nvidia a rapidement répondu aux besoins de la communauté académique en 2006. Puis, à partir de 2014, elle a aussi fourni des GPU, pour le développement de systèmes d’IA, notamment par les GAFAM.

Ainsi, après une longue période de réduction de budget pour l’intelligence artificielle, le potentiel de calcul des GPU a permis de rendre exploitables les approches de type apprentissage profond qui étaient bloquées depuis des années, qui se base sur des réseaux de neurones pour répondre à des tâches complexes. Pour implémenter ces approches, il faut pouvoir faire d’énormes quantités de calcul vectoriel sur de grands volumes de données.

Un réseau de neurones tel qu’utilisé par l’IA est une simplification extrême du fonctionnement d’un vrai réseau neuronal, mais il en reprend les grands principes. La représentation mathématique d’un réseau de neurones est faite sous la forme d’opérations sur des matrices et des vecteurs à grandes échelles. Plus le modèle est complexe, plus la taille des données stockées dans de grands tableaux est grande et plus le nombre d’opérations mathématiques est nombreux. C’est grâce à la collaboration entre communautés de l’IA et de l’algèbre linéaire que les capacités de calcul de l’IA ont explosé ces dernières années.

Vers la spécialisation des GPU pour l’IA

Devant l’explosion de l’utilisation dans le domaine de l’intelligence artificielle, les GPU évoluent de plus en plus vers des fonctionnalités spécialisées pour l’IA et moins pour le jeu vidéo. Par exemple, des opérations spéciales ont été introduites pour traiter des matrices et proposer des fonctions de plus haut niveau, comme les « transformers » utilisés dans les grands modèles de langage.

Mais le principal gain de calcul dans l’IA vient de la réduction de la précision des opérations mathématiques. Un ordinateur ne fait jamais un calcul exact sur des nombres à virgule : comme il stocke et calcule sur un nombre de bits prédéfini, avec une précision déterminée, il y a constamment des erreurs d’arrondi plus ou moins visibles et souvent suffisamment faibles pour être négligeables. Devant la quantité de calcul nécessaire au fonctionnement des systèmes d’IA, la précision a été grandement diminuée (par quatre ou plus) pour accélérer les calculs (par quatre ou plus). Les grands réseaux de neurones sont donc peu précis, mais, grâce à leur taille, ils peuvent répondre à des problèmes complexes.

Souveraineté et IA : le prisme des GPU

Derrière l’essor des systèmes d’IA et les GPU, il y a une guerre commerciale entre la Chine et les USA, les USA interdisant l’utilisation de leurs GPU haut de gamme par la Chine. En dehors de Nvidia, seuls AMD et Intel peuvent à la marge concevoir des GPU.

Mais Nvidia ne les produit pas elle-même : une entreprise taïwanaise, TSMC, est la seule à avoir la technologie et les usines pour graver les GPU sur du silicium, au niveau mondial. Pour pouvoir continuer à produire et à vendre des produits venant de sociétés américaines, TSMC s’est engagée à ne pas travailler avec la Chine. Comme Taïwan est par ailleurs menacée d’annexion par la Chine, on peut envisager un risque très important sur l’approvisionnement en GPU dans les années à venir.

Cela met aussi en avant le besoin de développer en Europe une souveraineté sur la conception et la production de processeurs classiques ou de GPU.

L’Union européenne travaille sur cette thématique depuis des années avec un investissement dans le hardware ou matériel ouvert, mais ne peut pas aujourd’hui rivaliser avec les USA ou la Chine. Si des usines de moyenne gamme existent en Allemagne et en France, la présence d’usine de production de processeurs haut de gamme n’est pas prévue.

Au-delà, des problématiques de souveraineté, il est nécessaire de se poser de la question de l’intérêt de consacrer une part de plus en plus importante de la production d’électricité aux technologies numériques. En effet, l’IA consomme énormément d’énergie et son utilisation provoque déjà des problèmes d’approvisionnement en électricité, mais aussi en eau (pour le refroidissement), voire de redémarrage d’usines à charbon, pour répondre aux besoins.

The Conversation

Jonathan Rouzaud-Cornabas a reçu des financements de l'ANR et Inria.

14.04.2025 à 12:27

Parier sur le noir : quelles leçons tirer du succès de la musique black metal norvégienne ?

Stoyan V. Sgourev, Professor of Management, EM Normandie

Condamné et vilipendé dans son pays, le black metal norvégien a connu un grand succès en dehors de ses frontières. Découvrez sa méthode.
Texte intégral (1408 mots)
Le groupe norvégien de black metal Gorgoroth en concert sur la scène du festival Inferno, le 14&nbsp;avril 2017, à Oslo (Norvège). SpectralDesign/Shutterstock

Condamné et vilipendé dans son pays, le black metal norvégien a connu un grand succès en dehors de ses frontières. À l’origine de cette réussite se trouvent des intermédiaires qui ont transformé la source du problème en raison du succès.


Au milieu des années 1990, la scène musicale norvégienne du black metal a été de plus en plus ostracisée après que des musiciens du genre ont été [associés à des meurtres] et à des incendies d’églises.

La plupart des maisons de disques norvégiennes ont refusé de travailler avec des groupes de black metal, les représentations publiques ont été limitées. Ce genre a même été régulièrement critiqué, voire vilipendé, dans la presse.

Mais, par un remarquable revirement de situation, quelques années plus tard seulement, le black metal norvégien est devenu un phénomène global, avec des millions d’albums vendus dans le monde entier. Ce phénomène culturel a pris une telle ampleur qu’il est aujourd’hui célébré en Norvège et la principale exportation culturelle du pays et au point que l’on s’intéresse à l’image ou aux recettes produites par ce genre.

Réinterprétations

Dans notre article publié dans Academy of Management Discoveries, écrit avec Erik Aadland de la BI Norwegian Business School, nous attribuons, pour une grande part, ce revirement au travail fourni par les maisons de disques et par les entrepreneurs qui ont su capitaliser sur la stigmatisation du genre. Ces professionnels ont trouvé des moyens de réinterpréter et d’exporter ce type de musique en associant les aspects les plus noirs à des concepts moins scandaleux et donc plus attrayants, comme l’authenticité ou l’esprit de rébellion.


À lire aussi : Musique : du streaming à l’Auto-Tune, comment le numérique a tout changé


Nous voulions savoir ce qui pouvait permettre à des produits culturels réputés toxiques ou perçus de manière très négative de devenir culturellement importants. Le mécanisme social que nous appelons « arbitrage de valorisation » est un élément crucial de ce puzzle. Il consiste à exploiter les différences de préférence des publics, en vendant un produit, stigmatisé sur le marché A, sur un marché B, où il le sera moins.

Un « arbitre de valorisation » ne se contente pas d’acheter à bas prix et de vendre à prix plus élevé, en encaissant la différence. Il joue un rôle actif en cherchant à créer ce surplus de valeur sur un autre marché. Son profit est ainsi réalisé après avoir réussi à réinterpréter une caractéristique indésirable devenue attrayante. C’est la condition sine qua non pour pouvoir augmenter le prix de vente.

Authenticité de la musique

Le black metal norvégien comporte souvent des paroles contestataires, antichrétiennes et misanthropes. Pour réussir à les vendre hors de Norvège, les maisons de disques ont capitalisé sur les liens criminels des membres de certains groupes. Ils ont été utilisés pour convaincre les acheteurs que la musique de ces groupes reflétait authentiquement les véritables croyances de ses créateurs et qu’elle n’avait pas été conçue comme un produit commercial, ayant pour seule finalité de faire vendre.

Dans cette perspective, les actes de violence sont considérés comme cohérents avec la brutalité des paroles : la musique est réellement maléfique. L’idée que ceux qui se livrent à des activités criminelles « vivent » authentiquement les sentiments de la musique était cruciale pour convaincre un public international.

Un risque de réputation ?

Nos recherches nous ont permis de constater que, au milieu des années 1990, la grande majorité des maisons de disques ont pris leurs distances avec le black metal norvégien en raison des risques liés à l’investissement dans un produit stigmatisé. Ils craignaient non seulement que ces œuvres ne se vendent pas, mais aussi que le fait de s’associer au genre nuise à leur réputation et, par conséquent, au reste de leurs activités.

Cette situation a ouvert des possibilités pour les entrepreneurs et les propriétaires de petits labels qui avaient moins à perdre. Les « arbitres de valorisation » étaient conscients que s’ils parvenaient à commercialiser les groupes de manière appropriée et à surmonter les obstacles liés à la distribution, les bénéfices pourraient être considérables. L’espoir d’un très important retour sur investissement à haut risque aura été une motivation puissante pour oser afficher sa solidarité avec des artistes stigmatisés et vilipendés.

Motivations financières

La motivation pour soutenir un produit stigmatisé est financière plutôt qu’idéologique. Cela explique pourquoi le processus de stigmatisation, fondé sur des motifs idéologiques, peut commencer à s’atténuer, offrant des possibilités de gagner de l’argent en contournant la stigmatisation.


Abonnez-vous dès aujourd’hui !

Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).


Si un produit est stigmatisé sur un marché, vous pouvez littéralement aller sur un autre marché éloigné du marché central et essayer de développer le produit. On peut trouver des parallèles dans la diffusion d’autres formes d’art un temps stigmatisées, comme, par exemple, l’art impressionniste en France dans les années 1880, les débuts du jazz aux États-Unis, l’art moderne en Europe après la Seconde Guerre mondiale et le hip hop dans les années 1990…

Développements stratégiques

Nous pouvons identifier trois stratégies pour les managers lorsqu’ils envisagent des produits ou des pratiques stigmatisés :

  • La première est la passivité : ne rien faire, attendre que la tempête passe, observer ce que font les autres et agir quand la situation est sûre.

  • Atténuer les contraintes, en conservant une partie de l’originalité du produit, mais en l’enveloppant dans des éléments et des pratiques largement acceptés.

  • S’engager dans un arbitrage de valorisation, en conservant l’audace du produit, mais en lui attribuant une interprétation plus positive et en recherchant des opportunités de distribution sur des marchés ou dans des contextes plus tolérants ou plus éloignés.

La stigmatisation invite à évaluer la valeur dépréciée et à s’efforcer d’en tirer parti. Ceux qui agissent rapidement, qui identifient correctement les produits ayant un potentiel commercial et qui sont ensuite prêts à parier sur ce potentiel peuvent être largement récompensés lorsque les ventes finissent par reprendre.

The Conversation

Stoyan V. Sgourev ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

14.04.2025 à 12:27

La face cachée du vrac

Fanny Reniou, Maître de conférences HDR, Université de Rennes 1 - Université de Rennes

Elisa Robert-Monnot, Maître de conférences HDR, CY Cergy Paris Université

Sarah Lasri, Maître de Conférences, Responsable du Master 2 Distribution et Relation Client, Université Paris Dauphine – PSL

La vente de produits sans emballage peut devenir antiécologique et générer du gaspillage. Sans étiquette, les dates de péremption des produits s’oublient sans compter que jamais autant de contenants n’ont été achetés.
Texte intégral (1987 mots)
Les consommateurs de vrac de plus de 50&nbsp;ans et CSP+ constituent 70&nbsp;% de la clientèle de ce mode d’achat. DCStudio/Shutterstock

De façon contre-intuitive, la vente de produits sans emballage peut devenir antiécologique et générer du gaspillage. Sans étiquette, les dates de péremption des produits prennent le risque d’être oubliées. Sans éducation culinaire, les consommateurs sont livrés à eux-mêmes pour cuisiner. Sans compter qu’avec la mode de l’emballage sur mesure, jamais autant de contenants n’ont été achetés. Une priorité : accompagner les consommateurs.


Le modèle de distribution en vrac fait parler de lui ces derniers temps avec l’entrée dans les supermarchés de marques très connues, comme la Vache qui rit. Cet exemple est l’illustration des multiples nouveautés que les acteurs du vrac cherchent à insérer dans cet univers pour lui donner de l’ampleur et le démocratiser. Le modèle du vrac, un moyen simple pour consommer durablement ?

Il est décrit comme une pratique de consommation avec un moindre impact sur l’environnement, car il s’agit d’une vente de produits sans emballage, sans plastique, sans déchets superflus, mais dans des contenants réutilisables. Dans ce mode de distribution, on assiste à la disparition de l’emballage prédéterminé par l’industriel.

Distributeurs et consommateurs doivent donc assumer eux-mêmes la tâche d’emballer le produit et assurer la continuité des multiples fonctions, logistiques et marketing, que l’emballage remplit habituellement. N’étant pas habitués à ce nouveau rôle, les acteurs du vrac peuvent faire des erreurs ou bien agir à l’opposé des bénéfices écologiques a priori attendus pour ce type de pratique.

Contrairement aux discours habituellement plutôt positifs sur le vrac, notre recherche met également en avant les effets pervers et néfastes du vrac. Quand les acteurs du vrac doivent se « débrouiller » pour assurer cette tâche nouvelle de l’emballage des produits, le vrac rime-t-il toujours avec l’écologie ?

Assurer l’emballage autrement

L’emballage joue un rôle clé. Il assure en effet de multiples fonctions, essentielles pour rendre possibles la distribution et la consommation des produits :

  • Des fonctions logistiques de préservation, de protection et de stockage du produit. L’emballage peut permettre de limiter les chocs et les pertes, notamment lors du transport.

  • Des fonctions marketing de reconnaissance de la catégorie de produit ou de la marque. Elles s’illustrent par un choix de couleur spécifique ou une forme particulière, pour créer de l’attractivité en rayon. L’emballage assure également, du point de vue marketing, une fonction de positionnement en véhiculant visuellement un niveau de gamme particulier, mais aussi d’information, l’emballage servant de support pour communiquer un certain nombre d’éléments : composition, date limite de consommation, etc.

  • Des fonctions environnementales, liées au fait de limiter la taille de l’emballage et privilégiant certains types de matériaux, en particulier, recyclés et recyclables.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Dans la vente en vrac, ce sont les consommateurs et les distributeurs qui doivent remplir, à leur manière, ces différentes fonctions. Ils peuvent donc y accorder plus ou moins d’importance, en en privilégiant certaines par rapport à d’autres. Dans la mesure où l’industriel ne propose plus d’emballage prédéterminé pour ses produits, consommateurs et distributeurs doivent s’approprier cette tâche de manière conjointe.

Assimilation ou accommodation

Pour étudier la manière dont les consommateurs et les distributeurs s’approprient les fonctions de l’emballage, alors même que celui-ci n’est plus fourni par les industriels, nous avons utilisé une diversité de données : 54 entretiens avec des responsables de magasin et de rayon vrac, et des consommateurs, 190 posts sur le réseau social Instagram et 428 photos prises au domicile des individus et en magasin.

Notre étude montre qu’il existe deux modes d’appropriation des fonctions de l’emballage :

  • par assimilation : quand les individus trouvent des moyens pour imiter les emballages typiques et leurs attributs ;

  • ou par accommodation : quand ils imaginent de nouveaux emballages et nouvelles manières de faire.

Femme remplissant son contenant de lessive
Le vrac peut conduire à des problèmes d’hygiène si les consommateurs réutilisent un emballage en en changeant l’usage. GaldricPS/Shutterstock

Certains consommateurs réutilisent les emballages industriels, tels que les boîtes d’œufs et les bidons de lessive, car ils ont fait leurs preuves en matière de praticité. D’un autre côté, les emballages deviennent le reflet de l’identité de leurs propriétaires. Certains sont bricolés, d’autres sont choisis avec soin, en privilégiant certains matériaux, comme le wax, par exemple, un tissu populaire en Afrique de l’Ouest, utilisé pour les sachets réutilisables.

Quand l’emballage disparaît, les informations utiles disparaissent

L’appropriation des fonctions de l’emballage n’est pas toujours chose facile. Il existe une « face cachée » du vrac, avec des effets néfastes sur la santé, l’environnement ou l’exclusion sociale. Le vrac peut conduire par exemple à des problèmes d’hygiène ou de mésinformation, si les consommateurs n’étiquettent pas correctement leurs bocaux ou réutilisent un emballage pour un autre usage. Par exemple, utiliser une bouteille de jus de fruits en verre pour stocker de la lessive liquide peut être dangereux si tous les membres du foyer ne sont pas au courant de ce qu’elle contient.

Le vrac peut également être excluant pour des personnes moins éduquées sur le plan culinaire (les consommateurs de vrac de plus de 50 ans et CSP + constituent 70 % de la clientèle de ce mode d’achat). Quand l’emballage disparaît, les informations utiles disparaissent. Certains consommateurs en ont réellement besoin pour reconnaître, stocker et savoir comment cuisiner le produit. Dans ce cas le produit peut finalement finir à la poubelle !

Nous montrons également toute l’ambivalence de la fonction environnementale du vrac – l’idée initiale de cette pratique étant de réduire la quantité de déchets d’emballage – puisqu’elle n’est pas toujours satisfaite. Les consommateurs sont nombreux à acheter beaucoup de contenants et tout ce qui va avec pour les customiser – étiquettes et stylos pour faire du lettering, etc.

La priorité de certains consommateurs n’est pas tant de réutiliser d’anciens emballages, mais plutôt d’en acheter de nouveaux… fabriqués à l’autre bout du monde ! Il en résulte donc un gaspillage massif, au total opposé des finalités initiales du vrac.

Des consommateurs pas suffisamment accompagnés

Après une période de forte croissance, le vrac a connu une période difficile lors de la pandémie de Covid-19, conduisant à la fermeture de nombreux magasins spécialisés, selon le premier baromètre du vrac et du réemploi. En grande distribution, certaines enseignes ont investi pour rendre le rayon vrac attractif. Mais faute d’accompagnement, les consommateurs ne sont pas parvenus à se l’approprier. Le rayon du vrac est devenu un rayon parmi d’autres.

Il semble que les choses s’améliorent et les innovations se multiplient. 58 % des adhérents du réseau Vrac et réemploi notent une hausse de la fréquentation journalière sur janvier-mai 2023 par rapport à 2022. Les distributeurs doivent s’adapter à l’évolution de la réglementation.

Cette dernière stipule qu’à l’horizon 2030, les magasins de plus de 400 m2 devront consacrer 20 % de leur surface de vente de produits de grande consommation à la vente en vrac. La vente en vrac a d’ailleurs fait son entrée officielle dans la réglementation française avec la Loi relative à la lutte contre le gaspillage et à l’économie circulaire, parue au JORF no 0035, le 11 février 2020.

Dans ce contexte, il est plus que nécessaire et urgent d’accompagner les acteurs du vrac pour qu’ils s’approprient correctement la pratique.

The Conversation

Fanny Reniou et Elisa Robert-Monnot ont reçu des financements de Biocoop, dans le cadre d'un partenariat recherche.

Elisa Robert-Monnot a reçu des financements de Biocoop dans le cadre d'une collaboration de recherche

Sarah Lasri ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

14.04.2025 à 12:27

Discrimination en raison de l’origine sociale : quand la France respectera-t-elle les textes internationaux ?

Jean-François Amadieu, Professeur d'université, Université Paris 1 Panthéon-Sorbonne

L’origine sociale est considérée comme une source de discrimination. Pourtant, la France tarde à le reconnaître en dépit de preuves patentes. Jusqu’à quand&nbsp;?
Texte intégral (1826 mots)

L’origine sociale est considérée comme une source de discrimination. Pourtant, la France tarde à le reconnaître en dépit de preuves patentes. Jusqu’à quand ?


L’origine sociale figure dans la liste des critères de discrimination dans plusieurs textes internationaux qui s’imposent à la France, notamment la Déclaration universelle des droits de l’homme du 10 décembre 1948, la Convention européenne de sauvegarde des droits de l’homme et des libertés fondamentales du 4 novembre 1950 et la Convention C111 de l’Organisation internationale du travail (OIT) de 1958. Ces textes prennent soin de mentionner l’origine nationale ou sociale.

Mais, dans la liste des critères de discrimination du Code du travail, du Code pénal et dans le statut de la fonction publique, on ne trouve que le terme « origine » sans plus de précision. Cet oubli rend invisibles les discriminations en raison de l’origine sociale et empêche les individus de faire valoir leurs droits.

Derrière ce qui peut sembler une simple imprécision dans la rédaction de nos lois se cache, en réalité, une volonté d’ignorer la dimension sociale des phénomènes de discrimination.

Des demandes sans réponses

L’OIT demande régulièrement à la France de respecter la convention C111 en incluant le terme « origine sociale » dans le Code du travail, sans succès à ce jour.

L’Assemblée parlementaire du Conseil de l’Europe a voté à l’unanimité en 2022 une résolution qui appelle les États membres « à clairement interdire cette forme de discrimination dans la législation ». Elle souligne que,

« dans toute l’Europe, l’origine sociale des personnes, les conditions de leur naissance ont une forte influence sur leur avenir, leur accès à l’éducation et à l’apprentissage tout au long de la vie, leurs perspectives d’emploi et leurs possibilités de mobilité sociale ».

Elle invite aussi à « recueillir des données relatives à l’origine sociale ».


À lire aussi : Devenir manager ne fait plus rêver… sauf les enfants issus d’un milieu populaire


Or, en France, l’Insee vient d’introduire une question dans le recensement concernant les origines « nationales » des parents, mais a refusé de le faire s’agissant de l’origine sociale (« la profession des parents ») en dépit des protestations. Le Conseil de l’Europe invite aussi à « obliger les entreprises publiques et privées à publier des données relatives à l’écart salarial entre les classes ».

Rien de tel n’existe en France en dehors d’expérimentations isolées. En Grande-Bretagne des dizaines de grandes entreprises y procèdent depuis plusieurs années grâce à un index de la mobilité sociale.

La position du défenseur des droits

L’origine sociale n’a jamais été mentionnée dans les présentations que le défenseur des droits donne des différentes discriminations pour informer les victimes sur leurs droits. En 2025, le mot « origine » est illustré par cet exemple : « Je n’ai pas été embauché à cause de mes origines maghrébines ». Il suffit de saisir l’expression « origine sociale » dans le moteur de recherche du défenseur des droits pour ne rien trouver en dehors de documents qui concernent les origines nationales.


Abonnez-vous dès aujourd’hui !

Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).


Pour savoir si les délégués du défenseur des droits dans les départements savent que l’origine peut aussi être « sociale », je leur ai envoyé en 2024 des courriers sous le nom de Kevin Marchand en posant par exemple cette question :

« En regardant le site du défenseur des droits, j’ai vu que l’origine est un critère de discrimination. Vous donnez l’exemple d’une personne qui serait d’origine maghrébine. Ce n’est pas mon cas, mais je suis mis de côté dans mon entreprise pour les promotions et suis souvent moqué en raison de mon origine sociale très modeste ou de mon prénom populaire. Sur votre site, vous dites que le nom est un critère de discrimination, mais qu’en est-il du prénom ? Est-ce que “l’origine sociale” ou bien le prénom sont des critères de discrimination ? »

La réponse explicite la plus fréquente est que ni le prénom en lui-même ni l’origine sociale en elle-même ne sont dans la liste des critères de discrimination. L’idée que les Kevin puissent être harcelés et discriminés au motif que leur prénom est un marqueur social ne saute pas aux yeux de délégués qui suivent ce qui est écrit dans notre droit et la doctrine du défenseur des droits.

Pas de problème d’origine sociale

Chaque année, un baromètre des discriminations est publié par le défenseur des droits dans lequel on propose aux interviewés une liste de critères de discrimination pour savoir s’ils sont témoins ou victimes de discriminations et sur quels critères. Or, dans cette liste, ne figure jamais l’origine sociale. De plus, chaque année, un focus spécifique est choisi et bien entendu l’origine sociale a été oubliée (nous en sommes au 17e baromètre).

L’Ined et l’Insee dans l’enquête « Trajectoire et origines » ne proposent pas non plus aux répondants l’origine sociale parmi les 12 motifs de traitement inégalitaire et de discrimination (genre, âge, orientation sexuelle…) et un des items regroupe « origine ou nationalité ». Il en résulte une vision réductrice des réalités vécues par les répondants.

La réalité des discriminations

Proposer ou ne pas proposer un critère de discrimination aux salariés change beaucoup la vision des discriminations réellement vécues. Dans le baromètre égalité du Medef, quand on demande aux salariés s’ils craignent d’être discriminés et pour quel motif, « l’origine sociale modeste » est le quatrième critère de discrimination le plus cité derrière l’âge, l’apparence physique et le genre. Et, chez les hommes, c’est même la troisième crainte de discrimination au travail. On apprend que 80 % des salariés estiment avoir une caractéristique potentiellement stigmatisante. La séniorité arrive en tête (19 %), suivie de l’origine sociale modeste (17 %).

En 2020, dans ce même baromètre, la question suivante était posée : « Parmi les caractéristiques suivantes, lesquelles vous qualifient le mieux ? », et l’origine sociale modeste était citée en premier.

Le Huff Post, 2023.

Et il ne s’agit pas seulement d’un ressenti. L’origine sociale pèse sur les chances d’obtenir des diplômes, mais aussi sur celles d’être recruté et de faire carrière par l’effet notamment du réseau familial.

France Stratégie a analysé précisément l’effet du milieu social sur les salaires :

« L’écart de salaire moyen entre deux personnes, dont la seule différence est l’origine migratoire, est de 150 euros. Somme qui est multipliée par dix entre un enfant de cadre et un enfant d’ouvrier non qualifié. Des caractéristiques étudiées, l’origine sociale s’avère la plus déterminante en termes de revenu d’activité. En moyenne, 1 100 euros nets par mois séparent le quart des personnes d’origine favorisée du quart des personnes d’origine modeste, à origines migratoire et territoriale comparables. C’est presque deux fois plus que l’écart entre hommes et femmes (600 euros). Si on tient compte du diplôme de l’individu et de son conjoint, un écart demeure entre les classes. »

Combien de temps faudra-t-il pour que le classisme soit reconnu au même titre que le racisme dans le droit de la discrimination ? La France a simplement intégré ce que l’on nomme le « racisme anti-pauvre » avec la « particulière vulnérabilité résultant de la situation économique », mais ce critère traite de la situation actuelle, pas du milieu social d’origine.

La France bat de loin le record mondial du nombre de critères de discrimination figurant dans notre droit (plusieurs dizaines dans le Code du travail), parfois sans que le défenseur du droit puisse même expliquer en quoi consiste un critère (« Capacité à s’exprimer dans une langue autre que le français »). Dans ces conditions, il est frappant que la situation socioéconomique des parents reste ignorée dans l’indifférence générale.

The Conversation

Jean-François Amadieu ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

14.04.2025 à 12:27

Cinq ans après la pandémie, le travail fait-il encore sens ?

Elodie Chevallier, Chercheuse sur le sens au travail, Université catholique de l’Ouest

Selon une étude, la pandémie de Covid-19 a eu un effet immédiat sur le sens au travail en France et au Canada. Cinq&nbsp;ans après, faute de changements durables, ce bouleversement perdure.
Texte intégral (2050 mots)
La France a fait état d’une hausse des démissions de 19,4&nbsp;% en 2021. Opolja/Shutterstock

La pandémie de Covid-19 a agi comme un révélateur du sens accordé au travail. En France et au Canada, elle a provoqué une prise de conscience immédiate. Ses effets se prolongent aujourd’hui : « grande démission », stratégie d’autopréservation face à l’épuisement professionnel, baisse du sentiment d’utilité, aspiration à la reconnaissance des efforts et transitions professionnelles vers des métiers avec plus de sens. Cinq ans après, quelles leçons en avons-nous vraiment tirées ?


Nous nous souvenons tous et toutes de ce que nous faisions le jour où nous avons appris que nous allions être confinés pour quelques semaines… qui se sont transformées en quelques mois. Face à ce virus encore inconnu, nous étions décidés à nous mobiliser, à nous battre, à encourager les travailleuses et les travailleurs essentiels. Nous rêvions du monde d’après, celui où l’on retrouverait nos libertés, celui où l’on mettrait fin aux pratiques qui n’ont plus de sens. Cinq ans après, qu’en est-il de ce « monde d’après » ?

Nous avons mené une recherche pour mieux cerner les effets de la pandémie de Covid-19 sur le sens accordé au travail en France et au Canada. Une première étude qualitative par groupe de discussion s’est déroulée en plein cœur de la pandémie (janvier 2022) auprès de professionnels du conseil en orientation. Une seconde étude quantitative, réalisée à l’issue de la pandémie (janvier 2023), par questionnaire auprès de 166 travailleurs et travailleuses avec au moins cinq ans d’expérience, nous a permis de comprendre l’impact des modalités de travail imposées par la pandémie sur le sens au travail.

La pandémie a clairement eu un effet sur le sens accordé au travail, que ce soit en France ou au Canada, de manière positive ou négative, notamment en fonction des conditions de travail vécues.

La « Grande Démission »

Depuis 2020, plusieurs phénomènes témoignent d’un désengagement croissant ou d’une remise à distance du travail de la part des salariés, révélant un rapport à l’emploi en pleine évolution. Avant la pandémie, la notion de bullshit jobs faisait déjà débat. Depuis, de nouveaux concepts comme le quiet quitting, le « brown-out » ou encore le task masking ont émergé, illustrant une remise en question de l’engagement au travail.


Abonnez-vous dès aujourd’hui !

Chaque lundi, des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).


Parmi ces dynamiques, la « Grande Démission » (Great Resignation) a marqué les esprits. Aux États-Unis, de nombreux salariés ont changé d’emploi pour améliorer leurs conditions de travail. Dans d’autres pays, avec davantage d’encadrement social du travail, le phénomène a été plus mesuré.

Le Canada a connu une hausse des démissions de 14,6 % en 2021 tout en gardant un taux d’emploi plus élevé qu’en 2020.

La France a fait état d’une hausse des démissions de 19,4 % en 2021. Contrairement aux idées reçues, il ne s’agissait pas d’un rejet du travail. Après avoir démissionné, les actifs reprenaient rapidement un emploi. Leur volonté était d’accéder à de meilleures conditions d’emploi dans un marché favorable. Ce phénomène a déjà été observé lors de précédentes reprises économiques, notamment dans les années 2000 avec la bulle Internet, comme en a fait état La Dares.

« Quiet quitting » et autopréservation

Le « quiet quitting », autre buzz word entendu à la sortie de la pandémie, témoigne d’une désillusion croissante vis-à-vis de l’investissement professionnel. Il s’agit moins d’une démission silencieuse que d’une stratégie d’autopréservation face à un travail perçu comme épuisant et dénué de sens. On pourrait le rapprocher de la notion de freinage observée dans les organisations scientifiques du travail, où chaque acte était chronométré.


À lire aussi : « Quiet quitting » : au-delà du buzz, ce que révèlent les « démissions silencieuses »


Pourquoi ces tendances refont-elles surface ?

Si les mesures pour faire face à la pandémie ont permis d’apporter plus de flexibilité et d’autonomie dans le travail, force est de constater que le retour à la normale s’est accompagné de peu de changements structurels. Au contraire, les tendances préexistantes ont été exacerbées : fin du télétravail dans certaines entreprises, conditions de travail rendues encore plus difficiles dans certains métiers, retour dans l’ombre de populations de travailleurs applaudi et considéré comme essentiels lors des temps les plus difficiles de la pandémie de Covid-19.

Deux actifs sur dix s’interrogent davantage sur le sens de leur travail

Dans ces conditions, l’après-pandémie a fait l’effet d’une douche froide laissant un goût amer à de nombreux salariés. Cela s’est traduit par une attention beaucoup plus forte au fait d’occuper un travail qui a du sens. En 2022, deux actifs sur dix s’interrogent davantage sur le sens de leur travail depuis la crise, un phénomène particulièrement marqué chez les jeunes, les cadres et les employés du secteur public.

S’agit-il d’un phénomène purement français ? Pas forcément si l’on regarde de l’autre côté de l’atlantique. Au Canada on note également une quête de sens accrue depuis la pandémie. Il semblerait donc que l’on ait affaire à un phénomène global. Alors, cinq années après le début de la pandémie de Covid-19, il est intéressant de se demander quel a été l’effet de la pandémie sur ce phénomène.

Transition professionnelle

Les évènements, qu’ils soient prévus ou non, influencent notre rapport au travail et nos choix de carrière. La pandémie de Covid-19, en particulier, a été un bouleversement majeur, parfois qualifié de choc de carrière en raison de ses effets sur les trajectoires professionnelles. Chez certaines personnes, cela peut influencer le sens qui est accordé au travail, car l’évènement vient changer l’ordre des valeurs et des priorités.

Cet évènement s’est accompagné de mesures de confinement qui nous ont poussés à changer nos habitudes de vie et de travail. Moins de temps dans les transports, plus de temps en famille, chez certaines personnes cela a créé les conditions pour revoir leurs priorités de vie. La conciliation travail-famille et la recherche d’un équilibre de vie ont été parmi les arguments les plus entendus par les professionnels de l’orientation qui recevaient des personnes amorçant une transition professionnelle. Certaines personnes ont saisi cette occasion pour aller vers un travail davantage porteur de sens à leurs yeux. D’autres personnes ont plutôt vécu cette période comme un évènement qui a participé à dégrader un sens qui n’était pas toujours très fort.

Baisse du sentiment d’utilité

Le travail à distance qui s’est imposé de manière spontanée, ainsi que l’arrêt de certaines activités, a créé un sentiment de perte de sens. Nos résultats montrent que les télétravailleurs à temps plein ont plus souvent connu une baisse de leur sentiment d’utilité et d’autonomie, en particulier dans les métiers considérés comme « non essentiels ».

De même, les personnes qui ont connu une période prolongée d’inactivité – plus de six mois – ont plus souvent exprimé une perte de sens, due notamment à l’absence des relations professionnelles et à la diminution de leurs responsabilités.

Aussi, l’étiquetage de certains métiers comme « non essentiels » a conduit les travailleurs concernés à remettre en question leur utilité sociétale et donc leur engagement professionnel. À l’inverse, ceux occupant des emplois essentiels ont souvent ressenti une plus grande fierté, mais aussi une surcharge et un manque de reconnaissance qui se sont fait sentir un peu plus tard.

Efforts non reconnus

La pandémie a montré qu’une nouvelle manière de considérer le travail était possible, en laissant plus d’autonomie aux salariés, en valorisant certaines professions dénigrées et pourtant essentielles. Mais ces avancées ont été temporaires. Les travailleurs ont fait un énorme effort d’adaptation pour faire face à la pandémie, et ils constatent aujourd’hui que cet effort n’a pas été reconnu. La revalorisation des métiers essentiels s’est souvent limitée à des primes ponctuelles, sans réelle refonte des conditions de travail. La flexibilité et l’autonomie, expérimentées à grande échelle avec le télétravail, ont été freinées par le retour forcé au bureau dans certaines organisations.

Beaucoup de travailleurs ont eu le sentiment d’avoir été floués. Et c’est cela qui a eu l’effet le plus néfaste sur le sens accordé au travail, lorsque les actes ne suivent pas les paroles.

La revalorisation du travail doit dépasser les simples déclarations pour se traduire par des actions concrètes. Il est nécessaire de repenser l’équilibre entre la contribution des salariés et la rétribution qu’ils reçoivent, d’offrir plus d’autonomie à ces derniers et de rapprocher les décisions du terrain. Le sens du travail ne peut être imposé de manière abstraite. Il repose sur la reconnaissance authentique et tangible de l’apport de chaque individu au bon fonctionnement de l’organisation, et cette reconnaissance doit aller au-delà des mots pour être réellement vécue au quotidien.

The Conversation

Elodie Chevallier est chercheuse associée au Centre de recherche sur le travail et le développement et membre du comité scientifique du CERIC.

14.04.2025 à 12:27

Pour sortir de la kakistocratie, il suffit d’affronter l’incompétence !

Isabelle Barth, Secrétaire général, The Conversation France, Université de Strasbourg

Être dirigé par des incompétents, ça n’arrive pas qu’aux autres. Et quand cette incompétence se propage, on est en kakistocratie. Pour en sortir, des actions concrètes sont possibles.
Texte intégral (1930 mots)

Devoir travailler pour (ou être dirigé par) des incompétents, c’est le cauchemar de nombreux salariés ! Ça n’arrive pas qu’aux autres. Et quand cette incompétence se propage dans toute l’organisation, on bascule dans la kakistocratie. S’il n’existe pas de solution magique pour en sortir, des actions concrètes sont possibles pour la prévenir ou en limiter les effets.


La kakistocratie au travail ? C’est la direction par des incompétents ! Et si toutes les organisations ne sont pas des kakistocraties (heureusement !), la kakistocratie se retrouve dans tous les secteurs d’activités.

Spontanément, elle est souvent associée aux grosses structures, à l’administration, au secteur public. En réalité, la taille ne joue aucun rôle et on retrouve aussi des personnes incompétentes à la tête de PME, d’ETI et même de start-up. C’est dire que tout le monde peut être, un jour ou l’autre, concerné. Or la kakistocratie nous interpelle vivement, car elle constitue l’inverse exact de ce qui nous est enseigné dès le plus jeune âge, cette idée selon laquelle « il faut être compétent pour réussir » !

Des conséquences négatives

Mon enquête sur le sujet montre que cette situation produit de nombreux effets, tous négatifs. Parmi ceux cités, citons la perte de performance, la dégradation de l’image de l’entreprise, l’absentéisme, un climat délétère, voire de la souffrance au travail…

Or, voir des incompétents recrutés, puis obtenir des promotions, pallier l’incompétence de son manager au prix de son temps et de son énergie, comprendre qu’un dirigeant notoirement incompétent restera en poste pour de nombreuses années, constituent des pertes de repères et produisent de la souffrance. Comment sortir de cette situation ?

Différentes formes d’incompétence

Face à une kakistocratie, de nombreuses personnes adoptent le comportement qui leur semble le plus adapté de leur point de vue : le désengagement. Cela peut prendre différentes formes, allant de la démission à l’absence. Sans oublier le « quiet quitting » qui consiste à faire le minimum demandé. Certains individus vont plus loin, jusqu’à dénoncer la situation, mais être un lanceur d’alerte est loin d’être simple ! D’autres encore adoptent la posture consistant à affronter la question de l’incompétence. Comment ?


À lire aussi : Victime d’un manager incompétent ? Bienvenue en « kakistocratie » !


Il faut tout d’abord distinguer l’incompétence métier de l’incompétence managériale. La première concerne les hard skills. Si elle est bien repérée, une formation ad hoc permet d’y remédier assez rapidement en général. L’incompétence managériale est plus complexe à gérer. D’abord, parce qu’elle est moins facile à objectiver et souvent diffuse dans l’organisation. En outre, ce type d’incompétence concerne… les dirigeants, ce qui rend plus difficile sa remise en cause. Pourtant, des actions concrètes et mobilisables pour éviter la propagation de ces insuffisances professionnelles sont possibles.

Tout commence dès le recrutement

Commençons par les méthodes les plus évidentes pour éviter que l’incompétence prenne sa place dans l’organisation et se développe au point de devenir une kakistocratie, et ce, dès le recrutement. Les concours qui confondent bagage de connaissances et passeport de compétences doivent être proscrits à tout prix. On le sait, une tête peut être bien remplie et bien faite, mais complètement à côté des attentes inhérentes au poste.

De même, il ne faut pas confondre les compétences d’expertise et de management. Pas plus que le meilleur joueur de football ne fait, le plus souvent, un bon entraîneur, le meilleur vendeur ne sera pas mécaniquement un bon chef des ventes. Ni le meilleur ouvrier un bon chef d’atelier… Éviter ce biais assez courant suppose de ne pas faire du management la seule voie de promotion. Car cette attitude amène des personnes à accepter un poste de manager pour des raisons aussi mauvaises que compréhensibles (l’augmentation de salaire, les avantages, la capacité à prendre des décisions, le pouvoir de faire…).

Le syndrome du fils du patron

La lutte contre toutes les formes de clanisme a aussi un rôle central à jouer, au moment du recrutement ou d’une promotion. Le critère pour l’un ou l’autre doit être les compétences du candidat, et non un lien familial, ou une proximité de formation – un candidat n’est pas bon parce qu’il a fait les mêmes études. Le fameux syndrome du « fils du patron » et toutes les formes de corporatisme doivent être combattus avec une volonté affirmée.

La lutte contre l’incompétence passe aussi par des actions de formation, à commencer par l’évaluation de la vraie compétence. Trop souvent apparences et compétences sont confondues, attribuant des qualités et un potentiel à des personnes sûres d’elles et sachant se mettre en avant. Prendre conscience de ces biais cognitifs pour mieux les combattre est une nécessité.

De même, une formation au management responsable a un rôle majeur. Dans cette optique, un salarié compétent apte à progresser dans l’entreprise ne doit pas être appréhendé comme un futur concurrent, auquel il convient de barrer la route. Au contraire, un bon manager sait faire grandir ses équipes et accepter que certains deviennent meilleurs que lui !


Abonnez-vous dès aujourd’hui !

Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).


Une question d’organisation

Par ailleurs, l’action contre la kakistocratie ne peut pas faire l’économie d’une réflexion sur l’organisation et sur les usages. Quatre voies principales sont à privilégier.

  • Mieux vaut privilégier les compétences internes que de recourir à des consultants externes. Chaque fois qu’une entreprise fait appel à des expertises extérieures (qui peuvent avoir leur utilité), elle envoie aussi un signal négatif à ses équipes qui ne chercheront plus à monter en compétences.

  • Une seconde voie à privilégier consiste à ralentir sur les changements d’organisation, la mobilité des personnes. Trop fréquentes, ces réorganisations permanentes ou presque font perdre toute possibilité de capitaliser sur ses compétences. La compétence a toujours un « coût d’entrée » et le retour sur investissement de cette acquisition n’est jamais instantané.

  • Il importe aussi de donner des marges de manœuvre aux personnes, sans les contraindre à suivre des scripts et des procédures rigides. Les premiers et les seconds ont pour effet de faire perdre toute initiative.

  • Enfin, être vigilant sur les routines qui s’installent et qui sont le nid des « compétences spécialisées » est essentiel. Il faut avoir en tête qu’il existe un moment critique dans le parcours des individus. Le moment où la remise en cause d’un diagnostic ou d’une marche à suivre n’est plus possible, car le salarié est persuadé de son hypercompétence, est critique.

L’incompétence, ça se pense aussi

Faire de l’incompétence un atout ! Un oxymore ? Non, mais il faut accepter de passer par plusieurs étapes. Ainsi, l’incompétence est à la fois une obsession managériale et un impensé. L’incompétence n’est vue que comme le contraire de la compétence. Dans la réalité, les choses sont plus complexes : la compétence et l’incompétence sont indéniablement liées.

Il faut rappeler quelques définitions. L’incompétence (comme la compétence) n’existe qu’en « action » et elle se définit par l’adéquation avec un poste, une fonction, une mission à un moment donné dans un contexte donné. On peut être un manager évalué très compétent dans une entreprise et ne plus l’être dans une autre.

On n’est jamais compétent ou incompétent « en soi ». Ce point est très important : trop souvent, l’incompétence dans un poste débouche sur un diagnostic d’incompétence d’une personne en général.

TED X Clermont-Ferrand 2023.

Nous sommes tous des incompétents

Accepter (en commençant par soi) qu’on soit tous incompétents en quelque chose ou pour quelqu’un. Ce qui amène à :

  • avoir une posture d’apprentissage permanent, aussi bien pour les hard skills que pour les soft skills ;

  • accepter de se faire aider, aller vers les autres (et pas seulement les sachants) et sortir de son silo professionnel pour apprendre ;

  • voir dans ses collaborateurs (et éventuellement son manager) un potentiel qui peut évoluer ;

  • accepter les erreurs et les voir comme des occasions d’apprendre (à condition qu’elles ne se répètent pas à l’identique), de façon à permettre des initiatives qui ne voient le jour qu’avec la confiance en soi. C’est d’ailleurs une des compétences managériales les plus importantes : savoir instaurer la « sécurité psychologique ». Il s’agit de remettre les personnes dans leur zone de compétences et de leur faire confiance.

Faire de l’incompétence une source d’inspiration

Une ouverture plus disruptive est de regarder faire ceux et celles qu’on a enfermés dans leur statut d’incompétents, car leurs « bricolages » (au sens de Lévi-Strauss) peuvent être des sources d’inspiration. Ils proposent d’autres chemins, d’autres façons de faire qui peuvent être inspirantes, et performantes !

L’incompétence, pensée, acceptée, peut alors devenir une source d’innovation et de créativité. Sortir de la kakistocratie passe donc par le management de l’incompétence. Pour cela, il faut l’apprivoiser afin qu’elle ne reste pas une obsession ni, encore moins, une condamnation.

The Conversation

Isabelle Barth ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

14.04.2025 à 12:27

Transformer le management : la démarche Grand 8

Thierry Nadisic, Professeur en Comportement Organisationnel, EM Lyon Business School

Thomas Misslin, Doctorant, Sciences de Gestion, Dauphine-PSL - Chef de projet, Executive Education, EM Lyon Business School

Voici les extraits de «&nbsp;Transformer le management&nbsp;: la démarche Grand&nbsp;8&nbsp;», un livre qui présente une démarche de transformation managériale à la fois fondée sur les recherches et validée par la pratique.
Texte intégral (1920 mots)
Nous avons nommé la démarche que nous vous présentons dans ce livre, «&nbsp;le Grand 8&nbsp;». De même que l’attraction foraine du même nom, elle vise à faire vivre aux managers d’une entreprise une expérience immersive et mémorable. Metamorworks/Shutterstock
Fourni par l'auteur

Dans des environnements chahutés, les entreprises cherchent à évoluer afin de répondre aux besoins économiques, sociétaux et environnementaux de l’ensemble de leurs parties prenantes. L’un de leurs leviers clés est leur transformation managériale. Celle-ci prépare l’encadrement à aider les collaborateurs à trouver plus de sens, de lien social, de compétence, d’autonomie et d’engagement dans leur travail. Voici les extraits de « Transformer le management : la démarche Grand 8 ». Ce livre présente une démarche d’accompagnement à ce type de transformation à la fois fondée sur les recherches et validée par la pratique.*


Nous consacrons une grande partie du temps et de l’énergie de nos vies à travailler dans des organisations, en particulier les entreprises. Nous le faisons car nous pensons que cela en vaut la peine : nous participons ainsi à mettre à la disposition de toute la société des biens et des services qui répondent à ses besoins, qu’il s’agisse de biens comme des plantes pour son jardin ou de services comme l’emprunt qui financera l’achat d’un nouveau chez soi. Ce sens collectif de notre action est l’un des avantages que nous retirons de notre collaboration, en plus du revenu de notre travail et du plaisir que nous ressentons dans la relation aux autres, nos collègues en particulier.

Depuis l’avènement de la nouvelle révolution industrielle fondée sur les technologies de l’information, le contexte stratégique est devenu plus incertain pour les organisations. Il faut s’adapter aux réseaux sociaux, à la digitalisation, à l’intelligence artificielle. Les entreprises doivent aussi se positionner de façon innovante pour continuer à répondre aux demandes changeantes de leurs clients. Plus largement faire face aux bouleversements des sociétés et des économies dus à la mondialisation, à l’arrivée de nouvelles générations sur le marché du travail, aux menaces sur notre environnement naturel. À ces bouleversements systémiques viennent s’ajouter des crises, qu’elles soient sanitaires ou liées à un sentiment d’insécurité géopolitique. Ces changements entraînent des transformations pour ce qui est de la manière de manager dans les organisations. Celles-ci réagiront en effet mieux face à un environnement incertain si elles aident leurs membres à développer une capacité de prise de décision plus autonome et une coopération plus fluide.


Abonnez-vous dès aujourd’hui ! Chaque lundi, des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).


C’est aux managers d’organiser ces nouvelles formes de prise de décision et de coopération en trouvant d’autres façons de faire que le traditionnel style directif. Cela implique de leur part une transformation comportementale afin de maîtriser de nouvelles compétences de management. Celles-ci peuvent consister à organiser le travail de façon plus transversale, à déléguer le pouvoir de décider et d’agir aux collaborateurs (approche souvent appelée empowerment) ou à mieux partager la vision de l’organisation avec leurs équipes. Ces compétences sont traditionnellement acquises par des formations. Ce que nous vous proposons avec ce livre, c’est la présentation d’une approche plus profonde qui vise à accompagner une véritable transformation des comportements managériaux, au service à la fois du projet de l’entreprise et des buts de chaque personne concernée.

Les comportements managériaux cibles peuvent être regroupés dans ce que l’on appelle « le modèle managérial cible de l’entreprise ». Ils impliquent en parallèle une transformation de son organisation et de ses processus de gestion. Par exemple des procédures fondées sur un contrôle hiérarchique étroit a priori de toute action seraient rapidement contradictoires avec le développement de l’empowerment des collaborateurs. Les changements comportementaux réalisés ne pourront être inscrits dans la durée que s’ils trouvent une organisation, une structure et des processus qui les soutiennent.

Dans ce livre, nous définissons le management comme l’activité consistant à coordonner l’action de plusieurs personnes au service d’un but commun. Quant au leadership, il désigne le processus d’influence entre le responsable d’un collectif et les membres de celui-ci […] Nous avons nommé la démarche que nous vous présentons dans ce livre « le Grand 8 ». De même que l’attraction foraine du même nom, elle vise à faire vivre aux managers d’une entreprise une expérience immersive et mémorable. Plus fondamentalement, elle se fonde sur « trois huit » : huit principes actifs qui sont les moteurs de l’acquisition de nouveaux comportements (par exemple le principe de co-construction) ; huit axes pédagogiques qui constituent le parcours que suivra tout participant (dont notamment le rodage des nouveaux comportements avec un groupe de pairs) ; et huit leviers de coopération qui permettent à tous les acteurs du Grand 8 d’avancer en bonne intelligence. Ces trois huit seront détaillés tout au long de chacune des trois parties de ce livre […]

[Si on détaille] la seconde partie du livre, [celle-ci] est composée des huit axes pédagogiques opérationnels du Grand 8 : le lancement, l’observation de l’état des comportements managériaux des participants et la fixation d’objectifs de développement, les séances dites synchrones (c’est-à-dire des moments où les participants sont réunis en même temps en groupes de session, que ce soit en présentiel ou en distanciel) pour acquérir de nouveaux comportements, le travail à distance, la coopération en groupes de pairs, l’utilisation d’un carnet de bord, la mise en œuvre de projets et la convention d’envol du parcours. Un lecteur qui voudrait avoir une vue complète de la démarche en action lira d’abord cette partie […] Le Grand 8 est une recette de cuisine : pour que le plat réussisse, il faut suivre des étapes, mais le plus important est la manière dont les ingrédients se mélangent. Nous rappellerons donc régulièrement dans cette deuxième partie qu’il convient de penser l’action des huit axes pédagogiques comme un système plutôt que comme une séquence.

Ce livre est le résultat d’expériences pratiques. Les auteurs ont pu, en tant que professionnels au sein de l’école de management EM Lyon Business School, accompagner les communautés de 80 à 850 managers au sein d’entreprises partenaires dans les secteurs de la banque, de la logistique, des services informatiques ou de la santé. L’évolution des comportements managériaux qui en a résulté a amené les équipes de ces managers à plus d’envie de s’engager, à des initiatives innovantes et à mieux coopérer. Les entreprises accompagnées ont pu mieux réaliser leurs objectifs stratégiques et leurs managers ont grandi et su favoriser le bien-être au travail de leurs collaborateurs. […] L’épilogue [du livre] montre les résultats concrets obtenus au travers d’une série de mesures, individuelles et collectives, de l’appropriation et de la mise en pratique au quotidien des comportements visés.

Enfin, le Grand 8 est fondé sur les dernières études en neurosciences, psychologie comportementale, pédagogie, théorie des organisations, management et accompagnement. Cette ouverture sur la recherche nous a amenés à le concevoir comme un système ouvert et évolutif. Nous vous donnons ici toutes les clés pour que vous puissiez le mettre en place à votre tour, que ce soit en tant que dirigeant, directeur des ressources humaines ou de la transformation ou responsable de la formation dans votre organisation ou en tant que professeur, consultant, coach ou formateur dans une entreprise partenaire.


Cet article a été écrit avec la participation de Claire Moreau, coach et directrice de programmes chez Humans Matter, et de Gilles Basset, consultant indépendant en Executive Education.

The Conversation

Thomas Misslin est chef de projet de programmes de développement managérial sur mesure dans le département executive education d'emlyon business school

Thierry Nadisic ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

14.04.2025 à 09:28

Google, antitrust enforcement and the future of European digital sovereignty

Anne C. Witt, Professor of Law, Augmented Law Institute, EDHEC Business School

Google’s antitrust worries are piling up in the US and in Europe. But the Trump administration isn’t pleased with EU regulatory efforts.
Texte intégral (1954 mots)
Google’s logo is visible at the company’s site in Cupertino, California, US. NorthSky Films / Shutterstock

Since its beginnings as a humble student start-up in 1998, Google has pulled off a meteoric rise. In 2025, its parent company, Alphabet, is a vast multinational technology conglomerate and one of the world’s most valuable companies. While much of Alphabet’s growth was internal, it also added to its empire through shrewd acquisitions, including of Android, DoubleClick and YouTube. Since 1998, it has acquired at least 267 companies.

Alphabet is a key player in many digital markets, including general search, browsers, online advertising, mobile operating systems and intermediation. Google Search, for example, is now the most widely used general search engine in the world. Globally, its market share has been at least 78% for the past 10 years.

Unsurprisingly, antitrust agencies, whose task is to protect competition, have been taking a close look at Google’s conduct and that of other tech giants. While having market power is not illegal if it is the result of a superior product, protecting such a position by means that are not meritorious is.


A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!


Google’s conduct under scrutiny

In recent years, there has been growing concern that Google may be using anticompetitive means to protect and extend dominant positions in core digital markets. In 2017, 2018 and 2019, the European Commission fined Google over €8 billion for abusing dominant positions in key markets – more than any other Big Tech company to date. A fourth investigation into Google’s behaviour in the advertising technology market, in which the European Commission is likely to request structural changes to Google’s advertising business, is nearing completion. The national competition agencies of the EU member states have also actively enforced EU and national abuse-of-dominance rules. Private antitrust class actions for damages are adding to Google’s woes.

In 2022, the EU enacted the Digital Markets Act (DMA) to create an additional tool for intervening against entrenched market power in core platform markets. The DMA regulates the behaviour of so-called gatekeeper companies, aiming to make markets more contestable for competitors and fairer for users. In September 2023, the European Commission designated Alphabet as a gatekeeper in no fewer than eight platform markets for the following services: Google Search, Google Maps, Google Play, Google Shopping, Google Ads, Chrome, YouTube and Google Android.

Within days of the DMA’s conduct rules becoming binding on Alphabet in March 2024, the European Commission opened the first noncompliance investigation to assess whether Google Search was continuing to treat Alphabet’s own services more favourably than its rivals’, and whether Google Play prevented app developers from steering consumers to other channels for better offers.

For the Trump administration, EU rules amount to non-tariff restrictions

The territorial scope of these rules is limited to services offered in Europe. They do not regulate how Google operates in the United States – this is subject to US antitrust law. Nonetheless, the European Commission’s enforcement actions have provoked the ire of the current US administration. In February 2025, the White House issued a memorandum titled “Defending American Companies and Innovators From Overseas Extortion and Unfair Fines and Penalties” that takes issue with European antitrust and regulatory measures against US companies. According to the Trump administration, the EU’s rules amount to non-tariff restrictions and unfair exploitation of US companies, and they interfere with American sovereignty. The memorandum stresses that Washington will not hesitate to impose tariffs and other actions necessary to mitigate the harm to the United States.

According to the European Union, such actions would amount to economic coercion and interfere with its legislative sovereignty to decide under what conditions services are offered on European soil. In 2022, likely with the possibility of a second Trump presidency in mind, it enacted the so-called Anti-Coercion Instrument, which allows the European Commission to impose a wide range of “response measures”, including tariffs and restrictions on imports, exports, intellectual property rights, foreign direct investment, and access to public procurement. Such response measures could be imposed on US digital services.

Potential for escalation

The situation has the potential to further escalate the risk of a trade war between Europe and the United States. However, the dispute over tech regulation does not appear to be about substantive antitrust principles per se.

In 2020, the US House of Representatives issued a bipartisan report stressing the need for the United States to address the lack of competition in digital markets and the monopoly power of dominant platforms like Amazon, Apple, Facebook and Google. The Federal Trade Commission and the Department of Justice subsequently brought antitrust lawsuits against all four companies, most of which are still pending.

The Department of Justice filed two separate antitrust suits against Google in 2020 and in 2023. In the first case, a Washington DC district court in August 2024 found Google guilty of violating section 2 of the Sherman Antitrust Act, and established that Google had attempted to protect its monopoly power in the market for general search through anticompetitive means. Judge Amit P. Mehta is now determining appropriate remedies, and the Department of Justice recently reiterated its request that the judge break up Google.

The second US case against Google is still pending. The accusations in it are similar to those underlying the European Commission’s ongoing investigation into Google’s behaviour in the market for advertising technology. While the case was initiated during the Biden administration, it has not (yet) been shut down since Trump returned to power. It’s also worth noting that the new head of the Federal Trade Commission has stressed that Big Tech is a main priority of his agency. There seems to be concern on both sides of the Atlantic that Google has been restricting competition. The crux of the discord, most likely, is that European regulators are telling US companies what to do – even if on European territory.

Europe lacks equivalents to Big Tech

The European Commission appears determined to keep enforcing its antitrust rules and the DMA. On March 19, 2025, it informed Alphabet that its preliminary assessment had shown that Google’s behaviour in search and in the Google Play Store was incompatible with the DMA. Also, the first noncompliance decisions against Apple and Meta under the DMA are expected shortly – even though the fines may well stay below the maximum 10% of a company’s global annual turnover allowed by the act, in view of its novelty.

Europe is not an insignificant market for Google and other US tech companies. In 2024, Google reportedly generated 29% of its global revenue, or $100 billion, in Europe, the Middle East and Africa. Europe has no equivalents to Google or other Big Tech companies, and the EU today imports 80% of its digital technology. In September 2024, the Draghi Report issued a stark warning to bloc leaders, highlighting waning geopolitical stability and the need for Europe to focus on closing the innovation gap with the US and China in advanced technologies. Less than five months later, the European Commission published the Competitiveness Compass, a roadmap to restoring Europe’s dynamism and boosting economic growth. Strong measures from the White House in retaliation for European antitrust and regulatory enforcement might just give this process additional impetus. President Trump cannot make European tech great again, because it never was great. But his policies may unintentionally help make it so.

The Conversation

Anne C. Witt ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

13.04.2025 à 13:07

L’effondrement des traités de limitation des armements met l’humanité entière en danger

Julien Pomarède, Associate professor in International Politics, Promoter of the WEAPONS Project (FNRS - 2025-2028) (Université de Liège) - Research Fellow REPI ULB. Promoter « WEAPONS » Research Project (FNRS - 2025-2028), Université de Liège

Tout l’édifice normatif construit depuis plus de soixante ans pour limiter ou interdire certains armements, notamment nucléaires, est en train de disparaître.
Texte intégral (3080 mots)

Ces dernières années, on observe un rapide délitement des conventions internationales interdisant ou encadrant les armements, nucléaires ou non. Exacerbé par les conflits récents, en particulier par la guerre d’Ukraine, ce processus, que les États justifient par leurs impératifs de sécurité immédiate, met en danger l’avenir de la sécurité internationale et, au-delà, rien de moins que l’habitabilité de notre planète.


Depuis la Seconde Guerre mondiale, les conventions internationales sur la limitation des armements ont joué un rôle clé dans la régulation des arsenaux militaires mondiaux. Certes, elles n’ont pas permis une abolition complète des armements particulièrement létaux et peu discriminants pour les civils. De même, les adhésions des États à ces conventions sont variables et leur transgression a été, et reste, régulière. Mais ces textes fournissent un cadre institutionnel, normatif, efficace et raisonnable dans les contraintes qu’ils font peser sur la marge de manœuvre des États à s’armer et à se défendre – un cadre qui subit aujourd’hui un délitement rapide.

Du TNP à New START, des décennies d’efforts de limitation des armements

Certaines des plus importantes de ces conventions ont été adoptées lors de la guerre froide, période historique inégalée en termes de prolifération des moyens physiques de destruction.

Sur le nucléaire, rappelons deux textes piliers : le Traité de non-prolifération des armes nucléaires (TNP, 1968), et le Traité sur les forces nucléaires à portée intermédiaire (INF, 1987), accord majeur passé entre les États-Unis et l’Union soviétique (puis la Russie).

En limitant la prolifération des armes nucléaires et en visant l’élimination des missiles à portée intermédiaire en Europe, ces accords ont permis de créer un environnement de contrôle et de réassurance entre les grandes puissances.

Les textes relatifs au contrôle des armes nucléaires ont également connu des évolutions significatives après la guerre froide, avec l’adoption du Traité sur l’interdiction des essais nucléaires (1996) et le New START (Start signifiant Strategic Arms Reduction Treaty, littéralement « traité de réduction des armes stratégiques »), signé en 2010 entre les États-Unis et la Russie, qui a pour objectif de limiter les arsenaux nucléaires stratégiques de chaque pays, en plafonnant surtout le nombre de têtes nucléaires déployées.

L’effet combiné de ces traités, dont ceux évoqués ne sont que des exemples d’un ensemble normatif plus vaste, a permis une réduction importante des stocks d’armes nucléaires, lesquels sont passés – pour le cumulé seul États-Unis/URSS puis Russie – d’un pic d’environ 63 000 au milieu des années 1980 à environ 11 130 en 2023.

Des efforts de désarmement dans d’autres secteurs ont été poursuivis après la fin de la guerre froide, comme la Convention d’Ottawa sur les mines anti-personnel (1997) et celle d’Oslo sur les bombes à sous-munitions (2008). Ces régimes se sont développés en raison surtout des pertes civiles causées par ces armements et de leur « violence lente ». Susceptibles de ne pas exploser au moment de leur utilisation, ces mines et munitions restent enterrées et actives après la période de guerre, ce qui tue et mutile des civils, pollue les souterrains, constitue un fardeau financier pour le déminage et freine voire empêche les activités socio-économiques (par exemple l’agriculture).

Une dégradation inquiétante

Le problème est que, dernièrement, tout cet édifice normatif construit ces soixante dernières années s’effrite et se trouve menacé de disparition.

En 2019-2020, les États-Unis se retirent des traités INF et Open Skies. Le traité Open Skies, signé en 1992, permet aux États membres d’effectuer des vols de surveillance non armés sur le territoire des autres signataires pour promouvoir la transparence militaire et renforcer la confiance mutuelle. En 2020-2021, la Russie rétorque en faisant de même.

Le New START a également connu une trajectoire accidentée. Lors de sa première présidence, Trump avait refusé à la Russie d’étendre la durée de validité de l’accord, le jugeant trop désavantageux pour les États-Unis. S’il fut ensuite étendu sous l’administration de Joe Biden, la participation de la Russie fait l’objet d’une suspension depuis février 2023, ce qui implique par exemple l’impossibilité d’effectuer des contrôles dans les installations russes (une des mesures de confiance prévues par le Traité). Au vu de la situation actuelle, le renouvellement de New START, prévu pour 2026, ne semble pas acquis.

Les effets de cette érosion normative ne sont pas moins inquiétants parmi les autres États dotés. Prenant acte de ces désengagements et en réaction aux livraisons d’armes des États-Unis à Taïwan, la Chine a fait savoir en juillet 2024 qu’elle suspendait ses pourparlers sur la non-prolifération nucléaire et a entamé une politique d’augmentation de ses arsenaux. Plus récemment encore, Emmanuel Macron a annoncé qu’une augmentation du volume des Forces aériennes stratégiques françaises serait à prévoir.

Le troisième âge nucléaire

Ces décisions ouvrent la voie à ce que certains qualifient de « troisième âge nucléaire ». Cette nouvelle ère, caractérisée par un effritement marqué de la confiance mutuelle, est d’ores et déjà marquée par une nouvelle course aux armements, qui allie politique de modernisation et augmentations quantitatives des arsenaux.

La reprise de la course aux armements ne fait qu’ajouter une couche d’incertitude supplémentaire et de tensions potentielles. Certaines de ces tensions, d’une ampleur plus vue depuis la fin de la guerre froide, se manifestent déjà ces dernières années : en 2017, les États-Unis et la Corée du Nord se sont mutuellement menacés de destruction nucléaire. Et depuis février 2022, la Russie a à multiples reprises brandi la menace d’un usage de la bombe nucléaire afin de dissuader les pays occidentaux de soutenir militairement l’Ukraine.

Dernier danger, non des moindres et qui se trouve décuplé par la reprise de la course aux armements : l’humanité n’est jamais à l’abri d’une défaillance technique des appareils de gestion et de contrôle de l’arme nucléaire.

On l’aura compris : agglomérés, ces facteurs nous font vivre dans une période particulièrement dangereuse. Et cela, d’autant plus que les évolutions concernant les autres types d’armements ne sont pas moins inquiétantes, en particulier dans le contexte des tensions entre la Russie et ses voisins directs liés à l’invasion de l’Ukraine. Certains pays ont quitté (Lituanie) et annoncé vouloir quitter (Pologne et les trois pays baltes) les conventions interdisant l’usage des mines anti-personnel et des bombes à sous-munitions. Même si, comme la Russie, les États-Unis n’ont pas adhéré à la convention d’Oslo, la livraison des bombes à sous-munitions à l’Ukraine consolide cette érosion normative globale en participant au déploiement de ces munitions sur les champs de bataille contemporains.

Un effondrement normatif injustifié à tous points de vue

Pour justifier le retrait ou la transgression des conventions internationales sur la limitation des armements (et des pratiques guerrières illégales plus généralement), l’argument principalement avancé est le suivant : cela permet de mieux dissuader et de mener la guerre plus efficacement.

Autrement dit, pourquoi prendre le risque de se mettre en position d’infériorité stratégique en s’astreignant à des limites que des pays qui nous sont hostiles ne se donnent pas la peine de respecter ? Pourquoi ne pas augmenter son seuil de brutalité, partant de l’idée que, dès lors, on aura plus de chances 1) de dissuader l’ennemi de nous déclarer la guerre et 2) si la dissuasion échoue, de sortir vainqueur du conflit ?

Cette réflexion, qui peut sembler cohérente au premier abord, repose en réalité sur une lecture simpliste des rapports politiques et des dynamiques guerrières. C’est une idée infondée et lourde de conséquences, à la fois pour la stabilité internationale, pour l’avenir de l’humanité et pour l’état environnemental de notre planète. Trois raisons permettent de donner corps à ce constat.

Tout d’abord, le fondement rationnel du démantèlement de cet appareil normatif est questionnable. Le nucléaire est un exemple frappant, à commencer par le Traité INF. Rappelons que, selon les estimations, l’usage de « quelques » centaines de bombes nucléaires suffirait à mettre en péril la quasi-entièreté de la vie sur Terre, par la combinaison de l’effet explosif et du cataclysme climatique qui s’en suivrait. En d’autres termes, les stocks post-guerre froide, même réduits à environ 13 000 aujourd’hui à l’échelle planétaire, sont déjà absurdes dans leur potentiel de destruction. Les augmenter l’est encore plus.

C’est pourquoi nombre d’experts estiment que la décision de Trump de retirer les États-Unis du Traité INF présente bien plus d’inconvénients que d’avantages, au premier rang desquels la reprise (devenue réalité) d’une course aux armements qui n’a pour conséquence que de dépenser inutilement des sommes astronomiques dans des arsenaux nucléaires (qui, rappelons-le, présentent la tragique ironie d’être produits pour ne jamais être utilisés) et de replonger l’humanité dans l’incertitude quant à sa propre survie.

Ajoutons à cela que l’on peut sérieusement douter de la capacité des États à gérer les effets d’une guerre nucléaire sur leurs populations. À cet égard, la comparaison avec l’épidémie de Covid-19 est instructive. Quand on voit que les gouvernements ont été incapables de contenir une pandémie infectieuse, en raison notamment des politiques de restriction budgétaire en matière de santé et de services publics plus généralement, on peine à croire qu’ils pourraient gérer la catastrophe sanitaire et médicale consécutive à des frappes nucléaires.

Passons maintenant au champ de bataille lui-même et à la remise en cause récente des accords sur les mines et les bombes à sous-munitions. S’affranchir de tels régimes n’a guère plus de sens, pour la simple raison que conduire la guerre plus « salement » n’a pas de lien avec une efficacité plus grande dans l’action militaire.

Les exemples historiques abondent, à commencer par les guerres récentes des grandes puissances. En Ukraine, l’armée russe est responsable d’un nombre incommensurable de crimes de guerre et utilise massivement des mines et des bombes à sous-munitions. Pourtant, cette litanie d’atrocités n’a pas amené plus de succès. La Russie s’est embourbée, sacrifie des soldats par dizaines de milliers, et du matériel en masse, pour des gains territoriaux qui restent limités au vu de la consommation en vies humaines et en ressources.

Le bilan de la guerre contre le terrorisme des États-Unis et de leurs alliés dans les années 2000-2010 n’est pas plus reluisant. Sans même compter le volume considérable de ressources allouées aux campagnes du contre-terrorisme militaire, la pratique étendue de la torture, les assassinats ciblés (par drones ou forces spéciales), le développement d’un archipel de centres de détention extra-légaux (type Guantanamo ou Black Sites (prisons secrètes) de la CIA), l’usage de munitions incendiaires en zone urbaine (bombes au phosphore blanc en Irak), tout ce déluge de violence n’a pas suffi à faire de la guerre contre la terreur autre chose qu’un échec cuisant aux conséquences encore aujourd’hui désastreuses.

En somme, effriter le régime d’interdiction des armes non discriminantes ne rend pas la guerre plus efficace mais la rend, pour sûr, plus meurtrière, plus atroce et étend ses effets létaux davantage au-delà de la guerre elle-même en blessant et en tuant encore plus de civils.

Enfin, la destruction de ces régimes de régulation engendrera des conséquences démesurées pour deux autres batailles bien plus essentielles à mener : le maintien de nos démocraties et de l’habitabilité de notre planète.

Éroder ces traités revient à s’aligner sur les pratiques sanglantes des régimes autoritaires, à commencer par la Russie ou même encore la Syrie qui, du temps de Bachar al-Assad et de la guerre civile, avait aussi fait un usage généralisé de mines et d’autres armes visées par ces conventions d’interdiction. Alors que la crédibilité internationale de nos normes démocratiques est déjà significativement écornée du fait de livraisons et soutiens militaires à des pays responsables de massacres, détruire ces régimes de régulation ne ferait qu’encourager plus largement le recours à ces types d’armes par tous les régimes, démocratiques ou non.

Se ressaisir avant qu’il ne soit trop tard

Enfin, et c’est au fond l’enjeu majeur, ces dynamiques augmentent l’inhospitalité de notre planète pour la vie humaine. Si les grandes puissances prenaient un tant soit peu au sérieux l’urgence climatique à laquelle nous sommes tous confrontés, un encadrement bien plus strict des activités militaires existerait dans le domaine.

Les institutions militaires sont responsables d’une pollution considérable et de destructions d’écosystèmes entiers, en raison des destructions environnementales provoquées par les armes/munitions elles-mêmes, de la consommation démesurée d’hydrocarbures et des activités entourant les armes nucléaires (extractions minières, tests, gestion des déchets). La remilitarisation qui s’annonce et l’effritement des traités de limitation des armements ne font qu’accélérer la catastrophe écologique vers laquelle on se dirige. À quoi bon continuer à militariser à outrance une planète qui tolère de moins en moins notre présence ?


À lire aussi : Guerre en Ukraine et destruction de l’environnement : que peut le droit international ?


Pour résumer, les conventions adoptées au cours des décennies passées ont permis de poser quelques limites raisonnables à une destruction humaine et environnementale de masse qui n’a fait que grossir, s’étendre et se normaliser depuis la seconde moitié du XIXe siècle.

Détruire ces régimes de régulation – sous le futile prétexte qu’on ne devrait pas s’imposer des limites que les autres ne se posent pas – ne présente que des désavantages.

Ce détricotage normatif va au-delà de la question seule des armements ; il reflète le mépris grandissant pour nos standards démocratiques et, au-delà, pour le vivant dans son ensemble.

The Conversation

Julien Pomarède a reçu des financements du Fonds National de la Recherche Scientifique (FNRS - Belgique).

13.04.2025 à 13:05

La semi-liberté, solution pour désengorger les prisons et réinsérer les détenus ?

Marion Vannier, Chercheuse en criminologie, Université Grenoble Alpes (UGA)

Le doublement des places en semi-liberté annoncé par Gérald Darmanin, ministre de la justice, interroge. Une politique de réinsertion sera-t-elle menée, ou s’agit-il uniquement de désengorger des prisons surpeuplées&nbsp;?
Texte intégral (1835 mots)

Alors que la surpopulation carcérale pousse le gouvernement à élargir les dispositifs alternatifs, le doublement des places en semi-liberté annoncé en janvier 2025 interroge. Cette annonce sera-t-elle accompagnée de moyens humains, sociaux et territoriaux indispensables à la réinsertion des détenus ?


Le 23 janvier 2025, lors d’un déplacement à l’École nationale de l’administration pénitentiaire (Enap) à Agen, le garde des sceaux, Gérald Darmanin, a dévoilé deux mesures majeures. La première concerne l’ouverture, prévue pour le 31 juillet 2025, d’un établissement pénitentiaire de haute sécurité spécialement réservé aux narcotrafiquants. En parallèle, il a annoncé le doublement des places en semi-liberté d’ici à 2027, pour atteindre 3 000 places au total. Tandis que la première mesure répond à une logique sécuritaire de contrôle et d’isolement, la seconde est présentée comme une réponse pragmatique à la crise de la surpopulation carcérale. Ensemble, ces annonces traduisent une volonté politique de concilier fermeté pénale et ouverture limitée à la réinsertion.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Comment réduire la surpopulation carcérale ?

L’étude des politiques pénales états-unienne a permis d’identifier trois approches principales pour résoudre la surpopulation carcérale : la construction de nouvelles prisons, la libération anticipée des détenus et la modification des lois pour réduire le recours à l’incarcération.

Un exemple récent de cette logique se trouve au Royaume-Uni, avec le programme Standard Determinate Sentences, dit SDS40, qui permettait la libération anticipée de certains détenus après 40 % de leur peine. Les infractions graves, comme le meurtre ou le harcèlement criminel, sont exclues du dispositif. Ce phénomène, qualifié de « bifurcation », vise à concilier des objectifs contradictoires et offrir ainsi un compromis politique, où la volonté de réduire l’emprisonnement pour certains s’accompagne du maintien strict de l’incarcération pour d’autres.

La situation actuelle en France reflète ce mécanisme, à ceci près que l’élément prétendument progressiste, à savoir le doublement des places en semi-liberté, mérite un examen critique. Plutôt que de traduire un véritable engagement structurel en faveur de la réinsertion, le doublement des places en semi-liberté annoncé par Gérald Darmanin semble relever d’un ajustement ponctuel face à la crise carcérale.

Certes, le ministre évoque des moyens supplémentaires, mais les détails concrets sur l’accompagnement social, éducatif ou médical restent flous. En l’absence d’une réforme profonde des conditions de mise en œuvre de la semi-liberté, cette mesure s’apparente davantage à une réponse pragmatique court-termiste qu’à une stratégie cohérente de réintégration et de justice sociale.

Qu’est-ce que la semi-liberté ?

La semi-liberté est un aménagement de peine permettant aux condamnés de quitter un centre de détention à des horaires définis pour exercer des activités extérieures (travail, formation, soins, vie familiale, etc.). Elle est accordée par le juge de l’application des peines] sous certaines conditions, et constitue souvent une phase probatoire avant une libération conditionnelle. Toutefois, la personne demeure en prison : toute absence non autorisée est considérée comme une évasion. Cette procédure a démontré son efficacité en termes de prévention de la récidive.

Les places en semi-liberté se répartissent entre 9 centres de semi-liberté (CSL, établissements autonomes) et 22 quartiers de semi-liberté (QSL, rattachés à un établissement pénitentiaire) soit 1 635 places disponibles en France, d’après la direction de l’administration pénitentiaire (2025).

Selon cette dernière, au 1er janvier 2025, le taux d’occupation était de 88 %, en forte augmentation par rapport à 2021 (68,8 %), ce qui illustre l’essor de ce dispositif. Cependant, la répartition de ces établissements est inégale. Certains se situent en zone rurale, mal desservie par les transports, limitant ainsi les opportunités de réinsertion. D’autres, comme celui de Grenoble bénéficient d’un ancrage urbain facilitant la transition vers la vie civile.

L’octroi d’une mesure de semi-liberté repose sur l’implication active du condamné dans un parcours d’insertion, incluant la recherche de soins, la réparation des dommages, la recherche d’emploi ou la participation à une formation et le maintien des liens familiaux. Cependant, ces efforts individuels ne suffisent pas. Il apparaît évident que l’efficacité de la semi-liberté dépend avant tout d’un accompagnement structuré pour reconstruire une trajectoire stable.

Des services d’insertion et de probation sous-dotés

Cependant, les services pénitentiaires d’insertion et de probation (Spip) en France sont confrontés à une charge de travail excessive et à des ressources financières limitées, ce qui entrave leur capacité à accompagner efficacement les personnes en semi-liberté, comme le montre un rapport du Sénat). Selon les chiffres communiqués par la direction de l’administration pénitentiaire pour 2024, il manque 327 conseillers pénitentiaires d’insertion et de probation, 61 directeurs pénitentiaires d’insertion et de probation, 51 psychologues, 45 coordinateurs d’activités culturelles et 36 assistants de service social.

Bien que le budget de l’administration pénitentiaire ait connu des augmentations, une part significative de ces fonds est allouée à la construction de nouvelles places de prison. Par exemple, en 2023, plus de 680 millions d’euros ont été consacrés à la construction de 15 000 places supplémentaires, avec un coût total estimé à 4,5 milliards d’euros d’ici 2027. Le projet de loi de finances pour 2024 prévoyait une augmentation de 3,9 % des dépenses de fonctionnement des Spip, en lien avec la création de 1 500 emplois, entre 2018 et 2022. Mais le projet de loi des finances 2025, adopté le 14 février, prévoit une diminution du budget alloué aux Spip, passant de 123,2 millions d’euros en 2024 à 121,8 millions d’euros en 2025, suscitant nombre d’inquiétudes quant au fonctionnement des aménagements de peine et de la réinsertion efficace des personnes détenues.

Repenser les parcours de réinsertion

Par ailleurs, il est impératif d’assurer un ancrage local des structures et un accès facilité aux transports, en les implantant stratégiquement selon les opportunités d’emploi. La localisation des centres de semi-liberté ne doit donc pas être aléatoire, mais pensée pour maximiser l’insertion professionnelle et sociale. L’implication des collectivités et des citoyens] est aussi un facteur clé, car elle permet de commencer à tisser des liens qui perdureront entre les personnes détenues et la communauté qu’ils cherchent à réintégrer. La réussite de la semi-liberté repose sur la collaboration entre l’administration pénitentiaire, les acteurs sociaux et les entreprises locales.

Il est enfin crucial que cette collaboration soit conçue de manière à reconnaître les détenus non seulement comme des individus à réhabiliter, à reformer, mais aussi comme des acteurs capables d’autonomie et dotés d’expériences uniques, comme j’ai tenté de le montrer dans l’ouvrage Prisoner Leaders : Leadership as Experience and Institution.

Le débat sur la semi-liberté et le phénomène de bifurcation observé invitent à une réflexion plus large sur le format carcéral. Certaines initiatives internationales, telles que Rescaled et Working in Small Detention Houses (Wish), inspirées des modèles nordiques, montrent l’intérêt de structures spécialisées et intégrées localement. Ces approches favorisent un accompagnement plus personnalisé et une transition progressive vers la liberté.

En France, le programme pilote Inserre suit cette logique en prévoyant la création d’une nouvelle catégorie d’établissement pénitentiaire, axée sur la réinsertion par le travail. La première structure de ce type verra le jour à Arras, en 2026], et illustre une volonté d’adapter les infrastructures carcérales aux défis de la réinsertion.

S’il est essentiel de repenser la place de la réinsertion dans les politiques pénales, en évitant une approche purement punitive, il est crucial d’imaginer la prison non pas comme un espace géographiquement et symboliquement isolé, mais comme une institution intégrée à la communauté, favorisant des liens continus entre les personnes détenues et les acteurs sociaux tout au long de leur peine, et non uniquement à sa fin. Cette nouvelle conceptualisation est fondamentale pour une réinsertion efficace, pour la prévention de la récidive et pour le maintien de la cohésion sociale.


Article écrit avec la collaboration de Céline Bertetto, Patrick Malle, Marie-Odile Théoleyre, Bénédicte Fischer, et Jean-Charles Froment.

The Conversation

Marion Vannier a reçu des financements du fond 'UK Research & Innovation'.

13.04.2025 à 13:05

La flexibilité électrique, ou comment décaler nos usages pour optimiser la charge du réseau

Etienne Latimier, Ingénieur énergies renouvelables électriques et réseaux F/H, Ademe (Agence de la transition écologique)

La hausse à venir de notre consommation électrique ainsi que le développement des énergies renouvelables impliquent d’optimiser davantage l’équilibre entre offre et demande.
Texte intégral (1407 mots)

La « flexibilité électrique », c’est-à-dire la capacité à ajuster production, distribution et consommation sur le réseau électrique pour répondre aux fluctuations de la demande, n’est pas un enjeu nouveau. Ce concept revêt une importance nouvelle face à l’impératif de décarbonation de l’économie. Cela permet par exemple d’éviter que la charge de tous les véhicules électriques au même moment de la journée ne mette en péril la stabilité du réseau.


Les débats sur l’énergie en France voient monter en puissance, depuis quelques mois, la notion de flexibilité électrique. De plus en plus d’entreprises françaises développent des outils dédiés à mieux piloter la demande en électricité.

Comprendre pourquoi cette notion, pourtant ancienne, prend aujourd’hui une ampleur nouvelle, implique d’observer les deux grandes tendances qui dessinent l’avenir du système énergétique français : la décarbonation et le déploiement des énergies renouvelables.

D’un côté, la France poursuit son effort de décarbonation de l’économie dans le but d’atteindre au plus vite ses objectifs de réduction des émissions de gaz à effet de serre. La Stratégie nationale bas carbone (SNBC) vise la neutralité carbone à l’horizon 2050. Cet enjeu requiert d’électrifier un maximum d’usages qui utilisaient des énergies thermiques. En premier lieu la mobilité, en encourageant le passage des véhicules thermiques aux électriques, mais aussi l’industrie, qui s’appuie encore beaucoup sur les fossiles à des fins de production de chaleur, et enfin le chauffage, pour lequel le gaz concerne encore 15 millions de foyers en France.

Malgré des mesures d’efficacité énergétique permises par la rénovation et des gains de rendement menés en parallèle, les nouveaux usages liés à la décarbonation commencent à engendrer une progression globale de la consommation électrique du pays.

De l’autre côté, pour répondre à ces besoins, la France incite au développement rapide des énergies renouvelables, avantageuses sur les plans économique et environnemental.

La Programmation pluriannuelle de l’énergie (PPE), actuellement en consultation, table sur une évolution de la part des énergies renouvelables dans le mix de production électrique française qui passerait de 25 % en 2022 à 45 % environ en 2050.

Piloter l’offre et la demande

Ces énergies se caractérisent par une production plus variable. En ce qui concerne le photovoltaïque et l’éolien, ils ne produisent d’électricité que lorsqu’il y a du soleil ou du vent. L’électricité étant difficile à stocker, la marge de manœuvre pour répondre à cette variabilité temporelle consiste à agir sur l’offre et la demande.

Jusqu’ici, c’est surtout par l’offre que le pilotage s’opérait, en s’appuyant le volume de production nucléaire et en réalisant simplement un petit ajustement à l’aide des tarifs heures pleines/heures creuses. Désormais, l’enjeu est de piloter l’offre différemment et d’actionner davantage le levier de la demande.

D’où l’utilité de la flexibilité électrique, par lequel le consommateur jouera un rôle plus important par ses pratiques de consommation.

Décaler nos usages

Comme évoqué précédemment, la seule alternative à la flexibilité électrique est le stockage de l’électricité. Or cette méthode est moins vertueuse. Elle présente un coût économique élevé même si le prix des batteries a diminué. En effet leur production engendre, par la pollution qu’elle génère, un coût environnemental peu cohérent avec la démarche de décarbonation menée en parallèle. Sans parler des risques à venir en matière d’approvisionnement, certains des métaux intégrés aux batteries étant considérés comme critiques.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Privilégier la flexibilité la majorité du temps – et garder la possibilité du stockage pour pallier les variations de production intersaisonnières – apparaît donc comme l’option la plus pertinente. L’idée est d’adapter la consommation à l’offre, en évitant de faire transiter l’électricité par des intermédiaires de stockage. Concrètement, cela consiste à viser, lors du suivi, un équilibre constant entre l’offre et la demande, en incitant les usagers à consommer davantage lorsque la production est importante. En particulier, dans le cas du solaire, en pleine journée.

En effet, la production solaire atteint aujourd’hui en France un niveau significatif en journée, même en hiver. Celle-ci est même supérieure à nos besoins au milieu de certaines journées d’été. Le surplus est, dans la mesure du possible, envoyé à l’étranger, mais cela ne suffit pas toujours pour l’utiliser dans sa totalité. Pour résoudre ce problème, la flexibilité électrique consiste à développer la logique des heures pleines heures creuses, en créant d’autres périodes tarifaires qui intègrent de nouvelles heures creuses en cœur de journée. C’est ce que la Commission de régulation de l’énergie commence à mettre en place.

Il s’agit par exemple d’inciter les consommateurs à décaler la recharge du million de véhicules électriques déjà en circulation en France – 18 millions attendus en 2035 – pendant les périodes de production solaire. Dans l’édition 2023 de son bilan prévisionnel, RTE estime que la consommation annuelle des véhicules électriques s’élèvera en 2035 à 35 TWH, contre 1,3 TWh en 2023. Il faudra donc éviter que toutes les voitures se retrouvent à charger en même temps au retour de la journée de travail.

Inciter le consommateur à décaler ses consommations

Encourager de tels comportements implique une incitation économique qui peut passer par des offres de fourniture électrique. Tout comme le tarif heures pleines/heures creuses qui existe déjà, mais dont les horaires vont être petit à petit modifiés.

D’autres offres plus dynamiques, proposant des plages horaires plus précises encore, différenciées au sein de la semaine, de la journée et de l’année, commencent aussi à émerger. L’offre EDF Tempo, par exemple, permet de payer plus cher son électricité pendant une période qui concerne les heures pleines de 20 journées rouges dans l’année, tandis que le reste du temps est plus avantageux financièrement.

La flexibilité électrique existe depuis les années 1980 mais elle peine encore à se développer. En effet, les citoyens sont davantage sensibles à la maîtrise de leur consommation. Les deux sont pourtant complémentaires : il s’agit non seulement de consommer moins mais aussi mieux. Pour cela, il est crucial de rendre ce type d’offres disponibles et surtout le plus lisibles possible pour les consommateurs en montrant leur facilité d’utilisation, même si certaines resteront orientées vers un public plus averti que d’autres.

Pour le consommateur cela implique de prendre certaines habitudes, mais ce décalage partiel de nos usages – lorsque c’est possible – ne concerne pas l’année entière. Surtout, il permet de contribuer à éviter le gaspillage d’électricité tout en réalisant des économies.

The Conversation

Etienne Latimier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

13.04.2025 à 13:03

African Credit Rating Agency : l’Afrique cherche à s’émanciper des agences de notation occidentales

Oussama Ben Hmiden, Professeur de finance, HDR, ESSCA School of Management

L’African Credit Rating Agency (Afcra) devient en 2025 la première agence africaine de notation financière. Une alternative aux grandes institutions comme Standard&nbsp;&amp;&nbsp;Poor’s, Moody’s et Fitch&nbsp;?
Texte intégral (2076 mots)
L’idée de l’Africa Credit Rating Agency (Afcra) est de construire une grille d’analyse qui épouse les réalités du continent, ses défis, mais aussi ses atouts souvent invisibilisés. StudioProX/Shutterstock

L’African Credit Rating Agency (Afcra), portée par l’Union africaine, devient en 2025 la première agence africaine de notation financière. Une alternative aux grandes institutions comme Standard & Poor’s, Moody’s et Fitch ?


L’année 2025 marque un tournant pour la finance africaine, avec le lancement attendu de l’African Credit Rating Agency (Afcra), portée par l’Union africaine. Prévue au second semestre, cette agence de notation continentale ambitionne de proposer des analyses de crédit sur mesure, alignées sur les réalités économiques du continent.

La notation de crédit est une évaluation de la capacité d’un émetteur – que ce soit une entreprise, une institution financière ou un État – à rembourser ses dettes. Elle constitue un instrument utile quant à la prise de décision de la part des fournisseurs de capitaux. Elle équivaut à un passeport pour le crédit offrant la possibilité d’accès à des capitaux étrangers. Dans le contexte d’une économie mondialisée, cet élargissement de l’accès au marché s’accompagne le plus souvent d’une diminution des coûts de financement, notamment au profit des émetteurs qui bénéficient d’une notation élevée.

Pourtant, le débat reste vif. Depuis des années, les notations des agences internationales Moody’s, Standard & Poor’s (S&P) ou Fitch, qui influencent directement le coût des emprunts des États africains, sont au cœur des polémiques. Alors que le continent cherche à attirer davantage d’investisseurs, une question s’impose : ces évaluations conçues à des milliers de kilomètres sont-elles vraiment adaptées aux défis et aux atouts uniques de l’Afrique ?

Oligopole mondial de la notation de crédit

Dans les années 1990, le paysage financier africain était marqué par une asymétrie frappante : seule l’Afrique du Sud arborait une notation souveraine. Quinze ans plus tard, en 2006, près de la moitié des 55 pays du continent – 28 États – restaient encore invisibles sur la carte des agences de notation. Si ces dernières présentent leurs analyses comme de simples opinions, leur impact est tangible : leurs notes influencent directement les décisions d’investissement et les taux d’intérêt appliqués aux États africains.

Leur domination oligopolistique soulève des critiques. Les notations, censées réduire l’asymétrie d’information entre investisseurs et États, sont jugées trop génériques. De nombreux experts et dirigeants africains critiquent des méthodologies de notation jugées inadaptées, car elles peinent à saisir les spécificités des économies locales. Fortement axées sur des données quantitatives, parfois biaisées, elles ne rendent pas toujours justice aux réalités africaines. Le manque de données locales fiables renforce cette limite, laissant place à une subjectivité accrue et à des évaluations menées par des experts souvent éloignés du contexte régional.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Prime de risque africaine

Sur le continent, une frustration grandit : celle d’une « prime de risque africaine ». Exagérée, imposée par des notations jugées trop sévères, elle ne refléterait pas les progrès économiques et structurels réalisés. Une étude du Programme des Nations unies pour le développement (Pnud) estime que cette surévaluation du risque entraînerait des surcoûts d’emprunt de plusieurs milliards de dollars par an pour les pays africains.

D’après ce rapport, la sous-évaluation des notations souveraines par les agences (S&P, Moody’s, Fitch) engendre un surcoût annuel estimé à 74,5 milliards de dollars pour les pays africains, dont, notamment, 14,2 milliards en surcoûts d’intérêts sur les dettes domestiques, 30,9 milliards en opportunités de financement manquées pour ces mêmes dettes et 28,3 milliards supplémentaires pour les eurobonds – des obligations ou titres de créance émis par un pays dans une monnaie différente de la sienne.

Variation entre les trois grandes agences de notation et les scores de la plate-forme Trading Economics
Variation entre les trois grandes agences de notation et les scores de la plateforme Trading Economics. UNDP

Les critiques portent sur deux aspects :

  • Les biais quantitatifs : les modèles standardisés ne reflètent pas toujours les réalités locales, en particulier l’impact des économies informelles. Ils sous-estiment le rôle essentiel des diasporas dans le financement des États. En 2024, selon un rapport de la Banque mondiale, les Africains vivant à l’étranger ont envoyé 100 milliards de dollars vers le continent, soit l’équivalent de 6 % du PIB africain.

  • Les lacunes qualitatives : le manque de données contextuelles conduit à des évaluations subjectives. En 2023, le Ghana a ainsi rejeté sa notation de Fitch, la qualifiant de « déconnectée des réformes en cours ». Plusieurs pays africains ont publiquement rejeté les notations qui leur ont été attribuées au cours des dix dernières années.

L’alternative : Africa Credit Rating Agency (Afcra)

Face à ces limites, une réponse Made in Africa a germé : la création de l’Africa Credit Rating Agency (Afcra), une agence de notation pensée par des Africains, pour des Africains. Portée par l’Union africaine, cette initiative ambitionne de réécrire les règles du jeu.

L’idée est de construire une grille d’analyse qui épouse les réalités du continent, ses défis, mais aussi ses atouts souvent invisibilisés. Au cœur du projet : des méthodes transparentes, nourries par des données locales et des indicateurs taillés sur mesure. Les indicateurs sur mesure pourraient inclure la valorisation des actifs naturels, la prise en compte du secteur informel et des mesures du risque africain réel plutôt que perçu. L’objectif est d’obtenir des notations plus complètes grâce à cette sensibilité contextuelle.

Asymétrie d’information

Les agences de notation se présentent traditionnellement comme des actrices clés pour atténuer les déséquilibres informationnels sur les marchés. Leur promesse est d’éclairer les investisseurs en évaluant les risques de crédit, permettant ainsi des décisions mieux informées. Cette légitimité, acquise au fil des décennies, repose sur un double pilier : l’innovation constante dans leurs méthodes d’analyse et une réputation forgée par leur influence historique sur les marchés.

Un paradoxe persiste. Le modèle économique dominant – où les émetteurs financent eux-mêmes leur notation – alimente des suspicions récurrentes de conflits d’intérêts.

Nos recherches interrogent cette tension à travers une analyse de l’évolution du secteur des agences de notation, des fondements théoriques de son existence et des risques liés à la concentration du pouvoir entre quelques acteurs.

Un constat émerge, l’opacité des critères méthodologiques et la technicité des modèles utilisés nourrissent autant la défiance que la dépendance des marchés. Les agences s’appuient sur des indicateurs quantitatifs – PIB, dette publique, inflation – et qualitatifs – risque politique, transparence gouvernementale –, dont les pondérations varient, aboutissant à des évaluations parfois incohérentes. Pour renforcer leur crédibilité, une exigence s’impose : rendre lisible l’invisible, en clarifiant les processus d’évaluation sans sacrifier leur nécessaire complexité.

Méthologies IA et ESG

Des recherches récentes explorent le potentiel des méthodologies d’intelligence artificielle (IA) et d’apprentissage automatique pour intégrer les facteurs ESG (environnementaux, sociaux et de gouvernance) dans l’évaluation du risque. Ces avancées visent à surpasser les limites des modèles traditionnels en capturant la complexité des relations entre les indicateurs ESG et le risque financier, avec pour objectif de renforcer la précision et la fiabilité des évaluations du risque pour favoriser une allocation du capital plus éclairée et durable.

Pour l’Afrique et l’Afcra, ces approches mettraient en lumière des atouts sous-estimés, comme la résilience du secteur informel ou certaines spécificités institutionnelles. Elles permettraient aussi de mieux comprendre les liens complexes entre les critères ESG et le risque financier propres au continent. L’objectif pour l’Afcra serait de créer des évaluations plus précises et adaptées, réduisant la « prime de risque africaine ».

L’essor d’agences régionales représente une avancée importante vers un système plus équilibré. Pour réussir, les gouvernements africains doivent coordonner leurs efforts, soutenir les initiatives locales et instaurer un dialogue constructif avec les agences internationales. L’Afrique est en marche vers une meilleure souveraineté financière. L’Afcra saura-t-elle relever le défi ?

The Conversation

Oussama Ben Hmiden ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

13.04.2025 à 13:03

Le retour de Murakami : « La Cité aux murs incertains », une plongée troublante entre deux mondes

Anne Bayard-Sakai, Professeure émérite de littératrue japonaise, Institut national des langues et civilisations orientales (Inalco)

Sept&nbsp;ans après son dernier roman, Haruki&nbsp;Murakami revient avec un nouvel ouvrage, «&nbsp;la Cité aux murs incertains&nbsp;».
Texte intégral (1797 mots)
Dans son nouveau roman, Murakami traite un des motifs qui l’obsèdent : les vies parallèles. Alma Pratt/Unsplash, CC BY

Sept ans après son dernier roman, Haruki Murakami revient avec un nouvel ouvrage, la Cité aux murs incertains, travaillant les motifs du réel, de l’irréel et des vies parallèles que nous pourrions mener.

Cet article contient des spoilers.


« Il me serait très délicat d’expliquer à quelqu’un qui mène une vie ordinaire que j’ai vécu pendant un certain temps dans une cité fortifiée. La tâche serait trop complexe », fait dire Haruki Murakami à son narrateur dans son dernier roman, la Cité aux murs incertains, dont la traduction française vient de paraître, deux ans après l’original en japonais. Et pourtant, dans le mouvement même où le narrateur renonce à cette tâche impossible, l’auteur, lui, s’y attelle, pour le plus grand plaisir de lecteurs qui dans l’ensemble mènent, probablement, des vies ordinaires.

Passer d’un monde à un autre, y rester, en revenir, y retourner, disparaître… S’il fallait résumer ce dont il est question ici, ce serait peut-être à cette succession de verbes qu’il faudrait recourir. Les fidèles de cet auteur majeur de la littérature mondiale en ce XXIe siècle le savent : la coexistence de mondes parallèles est l’un des thèmes centraux de son univers, et ce roman en offre une nouvelle exploration. Mais nouvelle, vraiment ? Ces mêmes lecteurs auront peut-être éprouvé en le découvrant une impression de familiarité un peu déconcertante, quelque chose qui relèverait de l’inquiétante étrangeté, l’« Unheimlich », chère à Freud.

« Selon Jorge Luis Borges, il n’existe qu’un nombre limité d’histoires qu’un écrivain peut véritablement raconter avec sincérité au cours de sa vie. En quelque sorte, nous ne sommes capables de traiter ce nombre limité de motifs que sous différentes formes et avec les moyens limités dont nous disposons », précise l’auteur dans une postface destinée à éclairer la genèse du roman.

Précision indispensable, car l’histoire qui nous est racontée ici, Murakami l’a déjà traitée à deux reprises. D’abord en 1980, dans une nouvelle jamais republiée depuis, qui porte le même titre que le roman de 2023 (à une virgule près, comme il l’indique). Puis en 1985, dans une œuvre particulièrement ambitieuse, la Fin des temps.

Abandonner sa propre ombre

Que partagent ces trois textes ? Un lieu hors du temps, une cité ceinte de hauts murs, à laquelle on ne peut accéder qu’en abandonnant sa propre ombre, et où le narrateur occupe la fonction de liseur de rêves. Mais cette matrice romanesque est prise dans des réseaux narratifs très différents, d’une complexité croissante. Si la nouvelle de 1980 est centrée sur la Cité, le roman de 1985 est construit sur deux lignes romanesques distinctes qui se développent dans des chapitres alternés et qui s’ancrent chacune dans un univers singulier dont l’un seulement correspond à la Cité entourée de remparts – toute la question étant de savoir comment ces lignes vont finir par se croiser.

Dans cette amplification ne se joue donc pas seulement une complexification du dispositif : c’est le lien même entre des univers différents qui s’affiche désormais au cœur du dispositif avec, en 2023, ce qui apparaît comme une intériorisation d’univers pluriels et comme introjectés.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Le roman débute avec un amour entre deux adolescents. Celui-ci se noue autour du récit qu’avant de disparaître, la jeune fille fait d’une « cité entourée de hauts murs », dans laquelle vit son être véritable tandis que seule son ombre est présente devant le jeune homme. Pour rejoindre celle qu’il a perdue, celui-ci va donc passer dans la Cité, en acceptant de se séparer de son ombre. Mais il n’y restera finalement pas, revient dans le monde (où il devient directeur d’une bibliothèque – et on sait l’importance et la récurrence de ces lieux dans l’œuvre de l’auteur), jusqu’au moment où, de nouveau, il franchira le mur d’enceinte de la Cité, avant d’en repartir…

Le narrateur est ainsi toujours pris lui-même dans une incertitude, où sa propre identité est remise en question, où la réalité s’effrite : est-il lui-même ou son ombre ? Y a-t-il un monde plus réel que l’autre ? Le narrateur dit :

« Dans ma tête se déroulait un conflit acharné entre le réel et l’irréel. Je me trouvais enserré entre ces deux mondes, à l’interface subtile entre le conscient et le non-conscient. Il me fallait décider à quel monde je voulais appartenir. »

Comme toujours dans les romans de Murakami, il n’y a pas de choix, les personnages ne sont pas maîtres de leur destin, ils sont mis dans l’incapacité de trancher.

« C’est comme si nous nous contentions d’empiler les hypothèses les unes sur les autres jusqu’à ce que, à la fin, nous ne soyons plus capables de séparer les hypothèses des faits »,

dit, à un moment donné, l’ombre et le narrateur, plus loin, d’enchérir :

« Tandis que j’étais là, seul dans la neige blanche, que je contemplais au-dessus de moi le ciel d’un bleu profond, j’avais parfois l’impression de ne plus rien comprendre. À quel monde est-ce que j’appartenais, à présent ? »

cite aux murs incertains Murakami

La question se pose à lui avec d’autant plus d’insistance que cette Cité est une ville racontée, par la jeune fille, par le narrateur, par l’auteur lui-même, que son existence est d’abord celle d’un discours, d’une production imaginaire, d’une fiction.

Mais la vie du narrateur hors de la Cité est, elle aussi, une fiction, celle inventée par l’auteur, d’où, pourrait-on dire, une indétermination sur la teneur en réalité de chacun des mondes, indétermination qui sape les certitudes du lecteur tout autant que celles du narrateur : quel est, en somme, l’univers de référence ? Murakami se garde bien de le dire.

Dans une interview, donnée à plusieurs journaux nationaux à l’occasion de la sortie du roman, Murakami explique :

« Il y a de multiples bifurcations dans la vie. Souvent je me demande ce que je serais devenu si j’avais pris à tel moment tel autre chemin. Dans un autre univers, je serais peut-être toujours patron d’une boîte de jazz. Je ne peux pas m’empêcher de penser que le monde dans lequel je suis, là maintenant, et un autre, qui n’est pas celui-là, sont intimement liés. »

Et il ajoute :

« Conscient et inconscient. Le présent qui est là, et un autre présent. Aller et venir entre ces deux mondes, voilà ce qui est au cœur des histoires que j’écris, et qui ressurgit toujours. Écrire des romans, pour moi, c’est sortir de ma conscience actuelle pour entrer dans une autre conscience, si bien que l’acte d’écrire et le contenu de que j’écris ne font qu’un. »

Si la Cité aux murs incertains occupe une place si cruciale dans son imaginaire qu’il ne cesse d’y revenir, c’est bien en définitive parce qu’elle est l’incarnation même – la mise en mots – de cet ailleurs, du temps, de l’espace, de la conscience, qui est au fondement de sa vision du monde et de son projet d’écriture.

The Conversation

Anne Bayard-Sakai ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

12.04.2025 à 16:57

Le déficit commercial entre les États-Unis et l’Union européenne : un déséquilibre plus structurel qu’il n’y paraît

Charlie Joyez, Maitre de Conférence en économie, Université Côte d’Azur

Quelle est la réalité du déficit entre les États-Unis et l’Union européenne&nbsp;? Quels biens sont concernés&nbsp;? Y a-t-il des évolutions alarmantes&nbsp;? Nos réponses en six graphiques.
Texte intégral (1698 mots)

Pour justifier sa politique unilatérale de droits de douane, le président des États-Unis Donald Trump mobilise le déficit commercial de son pays, notamment vis-à-vis de la « méchante » Union européenne. Quelle est la réalité de ce déficit ? Quels biens sont concernés ? Y a-t-il des évolutions alarmantes ?


L’aversion proclamée de Donald Trump pour les déficits commerciaux l’a rapidement poussé, dès le début de son second mandat, à dénoncer un déficit excessif (bien qu’exagéré) des États-Unis envers l’Union européenne (UE). Le taux historique de 20 % de droits de douane imposé aux importations européennes, annoncé en avril 2025 et suspendu depuis, vise tout d’abord à réduire ce déficit bilatéral. Malgré cette pause dans la politique des droits de douane, il convient d'étudier en détail la composition des causes du déficit entre les États-Unis et l'Union européenne.

Ce déséquilibre commercial entre les États-Unis et l’UE s’est en effet largement et rapidement dégradé ces dernières années, jusqu’à atteindre 169 milliards de dollars en 2023 (données de la base pour l’analyse du commerce international (Baci)), soit environ 0,6 % du PIB des États-Unis cette année-là.

Mais, au-delà de cette dégradation, il est possible de voir des changements structurels à l’œuvre qui sont inquiétants pour les États-Unis et pour leur compétitivité vis-à-vis du partenaire européen.

Aggravation récente du déficit

Le déficit commercial des États-Unis envers l’Union européenne n’est pas récent, et existe dès la création de l’UE au milieu des années 1990. Toutefois, il s’est largement aggravé ces dix dernières années, comme le montre la figure 1 ci-dessous. Cette détérioration s’explique facilement : la demande outre-Atlantique était stimulée par une croissance bien plus forte qu’en Europe.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


En effet, depuis 2008, la croissance cumulée des États-Unis atteint 27 % contre seulement 16 % dans l’UE. Une seconde raison est l’appréciation relative du dollar (inférieur à 0,8 € jusqu’en 2014, autour de 0,9 € depuis), rendant les biens européens moins chers pour le consommateur américain. Réciproquement, cet écart de taux de change limite la compétitivité des biens « Made in USA » sur le marché européen.

Cependant, cette évolution est également structurelle. Cela est visible si l’on regarde la composition des exportations de chacun, comme le reporte la figure 2, ci-dessous.

Les exportations européennes vers les États-Unis ne changent pas beaucoup sur la période, on remarque seulement une augmentation de la part de la section VI de la classification « Harmonized System » correspondant aux industries chimiques (et pharmaceutiques), de 20 % à 30 % du total. Les exportations européennes sont donc surtout concentrées sur les sections VI, XVI (machines et appareils) et XVII (matériel de transport) qui représentent, à elles seules, deux tiers des exportations européennes vers les États-Unis.

Fortes exportations de pétrole

À l’inverse, dans les exportations américaines vers l’UE, la part de l’industrie chimique se maintient (légèrement supérieure à 20 %), mais les autres points forts traditionnels (qui étaient, comme l’Europe, les sections XVI et XVII) diminuent assez sensiblement au profit des exportations de la section V (minéraux) et, tout particulièrement, de pétrole, depuis 2022.


À lire aussi : Décrochage de croissance entre la France, l’UE et les États-Unis : l’urgence d’un choc de productivité


Les exportations états-uniennes deviennent dès lors nettement plus concentrées que les exportations européennes, même si la tendance est notable dès 2020.

Cette concentration des exportations de chaque bloc dans leurs domaines respectifs va de pair avec une diminution du commerce intrabranche, c’est-à-dire de flux croisés (importations et exportations) de biens similaires, comme le montre l’indice de Grubel et Llyod :

Déficit en termes de valeur ajoutée

L’analyse ci-dessus, malgré son intérêt, reste profondément biaisée pour identifier ce qu’il y a d’« états-uniens » qui est consommé en Europe, et inversement. En effet, dans l’économie globalisée actuelle, les biens exportés des États-Unis vers l’UE ne sont pas forcément fabriqués aux États-Unis. À vrai dire, une part non négligeable de la valeur ajoutée de chaque exportation provient de l’étranger, et parfois même du pays « importateur ».

Ainsi une vision plus correcte des déficits bilatéraux consiste à regarder le déficit commercial non plus en valeur brute, mais en valeur ajoutée. C’est toute l’ambition du programme Trade in Value Added (Tiva) de l’OCDE. D’après ces données, qui s’arrêtent en 2020, le solde commercial en valeur ajoutée est encore plus à l’avantage de l’Union européenne à 27 que le solde commercial brut.

Ainsi, le solde commercial en valeur ajoutée diverge de plus en plus du solde commercial brut qui est au centre des discussions. En 2020, le déficit en valeur ajoutée est 1,79 fois supérieur au déficit observé en valeur brute, contre un rapport de 1,06 en 2000 !

Les consommateurs américains consomment donc de plus en plus de la valeur ajoutée créée en Europe – à travers la hausse des importations de l’UE, mais pas seulement. Et si la réciproque est vraie pour les consommateurs européens, jusqu’en 2019, la tendance est nettement moins marquée.

Complexité des biens échangés

Enfin, une dernière dimension à étudier est la qualité des exportations de chaque partenaire dans cette relation bilatérale. En effet, les spécialisations commerciales sont plus ou moins bénéfiques dans le sens qu’elles peuvent favoriser le pays exportateur ou, au contraire, se révéler perdantes pour lui.

Par exemple, un pays dont l’économie s’enferme dans une trop forte spécialisation en biens primaires risque de voir le déclin de l’industrie et à terme de la croissance, comme l’illustre l’exemple du « mal Hollandais » ou les « malédictions des ressources naturelles ».

Ce potentiel bénéfique des paniers de spécialisation a été labellisé « complexité économique ». Il se calcule à la fois pour chaque bien (un bien est-il plus ou moins « complexe » à produire ?), mais aussi au niveau des États (un pays exporte-t-il des biens complexes ou non ?).

Si, au début de la période observée, les scores de complexité des deux partenaires étaient similaires, et ce jusqu’en 2017 (voire supérieurs pour les États-Unis avant 2010), la complexité des biens exportés de l’UE vers les États-Unis augmente tendanciellement depuis 2015, quand elle baisse drastiquement depuis 2017 aux États-Unis. La forte spécialisation des États-Unis dans les combustibles fossiles et l’abandon relatif de la spécialisation dans l’industrie pèse donc sur la complexité des biens échangés.

Et les services ?

Les États-Unis voient donc leur déficit commercial avec l’Union européenne se dégrader fortement depuis dix ans. Cependant, ce déficit apparent est encore moins marqué que le décrochage du commerce en valeur ajoutée entre les deux blocs. Cela va de pair avec une réorientation structurelle des exportations américaines vers une plus grande part de ressources naturelles, qui explique une concentration des exportations, une plus faible part des échanges intrabranches dans le total et un décrochage de la complexité des exportations américaines, qui pourrait à terme profiter à l’Union européenne.

France 24, 2025.

Toutefois, il convient de noter que toutes ces observations ne prennent en compte que le solde du commerce en biens et ignorent la dimension du commerce de services.

On sait déjà que la prise en compte de ce commerce de services réduit des deux tiers le déficit commercial bilatéral des États-Unis avec l’Union européenne, grâce à leurs monopoles dans les nouvelles technologies.

Cependant, cela ne change pas notre conclusion principale, à savoir que ce décrochage dans le solde commercial des biens démontre un changement structurel profond des exportations américaines vers l’UE, qui abandonnent l’industrie de pointe pour se concentrer sur les deux autres extrémités du spectre : les ressources naturelles et les services numériques.

The Conversation

Charlie Joyez ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

12.04.2025 à 16:55

Pour lutter contre la désinformation sur les réseaux, tirer des leçons de la régulation audiovisuelle

Winston Maxwell, Directeur d'Etudes, droit et numérique, Télécom Paris – Institut Mines-Télécom

Nicolas Curien, Professeur émérite honoraire du CNAM, Académie des technologies

L’asymétrie entre la régulation des chaînes de télé et de radio et les réseaux sociaux est de moins en moins justifiée. La régulation pourrait être adaptée pour les algorithmes.
Texte intégral (2054 mots)

Les députés socialiste Thierry Sother et écologiste Jérémie Iordanoff tirent la sonnette d’alarme : l’outil principal de l’Union européenne pour lutter contre la désinformation sur les réseaux, le règlement sur les services numériques (DSA), est une « digue fragilisée ».

De la même façon, Viginum, le service de vigilance et protection contre les ingérences numériques étrangères, décrit la facilité avec laquelle l’algorithme de TikTok a pu être manipulé pour torpiller les élections roumaines et souligne que le même phénomène pourrait se produire en France, à travers TikTok ou d’autres grands réseaux.


La dérive désinformationnelle aujourd’hui observée sur les réseaux sociaux, et en particulier sur X, constitue un sérieux motif d’inquiétude, selon les députés Thierry Sother et Jérémie Iordanoff, qui appellent à mieux mobiliser les armes disponibles, voire à en créer de nouvelles. Le Brésil par exemple n’a pas hésité à interdire X sur son territoire jusqu’à ce que le réseau se conforme aux exigences d’un juge.

À la recherche de nouveaux outils réglementaires, la régulation de la radio et de la télévision, médias depuis longtemps confrontés au problème de désinformation, peut être une source d’inspiration.

Une telle approche nécessiterait d’être adaptée au fonctionnement des réseaux sociaux, en particulier en l’appliquant aux algorithmes de recommandation, qui sont à la source des bulles d’informations qui piègent les internautes.

Une asymétrie réglementaire entre réseaux sociaux et audiovisuel

Comme rappelé dans le rapport parlementaire, le règlement européen sur les services numériques (ou DSA) impose aux grands réseaux sociaux de déployer des outils pour enrayer la désinformation. Le DSA ne les oblige certes pas à vérifier chaque contenu posté par les utilisateurs, mais à mettre en place des mesures techniques appropriées pour réduire l’impact des contenus préjudiciables. Ceci représente une avancée majeure par rapport à la situation antérieure, en établissant un équilibre entre, d’un côté, la liberté d’expression sur les réseaux et, de l’autre, la protection des institutions et des citoyens européens contre des attaques perpétrées par l’intermédiaire de ces mêmes réseaux.

Au titre du DSA, la Commission européenne a entamé des procédures d’enquête et de sanction mais, selon les députés, les effets « tardent à se faire sentir et les investigations tendent à repousser l’action » : de fait, aucune sanction n’a été infligée à ce jour.

Ainsi que l’explique un récent rapport de l’Académie des technologies auquel les auteurs de cet article ont contribué, la désinformation est un phénomène ancien, que les règles de pluralisme ont su endiguer dans les médias audiovisuels, tout en préservant la liberté d’expression.

Dès lors, pourquoi ne pas appliquer ces mêmes règles aux grands réseaux sociaux ? Contrairement à ces derniers, les services audiovisuels sont strictement encadrés : selon le Conseil d’État, l’Arcom doit veiller à ce que les chaînes assurent une expression pluraliste des courants de pensée et d’opinion. Cette autorité a ainsi suspendu, en mars 2022 puis mars 2025, la diffusion de plusieurs chaînes de télévision russes, en raison de manquements manifestes à l’honnêteté de l’information.

Si TikTok était un service audiovisuel, il aurait sans doute déjà encouru de lourdes sanctions, voire des interdictions d’émettre. Pourquoi une telle différence de traitement ?


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Asymétrie de moins en moins justifiée

Trois principales raisons sont invoquées.

Tout d’abord, les réseaux sociaux ne choisissent pas les contenus postés par les utilisateurs, ils ne font que les héberger ; ils ne poussent pas un programme vers des téléspectateurs, les internautes venant chercher les contenus comme dans une bibliothèque. Aujourd’hui, ce motif de non-régulation semble beaucoup moins pertinent qu’au début des années 2000. En effet, les algorithmes de recommandation sélectionnent la plupart des contenus et les dirigent de manière ciblée vers les utilisateurs afin que ceux-ci restent connectés, avec, pour résultat, l’augmentation des recettes publicitaires des plateformes.

Ensuite, les réseaux sociaux n’exercent pas le même impact que la télévision. En 2013, la CEDH a ainsi rejeté l’idée que les réseaux sociaux auraient une influence équivalente à celle de la télévision, en estimant que

« les choix inhérents à l’utilisation d’Internet et des médias sociaux impliquent que les informations qui en sont issues n’ont pas la même simultanéité ni le même impact que celles qui sont diffusées à la télévision ou à la radio ».

Ce raisonnement, recevable au début des années 2010, ne l’est clairement plus aujourd’hui, alors que 53 % des jeunes de 15 à 30 ans s’informent principalement à travers les réseaux sociaux, l’incidence relative de la télévision s’étant significativement réduite.

Enfin, les canaux hertziens de la télévision constituent une ressource rare, propriété de l’État. Les chaînes qui exploitent ce spectre radioélectrique, ce qui n’est pas le cas des services numériques, doivent en retour respecter des obligations de service public, comme le pluralisme. Cet argument perd de sa force aujourd’hui, car l’évolution des marchés numériques a spontanément créé une rareté de choix pour les internautes, en plaçant quelques grandes plateformes en position oligopolistique de gate keepers dans l’accès à l’information.

Si la diversité des contenus disponibles en ligne est théoriquement quasi infinie, leur accessibilité effective est quant à elle régie par le petit nombre des algorithmes des plus grandes plateformes. Le pouvoir né de cette concentration sur le marché de l’accès à l’information justifie pleinement une régulation.

Vers des algorithmes pluralistes…

À l’évidence, la « matière » régulée ne serait pas les contenus postés sur les plateformes par les utilisateurs, mais l’algorithme de recommandation qui organise les flux et capte l’attention des visiteurs. Cet algorithme devrait être considéré comme un service de télévision et se voir imposer des règles de pluralisme, à savoir l’obligation de mettre en avant des informations impartiales et exactes et de promouvoir la diversité des opinions exprimées dans les commentaires.

Si l’idée d’un « algorithme pluraliste » apparaît séduisante, la complexité de sa mise en œuvre ne peut être ignorée. Considérons un individu qu’un algorithme a piégé à l’intérieur d’une bulle informationnelle et qui se trouve donc privé de pluralisme. S’il s’agissait d’un service de télévision, il conviendrait d’inclure dans le flux les points de vue de personnes en désaccord avec les contenus prioritairement mis en avant. Une approche difficile à appliquer à un algorithme, car elle exigerait que celui-ci soit capable d’identifier, en temps réel, les messages ou personnes à insérer dans le flux pour crever la bulle sans perdre l’attention de l’internaute.

Une approche alternative consisterait à accorder une priorité croissante à la diffusion d’informations issues de tiers de confiance (fact-checkers), au fur et à mesure que l’utilisateur s’enfonce dans un puits de désinformation. Ce dispositif s’approche de celui des community notes utilisé par X ; des chercheurs ont néanmoins montré qu’il n’est pas assez rapide pour être efficace.

Selon une troisième approche, les messages provenant de sources identifiées comme problématiques seraient coupés. Ce procédé radical a notamment été utilisé par Twitter en 2021, pour suspendre le compte de Donald Trump ; son emploi est problématique, car la coupure est une procédure extrême pouvant s’apparenter à la censure en l’absence d’une décision de justice.

Mesurer le degré d’artificialité, une approche qui fait ses preuves

Une dernière approche envisageable s’inspire des instruments multifactoriels utilisés par les banques dans la lutte contre le blanchiment de capitaux. Les contenus seraient marqués d’un score de risque de désinformation et les scores élevés « dépriorisés » dans le système de recommandation, tandis que seraient rehaussés les poids des informations issues de sources journalistiques plus fiables.

Le score de risque serait calculé à partir d’au moins deux critères : le degré d’artificialité dans la diffusion du message, indiquant la vraisemblance du recours à des bots ; et le degré d’artificialité dans la création du contenu, indiquant la vraisemblance d’une génération par l’IA. Un tel indicateur double est proposé par l’Académie des technologies dans son rapport. Des outils d’IA vertueux pourraient par ailleurs aider au calcul du score, ou encore à l’identification d’informations de confiance, permettant de contrer les messages litigieux.

Les plateformes objecteront qu’une obligation de pluralisme violerait la liberté d’expression. C’est en réalité tout le contraire : selon la Cour européenne des droits de l’homme, le pluralisme préserve la liberté d’expression et le débat démocratique, en prévenant la manipulation de l’opinion.

Le pluralisme a fait ses preuves dans l’audiovisuel, il est temps désormais de l’appliquer aux grands réseaux sociaux, même si les modalités techniques restent à définir.

The Conversation

Winston Maxwell fait partie du groupe de travail sur l'IA Générative et la mésinformation de l'Académie des Technologies. Il a reçu des financements de l'Agence nationale de Recherche (ANR).

Nicolas Curien est membre fondateur de l'Académie des technologies, où il a piloté en 2023-2024 le groupe de travail "IA générative et mésinformation". Il a été membre du Collège du CSA (devenu Arcom), de 2015 à 2021, et membre du Collège de l'Arcep, de 2005 à 2011.

10.04.2025 à 17:14

France TV, Radio France, INA : pourquoi une réforme de l’audiovisuel public est indispensable

Nathalie Sonnac, Professeure en sciences de l'information et de la communication, Université Paris-Panthéon-Assas

La réforme de l’audiovisuel public, qui devait être examinée vendredi&nbsp;11 avril à l’Assemblée, est à nouveau reportée. Elle vise à créer une holding chapeautant France Télévisions, Radio France et l’INA.
Texte intégral (2054 mots)

La réforme de l’audiovisuel public, envisagée depuis des années, et qui devait être examinée vendredi 11 avril par les députés, est reportée, sans calendrier défini. Contesté par l’opposition de gauche et par les syndicats, qui appellent à la grève, ce projet vise à la création d’une holding chapeautant France Télévisions, Radio France et l’Institut national de l’audiovisuel (INA). Mais la France peut-elle se passer d’une réforme alors que ces entités sont directement concurrencées par les plateformes numériques et les réseaux sociaux ?


La création d’une holding de l’audiovisuel public, réunissant les groupes France Télévisions, Radio France (RF) et l’INA, est de nouveau mise sur la table par la ministre de la culture Rachida Dati. Une question éminemment politique, où chacun joue, depuis des années, la même partition. À droite, la redevance serait trop élevée et sa rentabilité insuffisante – il faudrait fermer une ou deux chaînes. L’extrême droite souhaite une privatisation. De l’autre côté du spectre politique, le rapprochement de ces entreprises n’aurait qu’un seul but : licencier les personnels et réduire les coûts, entraînant de facto la baisse de la qualité des programmes, sonnant la fin de l’intérêt général.

Mais la chanson a vieilli et l’heure est grave. La France a-t-elle les moyens et le temps de tergiverser ?

Un audiovisuel public plébiscité par les Français

Plébiscité par les Français, qui le positionne en tête des audiences : la matinale de France Inter réunit 7,4 millions d’auditeurs tous les matins, 4 millions de téléspectateurs pour le journal télévisé de 20 heures de France 2, le service public est un élément de souveraineté culturelle et de cohésion sociale. Il est aussi un pilier de l’écosystème médiatique audiovisuel.

Les entreprises publiques représentent 54 % du poids total du secteur audiovisuel, avec près de 15 000 salariés et une valeur économique de près de 4,5 milliards d’euros (2023). Partenaire clé du tissu économique de la production audiovisuelle et cinématographique française, France TV investit chaque année près de 480 millions d’euros dans ce secteur.

Mais la réforme s’inscrit cette fois dans un tout autre contexte, celui d’un big bang médiatique où l’intégrité du processus de production de l’information est remise en question.

Un audiovisuel public en concurrence avec les réseaux sociaux

En une génération, les réseaux sociaux ont supplanté les médias traditionnels comme sources principales d’information. Selon le dernier rapport du Reuters Institut (2024), 23 % des 18-25 ans dans le monde s’informent sur TikTok, 62 % des Américains et 47 % des Français s’informent sur les réseaux sociaux, tandis que seulement 1 % des Français de moins de 25 ans achètent un titre de presse.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Aujourd’hui, télévision, presse écrite et radio sont en concurrence directe et indirecte avec les plateformes numériques et les réseaux sociaux. Le transfert de leurs audiences vers YouTube ou Netflix – par exemple – entraîne la baisse de leurs revenus publicitaires, les fragilisant économiquement. En 2030, 66 % des revenus publicitaires iront vers les grandes plateformes.

De surcroît, ce sont 82 % des Français qui ne paient pas pour s’informer.

Or, la gouvernementalité algorithmique qui sous-tend les modèles d’affaires des réseaux sociaux n’est pas neutre. Centrée sur la captation de notre attention, elles créent les conditions de circulation de fausses informations et de polarisation politique, où l’engagement génère du profit et où la haine génère de l’engagement. Cela est largement documenté aujourd’hui : ces modèles sont manipulatoires (Zuboff, 2020 et Chavalarias, 2022). Ils conjuguent une visée commerciale : fournir des services et des publicités personnalisés grâce à une attention accrue (plus d’attention, plus de publicité, plus de profit) à une visée politique : manipuler l’information via leurs algorithmes puissants pour influencer les votes.

Cette « nouvelle » réforme s’inscrit dans un contexte de défiance à l’égard des institutions, de large circulation de fake news et de discours complotistes.

Elle s’inscrit aussi dans un moment de vacillement des modèles d’affaires des médias privés, avec un accès et une distribution de l’information qui passent majoritairement par Internet au détriment de la TNT, neutre, universelle, gratuite. À deux ans de l’élection présidentielle, comment le service public peut-il demeurer un rempart contre l’érosion du débat démocratique ?

Transformation numérique et protection du système d’information

La nécessité de réformer l’audiovisuel public n’est pas propre à la France. En Grèce, en 2013, le gouvernement avait provoqué une onde de choc en supprimant brutalement le pôle ERT ; en Suisse en 2018, la question de l’avenir du service public avait été soumise à la votation. Une proposition rejetée à 71 % mais qui a fait trembler le pays. Début 2020, le gouvernement de Boris Johnson a évoqué le gel de la redevance pour une suppression du service en 2027, alors même que la BBC était considérée comme le modèle à suivre.

En Europe, la directive des services de médias audiovisuels (SMA) stipule l’importance du rôle de la présence de médias privés et publics puissants, considérés comme des instruments essentiels de cohésion sociale et de maintien de nos démocraties. C’est aussi à l’échelle européenne que les médias publics sont reconnus comme un pilier démocratique.

À l’inverse des États-Unis, où l’audiovisuel public est quasi inexistant, tous les pays européens ont misé sur le service public pour garantir un audiovisuel de qualité, partageant des valeurs communes comme l’indépendance face aux ingérences politiques, l’universalité pour toucher tous les publics, l’excellence professionnelle, la diversité des points de vue, la responsabilité éditoriale ou encore la capacité d’innovation.

Des études de l’UER montrent une corrélation entre le financement de l’audiovisuel public et la solidité des démocraties.

Les pays investissant davantage bénéficient d’une meilleure participation citoyenne, d’un pluralisme renforcé et d’une information de qualité. Inversement, la diminution des financements fragilise ces institutions face à la montée en puissance d’acteurs privés non européens. Une analyse croisée de l’UER et de l’Economist Intelligence Unit (EIU) démontre que les démocraties les plus solides sont celles où les médias audiovisuels publics bénéficient de financements importants, d’un financement pluriannuel par l’État, d’un lien financier direct avec le public et d’un cadre juridique garantissant pluralisme et indépendance.

Mais dans cet ensemble commun, la structuration de l’audiovisuel public français fait figure d’exception. En effet, nombreux sont les pays européens a avoir adopté une organisation qui regroupe télévision et radio au sein d’un même groupe. Beaucoup ont même opté pour une logique intégrée du web, de la télé et de la radio en matière d’information : la BBC au Royaume-Uni, la RAI en Italie, la RTBF en Belgique, la RTVE en Espagne ou encore Yle en Finlande.

Le projet de réforme 2022

En 2022, le sujet de la réforme revient avec force lors de la suppression de la redevance. In extremis, sa budgétisation a été évitée (qui aurait rattaché son financement au budget de l’État, avec une révision possible chaque fin d’année) au profit d’une fraction du produit de la TVA. Le rapport de l’inspection générale des finances (IGF), publié en mars 2024, inscrit cette réforme du financement dans un schéma général d’une refonte de sa gouvernance, de sa structure et de son périmètre d’action.

L’idée est de réunir les trois entités publiques dans une logique de mutualisation, de synergies et d’adaptation aux usages en ligne. Ces entités et leurs plateformes numériques sont distinctes, alors qu’elles partagent des missions d’intérêt général : promouvoir la diversité culturelle, l’accès universel à une information fiable et soutenir la création française.

Selon l’IGF, leur fonctionnement séparé entraîne une fragmentation de l’offre éditoriale, des doublons en matière d’investissements et de fonctions supports : ressources humaines, fonctions administratives (achats et marchés publics, archivage de la documentation) et financières (gestion de la trésorerie, compatibilité clients et générale), et de gestion immobilière. Ces dernières représentent environ 17 % des charges de France Télévisons et Radio France.

Des actions de rapprochement sur le terrain ont d’ailleurs été menées dans ce sens : la chaîne d’information en continu France Info, dans les tiroirs depuis 20 ans, a été créée en 2016 par les présidents des trois entités publiques. L’idée était bien la mise en commun de leurs moyens. Presque dix ans après cette création, la chaîne ne dispose toujours pas de matinale commune ni d’articulations réelles entre télé, radio et web.

Le projet de fusion de toutes les matinales entre France 3 Régions et France Bleu, mise à l’agenda en 2018, a « profité » de la crise sanitaire pour ne voir le jour que très timidement. Il a fallu cinq années pour voir sortir la marque ICI.

Ces projets ont été ralentis, freinés, empêchés, par manque de pilotage, de calendrier clair voire d’inertie ou de volonté réelle interne au sein de France TV et de Radio France. Le gouvernement choisit désormais de réformer la structure avec une seule tête pour piloter ce nouvel ensemble. La priorité devrait aller au développement du numérique et à la garantie d’une information de qualité. Malheureusement, une nouvelle fois, cette réforme risque de ne pas voir le jour avant l’élection présidentielle de 2027.

The Conversation

Nathalie Sonnac est Présidente du COP du Clémi, membre du Laboratoire de la République, ex-membre du CSA (Arcom) entre 2015 et 2021

10.04.2025 à 17:13

Voici pourquoi l’Exposition universelle d’Osaka devrait s’inspirer de celle de 1867 à Paris

Patrick Gilormini, Economie & Management, ESDES - UCLy (Lyon Catholic University)

L’Exposition universelle de 1867 symbolise l’âge d’or du Second Empire sous Napoléon&nbsp;III. En corollaire, la question de l’amélioration de la condition ouvrière. Aujourd’hui, à Osaka, celle de l’environnement&nbsp;?
Texte intégral (2519 mots)
L’Expo&nbsp;2025 Osaka Kansai offrira au monde l’occasion de se réunir en un lieu unique afin d’explorer le thème de la «&nbsp;vie&nbsp;». Mirko Kuzmanovic/Shutterstock

L’Exposition universelle de 1867 symbolise l’âge d’or du Second Empire sous Napoléon III : un capitalisme prospère et des industriels soucieux de présenter leurs produits. En corollaire, la question de l’amélioration de la condition ouvrière. Aujourd’hui, à Osaka, sera-ce le tour de l’environnement ?


Ce 13 avril, et jusqu'au 13 octobre 2025, se tient à Osaka, au Japon, l’Exposition universelle sur le thème « Concevoir la société du futur, imaginer notre vie de demain ». La France renoue avec une tradition dont elle a été l’initiatrice au XIXe siècle : offrir au grand public un espace de dialogue, de débat et de pédagogie pour diffuser l’innovation par le caractère démonstratif des installations. Le pavillon français est une vitrine scénarisée témoignant de l’excellence et du savoir-faire français. Au sein de la zone « Inspirer des vies », il porte une vision de la France à l’international qui concilie compétitivité et développement durable. Pour Emmanuel Macron, il se présente même comme un « hymne à l’amour ».

L’architecture d’ensemble du palais de l’exposition d’Osaka présente des similitudes avec celle de l’Exposition universelle de Paris en 1867 : une forme circulaire, un jardin central, une double classification des pavillons nationaux, un espace périphérique permettant de présenter les activités d’exception et les meilleurs pratiques. Comme celle de 1867 à Paris, cette exposition est « un lieu où de nouveaux produits et technologies naissent, rendant notre vie quotidienne plus commode ».

Racines révolutionnaires et françaises

La France est l’inventrice et la principale organisatrice des expositions industrielles du XIXe siècle. La première exposition des produits de l’industrie française eut lieu sous le Directoire, en l’An IV (1798). En 1801, le Consulat reprit cette initiative destinée à offrir un panorama des productions des diverses branches de l’industrie dans un but d’émulation. Au lendemain de la Révolution, l’économie nationale devant être relancée, notamment vis-à-vis de l’Angleterre, la juxtaposition de techniques très variées et la délivrance de récompenses devaient stimuler une fructueuse concurrence nationale.

Vue extérieure du Crystal Palace lors de l’Exposition universelle de Londres, en 1851. Marcmaison

À l’occasion de la première Exposition universelle à Londres, en 1851, fut érigé à Hyde Park, le Crystal Palace. Pour le philosophe allemand Peter Sloterdijk, cette sphère est le symbole de la phase finale de la globalisation ouverte en 1492. Elle est caractérisée par un système mondial donnant à toutes les formes de la vie les traits du capitalisme. Son immense succès affichait aux yeux du monde la suprématie du modèle de civilisation développé au Royaume-Uni. Sa croyance ? Les progrès de l’industrie, du commerce et des transports entraîneraient un accroissement du bien-être général après les blocus des guerres napoléoniennes.

Miroir du libéralisme et du saint-simonisme

L’organisation de l’Exposition universelle de Paris en 1867 résulte de la conjonction de plusieurs volontés culminant sous le Second Empire, l’âge d’or du capitalisme en France. Celle des industriels, qui considèrent ces expositions comme un élément clé de leur stratégie commerciale grâce aux médailles et récompenses, instruments de validation d’une qualité industrielle glorifiée. Celle du gouvernement impérial, promoteur de cette économie de la qualité dont la politique commerciale libérale constitue un volet important. Celle des intellectuels, soucieux d’améliorer l’esthétique des produits français et de renforcer la formation professionnelle des ouvriers.

Champs de Mars à Paris, lors de l’Exposition universelle de 1867. Getarchive, CC BY-SA

Elle manifeste l’influence de la pensée saint-simonienne qui vise le progrès social et technique. L’économiste Michel Chevalier (1806-1879) fut chef de la délégation française à l’Exposition de Londres en 1851. Il avait été l'un des fervents participants à la retraite utopique de Ménilmontant, durant laquelle les disciples du philosophe Henri Saint-Simon (1760-1825) se réunirent pour élaborer une nouvelle religion centrée sur le culte de la science et de l'industrie.

Chevalier fut président du jury international de l’Exposition de 1867. Son introduction au rapport de ce jury constitue une œuvre encyclopédique qui présente en une centaine de pages l’état de l’industrie humaine et, pour ainsi dire, de la civilisation industrielle dans la seconde moitié du XIXe siècle. Le rapport lui même comprend une description des récompenses attribuées par le jury spécial aux établissements et localités « qui ont développé la bonne harmonie entre les personnes coopérant aux mêmes travaux et qui ont assuré aux ouvriers le bien-être matériel, intellectuel et moral ».

Travail de fourmi

Cet évènement renvoie à une autre figure de l’histoire française de la pensée économique et sociale influencée les saint-simoniens : Frédéric Le Play (1806-1882), condisciple de Michel Chevalier à l’École polytechnique. En tant que commissaire général, il imposa sa marque à l’Exposition de 1867.


À lire aussi : Semaine de l’industrie 2024 : Emmanuel Macron a-t-il eu un moment saint-simonien ?


Diplômé de l’École polytechnique et de l’École des mines, Le Play a fait de nombreux voyages d’études, notamment en Allemagne, pour visiter les mines, les usines et s’intéresser aux populations ouvrières. Cet ingénieur est également sociologue. En se mettant en rapport intime avec les populations et les lieux, cet homme de terrain pratique une observation méthodique des faits sociaux saisis sur le vif et exposés dans le cadre de monographies. Une vérification de ces conclusions est réalisée auprès de personnalités qualifiées par leur expérience. Elle aboutit à la publication des Ouvriers européens, en 1855.

Exposition de l’homme et de la terre

Ses études des pratiques sociales joueront un rôle important lors du concours qu’il instituera pour l’Exposition universelle de 1867. Pour lui, celle-ci devait être une exposition de l’homme en parallèle d’une exposition de la terre, mettant en évidence des machines qui facilitent le travail des ouvriers. En 1867, on trouve à l’Exposition de Paris les caves de Roquefort. Un pavillon dédié participe à l’internationalisation du bon goût et contribue à la construction de l’image commerciale de la marque. Pour répondre aux enjeux d’amélioration de la condition ouvrière des boulangers, il fut encore possible admirer le pétrin mécanique couplé à la machine à vapeur promue par Louis Robert Lebaudy (1869-1931) et, avec les mêmes objectifs économiques et sociaux pour les cigarières, les premières machines à fabriquer des cigarettes.

Distribution solennelle des récompenses aux exposants dans le palais de l’Industrie, en 1867. Wikimedia commons, CC BY-SA

Sénateur du Second Empire de 1867 à 1870, la préparation de l’Exposition synthétise l’expérience de Le Play. La qualité de l’organisation joua un rôle majeur dans le succès de l’événement. La volonté d’assurer un bénéfice financier conduit à introduire des nouveautés majeures dans cette exposition : démultiplication des lieux d’exposition avec la création des pavillons, ouverture à de nouvelles problématiques, notamment la question sociale avec un musée de l’histoire du travail.

Écho favorable des élites

La plus grande liberté fut laissée aux exposants pour préparer leur installation. La voie est ouverte vers le gigantisme et le spectacle, au-delà de l’objectif initial. L’Exposition fait de Paris, pour un été, un lieu de fête. Ses résultats sont cependant loin de répondre aux attentes. Certes, l’industrie s’est modernisée et la France conserve son rang en matière d’arts décoratifs, mais la progression des États-Unis et des États allemands est patente.

Quant aux idées sociales des organisateurs – paternalisme et patronage –, elles ne reçurent un écho favorable qu’auprès de l’élite, et non des ouvriers.

Frédéric Le Play est aujourd’hui considéré, avec Tocqueville, comme le père fondateur de l’éthique de l’entreprise et de la conception française de la responsabilité sociale et environnementale. À présent, c’est moins la question sociale qui est au cœur des préoccupations que celle du nouveau régime climatique.

On ne parle plus de progrès, mais d’innovation. La question est de savoir si la globalisation prônée par Michel Chevalier en 1832 fait un monde habitable, selon Bruno Latour, et quelle fiction du cosmos offre à notre regard ces mises en scène spectaculaires.

The Conversation

Patrick Gilormini est membre de la CFDT

10.04.2025 à 17:12

Le retour du disque vinyle : entre nostalgie et renaissance culturelle

Erwan Boutigny, Maître de Conférences en Sciences de Gestion et du Management, Université Le Havre Normandie

Sophie Renault, Professeur des Universités en Sciences de Gestion et du Management, Université d’Orléans

Objet d’écoute et de désir, le vinyle fait son grand retour. De Taylor Swift à Julien Doré, les stars misent sur des éditions limitées pour raviver la flamme. Pourquoi ce phénomène de «&nbsp;technostalgie&nbsp;»&nbsp;?
Texte intégral (1878 mots)

Si le streaming domine le marché de la musique, le disque vinyle est devenu une alternative lucrative très « marketée », avec ses éditions limitées. Pourquoi ce support, que l’on pourrait croire dépassé, séduit-il autant ? Sans doute grâce à une combinaison subtile alliant la richesse du son analogique, l’expérience d’écoute immersive et un attachement quasi fétichiste à cet objet.

Éclipsé par l’essor des cassettes, suivies du CD puis du streaming, le vinyle a opéré, à partir des années 2000, un retour remarqué. D’après le rapport du Syndicat national de l’édition phonographique (Snep), on assiste à une renaissance triomphante du disque noir. Selon le bilan du marché, au premier semestre 2024, du SNEP, la progression du vinyle se stabilise (+0,2 %), avec un chiffre d’affaires qui dépasse, pour la première fois depuis les années 1980, celui du CD en recul de 13 %.

Objet tendance, il attire des amateurs de tous horizons musicaux. Alors que le streaming domine le marché, comment expliquer cette renaissance ? Cet article propose d’explorer les dimensions culturelles, émotionnelles, économiques et technologiques qui sous-tendent ce retour.

La renaissance paradoxale d’un support en décalage avec l’ère numérique

Dans un monde dominé par la dématérialisation, le vinyle peut sembler constituer un anachronisme. Pourtant, sa tangibilité en fait un support musical attractif. Contrairement au streaming incarné par des plateformes comme Spotify, Deezer ou bien encore Apple Music où la musique est immédiatement accessible mais immatérielle, le vinyle offre une expérience physique unique.

Le toucher de la pochette, le regard porté sur des visuels souvent travaillés, l’odeur du disque, son placement et la satisfaction d’écouter un son analogique riche sont au cœur de l’expérience sensorielle.

Résistants aux sirènes des nouvelles technologies, les audiophiles sont d’ailleurs restés fidèles au vinyle, reprochant aux CD et au streaming une compression excessive liée à la volonté de l’industrie musicale d’imposer une loudness war qui réduit inévitablement la dynamique audio au profit de l’augmentation du volume de la musique.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


L’engouement pour le vinyle est intimement lié à un phénomène de « technostalgie », laquelle est définie comme :

« Le sentiment mélancolique et nostalgique provoqué par les sons ou les images d’appareils analogiques, ou par le souvenir de technologies obsolètes, souvent perçues comme plus authentiques que le numérique. »

Le vinyle suscite, ce faisant, une double forme de nostalgie : celle d’un passé vécu, où l’écoute de la musique était un rituel conscient et immersif, et celle d’une époque idéalisée que les nouvelles générations n’ont pas connue, mais qu’elles fantasment comme un âge d’or. Le vinyle incarne ainsi une expérience musicale délibérée à mille lieues de la consommation rapide et dématérialisée du streaming.

En adoptant ce support, les amateurs de vinyles expriment à la fois une quête d’authenticité et une volonté de se démarquer, dans un monde saturé d’offres numériques. Le vinyle impose en outre une écoute structurée. Des albums comme Dark Side of the Moon des Pink Floyd ou OK Computer de Radiohead ont été conçus avec un arc narratif précis. La séparation en deux faces pousse les artistes à réfléchir à l’ordre des morceaux.

Le vinyle valorise ainsi l’intention artistique, en invitant l’auditeur à s’immerger pleinement dans l’œuvre, sans interruption ni zapping.

Une réponse à la crise de l’industrie musicale

Face au déclin des ventes de CD, le vinyle est devenu une alternative lucrative très « marketée ». Certains labels sont devenus experts des éditions limitées et luxueuses, attirant à la fois les collectionneurs et les amateurs d’objets uniques. Les artistes y trouvent un moyen de se connecter avec leur public, souvent à travers des objets exclusifs, renforçant ainsi le lien avec leurs fans. Cette tendance s’accompagne également d’une réflexion écologique et d’innovations en matière de production.

Par exemple, pour célébrer les dix ans de son album Løve, Julien Doré a opté pour une réédition en vinyle entièrement recyclé. Ce disque a été fabriqué à partir d’excédents de pressage et de rebuts de production, réduits en granules avant d’être réutilisés. Sa couleur, dépendante des matériaux recyclés, est unique à chaque exemplaire. Ce type d’initiatives illustre la façon dont le vinyle, loin d’être figé dans une simple nostalgie, s’adapte aux enjeux contemporains tout en conservant son statut d’objet singulier.

Au-delà de sa fonction musicale, le vinyle séduit ainsi par son esthétique, transformant chaque disque en un véritable objet de collection. Les rééditions et autres éditions limitées jouent sur les couleurs et les effets visuels pour enrichir l’expérience sensorielle des amateurs. Un exemple frappant est l’édition vinyle de Lover, de Taylor Swift, dont les deux disques aux teintes rose et bleu pastel reprennent parfaitement l’univers doux et romantique de l’album. Ce choix chromatique prolonge l’identité artistique de l’œuvre.

L’esthétique du vinyle repose aussi sur le design grand format des pochettes des 33 tours, qui permet une mise en valeur du storytelling visuel aux nuances vaporeuses et intimistes. Une édition encore plus singulière a vu le jour avec Lover (Live from Paris), pressée sous la forme de cœur, propulsant plus encore Taylor Swift au rang d’icône de la pop mais aussi du vinyle !

Quand le vinyle s’écoute, se collectionne et se contemple

Les nouvelles technologies ont également joué un rôle crucial dans le renouveau du vinyle. Des plateformes comme Discomaton proposent de créer des vinyles personnalisés tandis que d’autres comme Discogs permettent aux collectionneurs de trouver des éditions rares. Si les nouvelles technologies facilitent l’accès aux éditions rares et personnalisées, elles contribuent également à redonner une seconde vie aux disques devenus inutilisables. Plutôt que d’être oubliés ou jetés, ces vinyles trouvent une nouvelle vocation artistique et décorative. Des initiatives comme celle de l’artiste et artisane d’art Madame Vinyles en témoignent : en récupérant des disques abîmés ou invendables, elle leur offre une seconde vie sous forme d’objets de décoration uniques.

Les expositions et projets artistiques intègrent eux aussi de plus en plus le vinyle comme médium, soulignant ses qualités esthétiques et historiques. Créée à l’occasion des Rencontres d’Arles en 2015, l’exposition Total Records a ainsi exploré l’histoire de la photographie à travers les pochettes de disques, tandis que REVERB, organisée par The Vinyl Factory, à Londres en 2024, a mis en lumière des créations d’artistes contemporains autour du vinyle. En Italie, le musée Fellini a accueilli, entre octobre 2024 et janvier 2025, Da Picasso a Warhol, une exposition célébrant la rencontre entre artistes et musique. Ces initiatives illustrent la manière dont le vinyle transcende son usage initial pour devenir un support artistique.

Le retour du vinyle est porté par une combinaison de nostalgie, de quête d’authenticité et de résistance à la dématérialisation.

Il offre une expérience unique, à la croisée de l’émotion et de la culture. Alors que le numérique continue d’évoluer, le vinyle s’impose comme un support à la fois ancré dans le passé et tourné vers l’avenir. Un paradoxe demeure : alors que le vinyle est plébiscité pour son authenticité sonore, près de la moitié de ses acheteurs ne possèdent pas de platine. Un engouement qui flirte davantage avec le fétichisme de l’objet qu’avec l’expérience auditive.

La mode étant un éternel recommencement, au-delà du vinyle, vers quel support la Génération Z se tourne-t-elle ? Les cassettes audio mais… sans nécessairement avoir de quoi les écouter.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

10.04.2025 à 17:11

Banque de France : comment perdre 7,7 milliards quand on imprime l’argent

Serge Besanger, Professeur à l’ESCE International Business School, INSEEC U Research Center, ESCE International Business School

«&nbsp;Fabriquer&nbsp;» la monnaie et réussir à perdre près de 8&nbsp;millards d’euros. C’est ce qui vient d’arriver à la Banque de France. Derrière cette perte, un retournement de la conjoncture. Durable&nbsp;?
Texte intégral (1507 mots)

C’est un comble ! « Fabriquer » la monnaie et réussir à perdre près de 8 milliards d’euros. C’est ce qui vient d’arriver à la Banque de France. Derrière cette perte, un retournement de la conjoncture. Durable ?


C’est un paradoxe qui fait grincer des dents et froncer les sourcils : comment une banque centrale – celle-là même qui « fabrique » l’argent – peut-elle en perdre ? En 2024, la Banque de France a enregistré une perte nette record de 7,7 milliards d’euros. Du jamais vu dans son histoire. Et si l’on gratte sous la surface, la situation est encore plus spectaculaire : la perte opérationnelle brute s’élève à 17,9 milliards, atténuée uniquement grâce à une reprise de 10,1 milliards d’euros sur le fonds pour risques généraux, mis de côté lors des années fastes.

Mais alors, comment est-ce possible ? Après tout, une banque centrale a ce que tout banquier rêverait d’avoir : le privilège d’émission monétaire, c’est-à-dire le pouvoir d’imprimer de la monnaie pour financer ses opérations. On appelle cela le seigneuriage – le bénéfice réalisé en émettant de la monnaie dont le coût de production est dérisoire.

Autrement dit : la Banque de France crée de l’argent à presque zéro euro… et pourtant, elle perd des milliards.


À lire aussi : Faut-il s’inquiéter des pertes des banques centrales ?


Le piège des taux d’intérêt

Pour comprendre ce retournement, il faut remonter à la mécanique de la création monétaire ces dernières années. Entre 2015 et 2021, la Banque de France, comme ses consœurs européennes, a acheté massivement des obligations à des taux ultra-bas, voire négatifs, dans le cadre de politiques d’assouplissement monétaire (le fameux QE : quantitative easing). Jusque-là, tout allait bien : les revenus des titres achetés suffisaient largement à couvrir ses coûts.

Rappelons comment fonctionne normalement une banque centrale. Elle achète des titres (notamment des obligations d’État) pour mettre en œuvre sa politique monétaire et influencer les taux d’intérêt à court et long terme. Cela ne se limite pas au QE : même en temps normal, elle ajuste la quantité de monnaie en circulation en achetant ou en vendant des titres sur le marché.

Lorsqu’elle achète des titres, elle injecte de la monnaie dans le système bancaire, ce qui facilite le crédit et fait baisser les taux. Cela permet de stabiliser l’économie, en agissant sur l’inflation, la croissance et l’emploi, selon les objectifs définis par son mandat.

Mais depuis la période 2022-2024, la conjoncture a changé profondément. Avec le retour de l’inflation, les taux ont grimpé fortement en flèche. La BCE relève rapidement ses taux directeurs, et la Banque de France se retrouve alors à payer 3,73 % d’intérêts en 2024 sur les dépôts des banques commerciales placés chez elle, tout en continuant à encaisser des revenus dérisoires sur des obligations acquises à 0,5 % ou moins.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Cela a pour résultat que la Banque de France perd sur l’écart de taux. Elle achète des titres peu rentables, mais doit rémunérer des dépôts à prix fort. Le modèle est pris en étau.

Certes, avec l’euro, la Banque de France ne fixe plus seule la politique monétaire : cette mission appartient désormais à la Banque centrale européenne (BCE). Toutefois, elle reste une actrice essentielle au sein de l’eurosystème, en participant aux décisions par l’intermédiaire du Conseil des gouverneurs de la BCE et en mettant en œuvre ses orientations sur le territoire français.

Elle joue aussi un rôle clé dans la surveillance du système bancaire français, contribue à la stabilité financière et assure la production et la qualité des billets en euros. Par ailleurs, elle rend de nombreux services à l’État, aux entreprises et aux particuliers, notamment à travers ses analyses économiques, la gestion de certains comptes publics et des actions d’éducation financière.

Des structures qui pèsent lourd

Mais ce n’est pas tout. Les pertes ne sont pas seulement conjoncturelles. Le modèle structurel de la Banque de France soulève aussi des questions. Malgré certains efforts, l’institution continue de faire tourner un vaste réseau de succursales dans toute la France, ainsi qu’un effectif conséquent, hérité d’un autre temps. Un maillage territorial précieux ? Peut-être. Mais aussi coûteux et difficile à rationaliser, surtout à l’ère du numérique.

Comme le reconnaît la Cour des comptes, les frais de personnel et les dépenses de fonctionnement restent lourds dans le budget de l’institution.

Pour autant, la Banque de France a diminué ses dépenses de 13 % en cinq ans, passant de 1,049 milliard d’euros en 2015 à 912 millions d’euros en 2020. Cette tendance s’est poursuivie en 2021, avec des dépenses atteignant 857 millions d’euros, soit une baisse totale de 18 % depuis 2015. Cette diminution des dépenses a été principalement réalisée grâce à une réduction des effectifs, de 12 269 équivalents temps plein en 2015 à 9 290 en 2021. Mais la Banque de France a maintenu ses frais généraux au niveau de ceux de 2015.

Pas un cas isolé mais un signal d’alarme

La Banque de France n’est pas seule dans cette tourmente. Sa cousine allemande, la Bundesbank, a essuyé une perte de 19,2 milliards d’euros, la poussant même à puiser dans ses réserves. Quant à la Banque centrale européenne, elle a annoncé une perte de 7,9 milliards d’euros, la première depuis sa création. La normalisation monétaire post-crise Covid met à l’épreuve le modèle même des banques centrales européennes.

Pour le dire autrement, ces pertes record posent une question de fond : le modèle économique des banques centrales est-il encore viable dans un environnement de taux élevés ? Jusqu’à présent, leur rentabilité coulait de source, entre seigneuriage généreux et obligations sûres. Mais désormais, il faudra peut-être repenser leur rôle, leur structure et leur agilité financière. Pour la Banque de France, cela pourrait signifier revoir son organisation, rationaliser ses coûts et mieux anticiper les risques de taux. Créer de la monnaie n’est plus une garantie de prospérité. En 2024, la Banque de France l’a appris à ses dépens.

Prévoyante Banque de France

Contrairement à une idée reçue, la Banque de France ne peut ni s’endetter auprès de tiers ni créer de monnaie pour combler ses pertes. La création de monnaie est strictement encadrée et centralisée par la BCE, dans le cadre de décisions collectives à l’échelle de la zone euro. En cas de pertes plus graves, un soutien de l’eurosystème serait envisageable, mais ce n’est pas d’actualité. La situation financière de la Banque de France reste solide malgré ce déficit temporaire car elle avait amplement réalisé des provisions suffisantes les années précédentes.

Pour couvrir sa perte de 9 milliards d’euros, la Banque de France puise actuellement dans ses réserves : capital, provisions et réserves générales. Elle avait anticipé de tels chocs et mis de côté plusieurs milliards pour y faire face. Si cela ne venait un jour à ne pas suffire, elle reporterait les pertes sur les exercices futurs. Cela signifie qu’elle ne verserait pas de dividende à l’État cette année-là, sans que ce dernier n’ait à la renflouer directement.

The Conversation

Serge Besanger a été directeur intérimaire d'une filiale du FMI en liaison avec la Banque de France.

10.04.2025 à 17:10

Comment le gel de l’USAID menace la surveillance sanitaire mondiale

Flore Gubert, Directrice de recherche, Institut de recherche pour le développement (IRD)

Alice Mesnard, Professeur d’économie, City St George's, University of London

Le programme DHS, outil indispensable pour permettre aux pays en développement de définir leurs politiques sanitaires et sociales, est mis à l’arrêt par la suspension de l’USAID.
Texte intégral (2316 mots)
Carte présentant les pays où le programme DHS a conduit des études sur la prévalence du VIH/sida en 2020. Depuis sa création en 1984, le programme a recueilli, analysé et diffusé des données précises et représentatives sur la population, la santé, le VIH et la nutrition au moyen de plus de 400&nbsp;enquêtes dans plus de 90&nbsp;pays. Site officiel du programme DHS

L’une des conséquences les plus dévastatrices de la suspension de l’Agence des États-Unis pour le développement international (USAID) décidée par l’administration Trump est l’interruption du travail du programme international « Enquêtes démographiques et de santé », qui, depuis son lancement il y a quarante ans, fournit des données extrêmement détaillées sur la situation sanitaire et l’évolution démographique de près de 90 pays en développement.


En décidant, fin janvier 2025, de la suspension pour quatre-vingt-dix jours de l’activité de l’USAID (United States Agency for International Development), l’administration Trump a mis un coup d’arrêt à de nombreux programmes d’aide humanitaire et au développement dans le monde.

Publié la semaine dernière, un article de blog du Center for Global Development (CGDev) – un centre de réflexion indépendant sur le développement international, basé à Washington, D. C. – propose une première estimation de l’ampleur des réductions budgétaires en cours. Fondée sur des documents ayant fuité et auxquels les deux auteurs de l’article ont pu accéder, cette analyse montre que les coupes budgétaires sont loin de ne concerner que les domaines dans le collimateur du président nouvellement réélu, tels que les droits des femmes et le climat.

Qu’ils soient consacrés à la lutte contre la faim et la malnutrition, à la lutte contre les maladies infectieuses (VIH/sida, tuberculose, paludisme, etc.), à la prévention des conflits et à l’aide humanitaire, au développement économique, à la promotion des droits de l’homme et de la démocratie ou à tout autre secteur, la plupart des programmes ont vu leurs financements fortement se réduire, voire s’interrompre, du jour au lendemain.

D’après cette même étude, les réductions les plus importantes en termes de montants frappent de loin l’aide destinée à l’Ukraine (-1,43 milliard de dollars), suivie par celle allouée à l’Éthiopie (-387 millions de dollars) et à la République démocratique du Congo (-387 millions de dollars), trois pays ravagés par des conflits depuis plusieurs années et dont les populations sont fortement dépendantes de l’aide humanitaire.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


S’il est encore trop tôt pour évaluer l’impact du gel de l’aide américaine, les associations sur le terrain s’attendent à des conséquences désastreuses, voire mortelles, pour des millions de personnes.

L’une des autres conséquences du coup porté à l’USAID est la mise à l’arrêt du programme DHS (Demographic and Health Surveys, ou EDS, Enquêtes démographiques et de santé en français) dont l’agence d’aide américaine a été à l’initiative et qu’elle finance en grande partie depuis son démarrage.

DHS, un programme essentiel pour la santé des populations

Lancé en 1984, le programme DHS a permis de réaliser plus de 450 enquêtes dans quelque 90 pays en développement pour fournir des données fiables, comparables et régulièrement mises à jour sur la santé, la population, la fécondité, la planification familiale, la mortalité infantile et maternelle, la nutrition, etc.

Comme le montre la figure ci-dessous, extraite d’un article publié dans le Bulletin of the World Health Organisation, le questionnaire a été progressivement étoffé au cours du temps, avec notamment l’apparition de questions sur les violences conjugales en 1990, l’ajout d’un module sur les attitudes vis-à-vis des femmes en 1995, etc. Depuis le milieu des années 1990, des biomarqueurs sont également collectés auprès des personnes enquêtées pour réaliser différents tests de dépistage (VIH, paludisme, tuberculose, hépatites virales, glycémie, etc.).

L’objectif de l’USAID en créant ce programme était d’abord de doter les pays en développement d’un outil statistique leur permettant de planifier, de suivre et d’évaluer les politiques publiques dans le domaine de la santé, notamment en matière de santé reproductive et de lutte contre les maladies infectieuses comme le VIH/sida. Il était également de renforcer la capacité technique des pays en matière de collecte et d’analyse de données.

Cette double ambition a été indiscutablement atteinte : il suffit d’ouvrir n’importe quel document officiel émanant d’un ministère de la santé en Afrique, en Asie du Sud ou du Sud-Est, en Amérique latine, au Moyen-Orient et dans certaines régions d’Europe de l’Est pour constater que les enquêtes DHS y sont systématiquement mobilisées pour dresser un état des lieux de la situation sanitaire à partir d’indicateurs clés, pour identifier et prioriser les segments de population ainsi que les territoires où les besoins en santé sont les plus critiques, ou encore pour suivre les progrès réalisés à la suite de la mise en œuvre de stratégies de santé publique.

Introduction au DHS Program, 2021 (vidéo en français).

À cet égard, on peut considérer que ces enquêtes sont vecteur de changement. Comme le documente la plateforme Data Impacts, l’impact des données DHS sur la reconnaissance du problème de l’excision a, par exemple, été crucial pour que des pays comme l’Égypte prennent conscience de la prévalence élevée de cette pratique et adoptent des lois pour la prohiber. Dans un autre domaine, celui du VIH, les données DHS sur la vulnérabilité des jeunes femmes ont incité des pays comme le Kenya à lancer des programmes d’éducation sur les maladies sexuellement transmissibles.

Quelles sont les conséquences du gel de l’USAID sur le programme DHS ?

La mise à l’arrêt du programme DHS a d’abord eu pour conséquence d’interrompre toutes les enquêtes en cours (voir la page du programme DHS dédiée aux opérations de collecte en cours) et le report sine die de celles qui étaient sur le point d’être lancées. Si cette situation devait perdurer, cela signifierait la perte d’une boussole et d’un baromètre des résultats de l’action publique en santé dans de nombreux pays dont les instituts de statistiques n’ont pas les moyens de mettre en place ce type d’enquêtes.

Cela entraînerait également une discontinuité dans la série historique des données relatives à la santé des populations. Or, c’est la régularité avec laquelle le programme DHS collecte ces données, en permettant d’identifier et de comparer les tendances de long terme en matière de fécondité, de mortalité, de nutrition, de prévalence des maladies infectieuses, d’accès aux soins et de bien d’autres domaines encore, tant à l’intérieur des pays qu’aux niveaux régional et international, qui fait la force de ce dispositif.

Une autre conséquence immédiate de la mise à l’arrêt du programme est l’indisponibilité de son site web, qui permet d’accéder au bien public mondial que représente l’ensemble des données issues des quelque 450 enquêtes DHS déjà réalisées.

Depuis début février, un bandeau apparaît sur la page d’accueil du site informant tous les visiteurs :

« En raison de l’examen en cours des programmes d’aide à l’étranger des États-Unis, le programme DHS est actuellement en pause. Nous ne sommes pas en mesure de répondre aux demandes de données ou autres pour le moment. Nous vous demandons de faire preuve de patience. »

Bandeau présent sur la page d’accueil du site du programme DHS. Cliquer pour zoomer. dhsprogram.com

Aucune nouvelle inscription ou demande d’accès aux données n’est donc traitée depuis maintenant deux mois. Les chercheurs souhaitant se lancer dans de nouvelles recherches à partir de ces données sont contraints de les remettre à plus tard, voire d’y renoncer. Nul doute que cela aura un impact significatif sur la production de connaissances scientifiques que ces données autorisent.

Enfin, si l’interruption du programme devait se prolonger, elle annulerait tous les progrès réalisés pour cibler efficacement et évaluer les politiques et les projets de développement financés par l’aide publique multilatérale et bilatérale. Or, à l’heure où les gouvernements des pays riches réduisent massivement leurs efforts au titre de la solidarité internationale en raison de contraintes budgétaires de plus en plus strictes, il est impératif que l’aide soit bien ciblée et efficace.

Quand les donateurs, qu’ils soient publics ou privés, avaient accès aux données fournies par le programme DHS, ils avaient tendance à répartir leur soutien conformément aux priorités qui apparaissaient à l’analyse de ces données ; désormais, puisqu’ils ne disposeront plus de cet outil essentiel, il est très probable que, plus encore qu’auparavant, ces donateurs se focaliseront exclusivement sur leurs agendas, lesquels varient selon les crises du moment. On l’a vu ces dernières années, ces derniers se sont successivement focalisés, en réaction aux grandes crises, sur la lutte contre le paludisme, l’aide aux migrants, la réponse au Covid-19 ou encore le soutien aux réfugiés ukrainiens.

Tout comme prévenir coûte moins cher que guérir, l’absence de continuité, de vision globale et intégrée, et de suivi systématique des grands objectifs d’une aide au développement centrée sur le développement humain ne manquera pas d’aggraver les chocs sanitaires et humanitaires à venir.

The Conversation

Flore Gubert est directrice adjointe de l'Institut Convergences Migrations et membre de l'Union Européenne des Economistes du Développement (EUDN).

Alice Mesnard est membre de l'Institut Convergences Migrations et de l Union Europeenne des Economistes du Developpement. Elle declare n'avoir aucun interet financier dans une institution pouvant tirer profit de cet article.

10.04.2025 à 17:10

Quand l’armée vient au secours des sinistrés : le cas des inondations de Valence

Jules Rodrigues, Professeur d'espagnol, docteur en civilisation espagnole contemporaine, Université de Lille

L’armée espagnole a été mobilisée pour répondre à la catastrophe climatique de Valence. Retour sur les modalités spécifiques du recours aux militaires dans ce type de circonstances.
Texte intégral (2750 mots)

Le 29 octobre 2024, une violente dépression a frappé la région de Valence, provoquant des pluies torrentielles, d’importants dégâts matériels et un terrible bilan humain (près de 240 morts). Face à l’impuissance des pouvoirs publics et des services civils, l’armée espagnole a été appelée à la rescousse pour aider à retrouver les disparus, à déblayer et à reconstruire. Retour sur le fonctionnement de l’armée en Espagne et sur le rôle qui lui est dévolu dans la gestion des crises survenant sur le territoire national.


L’armée espagnole s’organise sur la base de l’article 8 de la Constitution de 1978, qui dispose que les Forces armées constituées de l’armée de Terre, de la Marine et de l’armée de l’Air, sont les garantes de l’ordre constitutionnel.

Le roi est le chef suprême des armées (art. 62.h.), mais le commandement effectif est confié au président du gouvernement (Pedro Sanchez depuis 2018) et, par délégation de pouvoir, à la ministre de la Défense (Margarita Robles depuis 2018), secondée par un chef d’état-major de la Défense (JEMAD), fonction à la fois politique et militaire, faisant le lien entre la chaîne de commandement militaire et la hiérarchie politique.

L’organisation actuelle de l’armée

Le cadre juridique de l’armée espagnole est profondément réformé dans les années 2000. La Loi organique 5/2005 sur la Défense nationale sert de fondement à cette modernisation. Suivent en 2006 une loi sur les hommes du rang (Ley de Tropa y Marinería), en 2007 une loi sur la carrière militaire (Ley de Carrera Militar) et en 2011 un nouveau code éthique des Forces armées (les Reales Ordenanzas). En bref, l’armée espagnole s’adapte aux enjeux spécifiques du XXIe siècle.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


En 2024, l’armée espagnole est professionnelle, le service militaire obligatoire ayant été suspendu au 1er janvier 2002. La loi sur la carrière militaire et celle sur les hommes du rang précisent les conditions de recrutement. La loi prévoit entre 130 et 140 000 militaires professionnels en service actif, dont 50 000 cadres de commandement (à partir du grade de sous-officier).

Or l’armée espagnole peine à recruter. Alors que le second gouvernement Aznar (2000-2004) avait envisagé de recruter 120 000 soldats (hors cadre de commandement), la réalité de l’attractivité des emplois militaires a obligé les gouvernements successifs à revoir à la baisse les possibilités de recrutement qui depuis, se situent approximativement à entre 79 et 86 000 hommes du rang.

Effectifs de l’armée espagnole en service actif (2002-2023). Fourni par l'auteur

Pour autant, l’armée espagnole s’intègre pleinement aux structures internationales de défense et de sécurité. L’Espagne obtient l’adhésion à l’OTAN en mai 1982 malgré l’opposition de la gauche socialiste – qui s’empresse de la geler dès son arrivée au pouvoir dans l’attente de la tenue d’un référendum sur la permanence de l’Espagne dans l’organisation. Organisé le 12 mars 1986, le référendum donne une large victoire au oui. Ce vote stipule également que l’Espagne reste à l’écart de la structure militaire intégrée, qu’elle ne rejoindra que discrètement en 1999, sous le premier gouvernement Aznar.

Par la suite, l’Espagne obtiendra son intégration à l’Union de l’Europe occidentale (UEO) et participera à plusieurs forces militaires créées durant les années 1990, dont l’Eurocorps, qu’elle rejoint en 1994.

Depuis, elle participe régulièrement aux entraînements des forces de l’OTAN et à diverses opérations internationales sous l’égide l’ONU, de l’OTAN et de l’Union européenne ; on n’a pas oublié, non plus, sa participation à la « coalition des volontaires » mise sur pied par George W. Bush en 2003 pour renverser le régime de Saddam Hussein en Irak.

L’UME, une unité prévue pour répondre aux catastrophes naturelles

À l’initiative du premier ministre José Luis Rodríguez Zapatero (2004-2011), une nouvelle unité est créée en 2006, deux ans après les graves incendies de l’été 2004, à l’intérieur de ces Forces armées : l’Unité militaire d’Urgences (Unidad Militar de Emergencias).

L’article 15.3 de la loi de défense nationale de 2005 dispose que « les Forces armées, aux côtés de l’État et des Administrations publiques, doivent préserver la sécurité et le bien-être des citoyens dans les cas de risque grave, de catastrophe, de calamité ou autres nécessités publiques, en accord avec ce qu’établit la législation en vigueur ».

Répartition géographique de l’Unité militaire d’Urgences. Ministère espagnol de la défense

Comme une force expéditionnaire, l’UME dispose de cinq bataillons d’intervention répartis sur le territoire péninsulaire : le centre de commandement, le quartier général et le 1er bataillon sont basés à Madrid ; le 2e bataillon, basé à Séville, intervient aux Canaries ; le 3e est basé à Valence ; le 4e à Saragosse et le 5e à León.

Créée à la suite des incendies de l’été 2004, l’unité a pour mission de lutter contre tout type de catastrophes naturelles. Mais l’examen de ses statistiques montre qu’elle intervient surtout contre les incendies de forêt – le plus souvent volontaires – à hauteur de 71 %, contre seulement 10 % pour les inondations.

Statistiques des interventions de l’UME, 2007-2024. Ministère espagnol de la Défense

À l’épreuve de la catastrophe de Valence

Un nombre inhabituellement élevé de militaires et de matériels a été mobilisé pour répondre aux inondations liées à l’épisode de la depresión aislada en niveles altos (DANA) à Valence les 29 et 30 octobre dernier.

Il faut préciser à cet égard que l’UME n’intervient pas de manière automatique sur le territoire national. Elle ne peut intervenir qu’en cas de situation d’urgence dite « situation opérationnelle 2 », quand les moyens régionaux ne sont plus suffisants pour contenir la catastrophe en cours. Seul le gouvernement régional peut avertir la délégation du gouvernement central en région qui, à son tour, prévient le ministère de l’Intérieur en charge de valider le recours à l’UME. Du ministère de l’Intérieur, la demande d’intervention passe au ministère de la Défense, qui activera l’unité et définira les moyens nécessaires.

L’armée n’a donc été activée qu’au cas par cas ; on comprend dès lors pourquoi elle a pu intervenir dans certains villages de la région de Valence plutôt que dans d’autres, alors même que la situation qui y prévalait requérait également son intervention.

Situations opérationnelles et activation de l’UME. Ministère espagnol de l’Intérieur

Une crise toujours sans responsable

Le 2 novembre dernier, le journal valencien Levante précisait que ce recours aux Forces armées n’était du ressort que du gouvernement central et se faisait l’écho du mécontentement aussi bien de la population civile, qui se sentait abandonnée, que de certains militaires qui disaient leur impuissance face à une activation qui tardait à arriver.

Le général Francisco Javier Marcos, commandant de l’UME, a pour sa part rappelé, lors d’une conférence de presse quelques jours plus tard, la responsabilité du gouvernement régional dans la demande d’activation de l’unité militaire pour permettre son intervention dans les villages sinistrés.

Plusieurs mois après la catastrophe, et après avoir rejeté la responsabilité sur le gouvernement de Madrid, sur l’armée et sur l’Agence espagnole de météorologie (AEMET), le président du gouvernement autonome de Valence, Carlos Mazón (Parti populaire), ne parvient pas à se dédouaner des responsabilités qui pèsent sur lui quant à la gestion de l’alerte, la prévention et l’évacuation des zones à risque.

The Conversation

Jules Rodrigues ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

10.04.2025 à 17:09

Nouvelle recherche : des mélanges d’additifs alimentaires associés à une augmentation du risque de diabète de type 2

Mathilde Touvier, Directrice de l'Equipe de Recherche en Epidémiologie Nutritionnelle, U1153 Inserm,Inrae, Cnam, Université Sorbonne Paris Nord, Université Paris Cité, Inserm

Marie Payen de la Garanderie, Etudiante en doctorat en épidémiologie nutritionnelle, Université Sorbonne Paris Nord

Une nouvelle recherche basée sur la cohorte française NutriNet-Santé suggère un lien entre certains additifs présents dans les aliments industriels et une augmentation du risque de diabète de type 2.
Texte intégral (2619 mots)

En matière d’alimentation, de nouveaux résultats de recherche suggèrent un lien entre certains additifs présents dans les aliments industriels et l’augmentation du risque de diabète de type 2. Mathilde Touvier, qui dirige l’équipe de recherche en épidémiologie nutritionnelle (CRESS-EREN, Inserm/Inrae/Cnam/Université Sorbonne Paris Nord/Université Paris Cité), a encadré ces travaux, conduits par sa doctorante Marie Payen de la Garanderie. Elles nous disent ce qu’il faut en retenir.


En forte progression partout dans le monde, le diabète de type 2 – qui représente plus de 92 % des cas de diabète en France – survient généralement après 40 ans. Il est dû à une baisse de sensibilité cellulaire à l’insuline, l’hormone du pancréas qui facilite l’entrée du glucose dans les cellules. Si, dans notre pays, l’augmentation de l’incidence de cette maladie peut en partie s’expliquer par le vieillissement de la population, l’évolution des modes de vie, notamment le manque d’activité physique et les modifications en matière d’alimentation, semble aussi jouer un rôle.

The Conversation : Pourquoi avoir étudié les effets des mélanges d’additifs sur la santé ?

Mathilde Touvier : Historiquement, les additifs alimentaires sont évalués par l’Autorité européenne de sécurité des aliments (EFSA) de façon individuelle.

Cependant, dans la vie quotidienne, les aliments contiennent un grand nombre d’additifs : dans un soda « sans sucre », on peut trouver non seulement de l’aspartame (et/ou de l’acésulfame K, le sel de potassium de l’acésulfame, au pouvoir sucrant 100 à 200 fois plus élevé que le sucre), mais aussi de l’acide citrique, du colorant caramel au sulfite d’ammonium, etc. En outre, les combinaisons d’aliments et de boissons fréquemment consommés ensemble contribuent au fait que nous ingérons régulièrement des mélanges d’additifs.

Or, on sait que lorsque des substances chimiques se retrouvent mélangées, leurs effets peuvent être différents de ce qu’ils sont lorsqu’elles sont prises séparément. Les interactions qui se produisent au sein du « cocktail » de produits chimiques peuvent en effet engendrer des synergies (l’effet des substances concernées se renforce) ou des antagonismes (leurs effets sont annulés ou diminués). Ce qui peut avoir des conséquences pour la santé qui ne sont pas détectables lorsque les substances sont testées seules.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Dans le cadre de ces travaux, nous avons identifié les principaux mélanges d’additifs auxquels sont exposés les participants de la cohorte française NutriNet-Santé (plus de 100 000 adultes), puis nous avons évalué les associations entre les expositions à ces mélanges et la santé. La première étude que nous publions ici porte sur le diabète de type 2. Les analyses sont en cours sur d’autres pathologies (cancers, maladies cardiovasculaires, hypertension artérielle…).

T. C. : Certains de vos précédents travaux s’appuyaient déjà sur la cohorte NutriNet-Santé ?

M. T. : Oui. Cette recherche s’inscrit dans le contexte du grand projet « Additives », qui a reçu une bourse du Conseil européen de la recherche (European Research Council, ERC) et de l’Institut national du cancer (Inca).

Dans ce cadre, nous avions notamment déjà mis en évidence un lien entre certains émulsifiants (des additifs alimentaires destinés à obtenir certaines textures dans les aliments industriels et à permettre la stabilité des mélanges obtenus dans le temps) et un risque accru de maladies cardiovasculaires, de certains cancers et de diabète de type 2. Nous avions également montré des liens entre consommation d’édulcorants (comme l’aspartame ou l’acésulfame K) et incidence plus élevée de maladies cardiovasculaires, de cancers et de diabète.


À lire aussi : Les émulsifiants, des additifs alimentaires qui pourraient être associés à un risque de cancer


Nous nous appuyons pour cela sur la cohorte NutriNet-Santé, une étude de santé publique coordonnée par l’EREN-CRESS (équipe de recherche en épidémiologie nutritionnelle,Inserm/Inrae/Cnam/Université Sorbonne Paris Nord/Université Paris Cité). Lancée en 2009, elle implique plus de 180 000 « nutrinautes », des consommateurs qui acceptent de remplir des questionnaires détaillés sur leurs habitudes alimentaires et leur santé. Dans ces travaux en particulier, les données de plus de 100 000 nutrinautes ont été analysées.

En croisant ces informations avec celles contenues dans les bases de données de composition des aliments (Open Food Fact ou Oqali, par exemple), nous sommes pour la première fois en mesure d’explorer les effets potentiels des mélanges d’additifs sur la santé.

Nous avons aussi évalué les doses auxquelles sont soumis les consommateurs, en effectuant des dosages ou en nous basant sur ceux effectués par le magazine Que Choisir, notamment, ainsi que sur des données quantitatives fournies par l’EFSA.

De cette façon, nous avons pu déterminer les expositions à plusieurs centaines d’additifs différents et observer quels sont les mélanges les plus représentés dans l’alimentation. Nous avons ensuite étudié les liens entre l’exposition à ces mélanges et l’incidence du diabète de type 2.

T. C. : Quels résultats avez-vous obtenus ?

M. T. : Nous avons identifié cinq mélanges d’additifs auxquels ces consommateurs français étaient particulièrement exposés. Nous avons considéré tous les additifs consommés par au moins 5 % des participants. Au final, nous avons intégré un peu plus de 70 additifs dans nos modèles de mélanges. Sur ces cinq mélanges, nous avons observé que deux d’entre eux étaient associés à une incidence plus élevée de diabète de type 2.

Le premier mélange concerné est plutôt caractéristique des produits ultratransformés de type bouillons, desserts lactés, sauces industrielles… Il contient des additifs tels que des émulsifiants (carraghénanes E407, amidons modifiés E14xx, gommes de guar E412 ou gommes xanthanes E415, polyphosphates E452, pectine E440…), ainsi qu’un conservateur (sorbate de potassium E202) et un colorant (curcumine R100).

Le second mélange associé au diabète de type 2 était caractéristique des boissons industrielles. Il contenait des correcteurs d’acidité (acide citrique E330, citrate de sodium E331, acide malique E296, acide phosphorique E338), des colorants (caramel au sulfite d’ammonium E150d, anthocyanes E163, extrait de paprika E160c), des émulsifiants (gomme arabique E414, pectine E440, gomme de guar E412) et un agent d’enrobage (cire de carnauba E903) et les trois édulcorants principaux que l’on trouve sur le marché français (aspartame E951, acésulfame potassium E950 et sucralose E955).

T. C. : Comment avez-vous procédé pour déterminer l’augmentation du risque de diabète de type 2 ?

Marie Payen de la Garanderie : Nous avons commencé par calculer un « score d’adéquation au mélange » pour chacun des cocktails testés. Plus les consommateurs avaient un score élevé, plus ils étaient consommateurs. On parle ici d’un continuum d’exposition : à un bout du spectre, certains participants qui consomment peu d’aliments ultratransformés ont un score proche de zéro, tandis qu’à l’autre bout, les plus gros consommateurs ont un score d’adéquation élevé.

Puis nous avons effectué des analyses statistiques pour calculer l’augmentation de risque de diabète associée à un score donné. C’est un peu compliqué, car le calcul fait appel à la notion statistique d’écart-type. Mais nous avons mis en évidence que plus la consommation des deux mélanges cités précédemment était importante, plus le risque de développer un diabète de type 2 augmentait sur la période d’enquête (sur l’ensemble des participants, 1 131 personnes ont développé la maladie).

Pour le premier mélange, nos calculs révèlent que le risque de diabète était 8 % plus élevé pour chaque augmentation d’un écart-type du score. Pour le deuxième mélange, le risque augmentait de 13 % pour chaque écart-type du score. Ces résultats suggèrent donc potentiel sur-risque de diabète chez les consommateurs les plus fortement exposés.

Bien entendu, tous nos modèles ont tenu compte des autres caractéristiques des participants : apports en sucre, graisses saturées, calories, fibres… activités physiques, tabagisme, antécédents familiaux de diabète. Les associations entre les mélanges d’additifs et le risque de diabète étaient examinées « toutes choses égales par ailleurs ».

T. C. : Ces travaux sont cohérents avec les résultats de vos recherches précédentes…

M. P. G. : Nous avions déjà mis en évidence l’existence de liens entre consommation de différents additifs (émulsifiants, édulcorants, etc.) et risque plus élevé de cancer, de maladies cardiovasculaires et de diabète dans l’étude NutriNet-Santé. Toutefois, dans ces précédentes études, les substances étaient examinées une par une.

Ces nouveaux travaux révèlent qu’il existe, d’un point de vue statistique, des interactions significatives entre plusieurs additifs emblématiques des principaux mélanges consommés et que cela pourrait potentiellement impacter la santé (en l’occurrence le risque de diabète ici), au-delà des effets des substances individuelles. Ce constat suggère qu’il pourrait exister des effets « cocktails », les synergies ou antagonismes évoqués plus haut.

T. C. : Quelle est la suite à donner à ces recherches ?

M. T. : Nos collègues de l’Inrae au laboratoire Toxalim, à Toulouse, sont partis de nos observations sur la cohorte NutriNet-Santé et les ont transposées sur des modèles cellulaires. Concrètement, ils ont testé différents additifs et leurs mélanges sur des cellules cultivées en laboratoire, afin d’en établir la toxicité potentielle.

Certains de leurs résultats ont été publiés fin 2024. Ils suggèrent non seulement l’existence d’une toxicité de certaines substances prises séparément, mais aussi des effets de mélange qui vont au-delà des effets individuels. Ce qui appuie donc expérimentalement nos observations.

Des études menées cette fois in vivo, autrement dit sur des modèles animaux, sont également en cours afin de déterminer les effets de ces substances sur le microbiote intestinal, la perméabilité intestinale, etc. L’équipe Métatox à Paris explore, quant à elle, la capacité des additifs à entraîner le développement d’un cancer et, plus spécifiquement, le risque de propagation de la maladie (métastases).

Nous travaillons aussi sur les mécanismes en jeu dans la cohorte NutriNet-Santé : par exemple, nous collectons en ce moment les selles de 10 000 participants pour étudier leur microbiote intestinal, en lien avec leurs expositions aux additifs et aliments ultratransformés.

Par ailleurs, les additifs ne sont pas les seuls composés qui peuvent avoir des effets sur la santé et se retrouver potentiellement impliqués dans des effets cocktails, en plus de leurs effets individuels. Nous sommes également en train d’étudier les conséquences des résidus de pesticides, des contaminants provenant des emballages (plastiques, encres, résines appliquées à l’intérieur des boîtes de conserve…), etc.


À lire aussi : Microplastiques, nanoplastiques : quels effets sur la santé ?


T. C. : En attendant les conclusions de ces travaux, quels enseignements tirer des connaissances actuelles ?

M. T. : L’état actuel des connaissances plaide pour une limitation de la consommation de produits industriels ultratransformés, ce qui est la recommandation officielle du Programme national nutrition santé : réduire le recours aux aliments ultratransformés dans son alimentation, qui contiennent des additifs non indispensables, tels que les émulsifiants, colorants ou édulcorants, par exemple.

Par ailleurs, il faudrait également faire évoluer la réglementation pour que soit davantage pris en compte l’effet des mélanges dans les évaluations de la toxicité potentielle. Pour pouvoir légiférer en ce sens, toutefois, il faut des études les plus complètes possibles. C’est pourquoi nous allons continuer nos recherches, pour apporter le maximum d’éléments de réflexion.

Pour y parvenir, il faudrait aussi que les scientifiques aient accès à l’ensemble des substances employées lors de la fabrication des aliments industriels, notamment les auxiliaires technologiques, ces substances qui sont utilisées pendant les processus de fabrication et qui ne sont pas censées se retrouver dans le produit fini mais dans lequel elles sont néanmoins parfois détectées. À l’heure actuelle, cette partie de la production alimentaire est une véritable boîte noire à laquelle les chercheurs n’ont pas accès.

Un appel au recrutement de nouveaux nutrinautes est toujours en cours afin de continuer à faire avancer la recherche publique sur les relations entre la nutrition et la santé. En consacrant quelques minutes par mois à répondre, sur Internet, sur la plateforme sécurisée etude-nutrinet-sante.fr, aux différents questionnaires relatifs à l’alimentation, à l’activité physique et à la santé, vous pouvez contribuer à faire progresser les connaissances, vers une alimentation plus saine et plus durable.

The Conversation

Mathilde Touvier a reçu des financements de divers organismes public ou associatifs à but non lucratif : European Research Council, INCa, ANR, etc.

Marie Payen de la Garanderie ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

50 / 50
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Lava
La revue des médias
Le Grand Continent
Le Monde Diplo
Le Nouvel Obs
Lundi Matin
Mouais
Multitudes
Politis
Regards
Smolny
Socialter
The Conversation
UPMagazine
Usbek & Rica
Le Zéphyr
  CULTURE / IDÉES 1/2
Accattone
Contretemps
A Contretemps
Alter-éditions
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  IDÉES 2/2
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
Philo Mag
Terrestres
Vie des Idées
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
 
  FIABILITÉ LIMITÉE
Contre-Attaque
Issues
Korii
Positivr
Regain
Slate
Ulyces
🌓