LePartisan.info À propos Podcasts Fil web Écologie Blogs REVUES Médias
Souscrire à ce flux
L’expertise universitaire, l’exigence journalistique

ACCÈS LIBRE Une Politique International Environnement Technologies Culture

▸ les 50 dernières parutions

03.11.2025 à 16:20

Populisme : quand la démocratie perd son centre de gravité

Alexandre Chirat, Maître de conférences en sciences économiques (UMLP - CRESE), Université Marie et Louis Pasteur (UMLP)

Cyril Hédoin, Philosophie, politique et économie, Université de Reims Champagne-Ardenne (URCA)

Le développement du populisme est lié la perte d’une conception majoritaire de l’intérêt général.
Texte intégral (1893 mots)

La crise politique française actuelle ne se résume pas à une succession de démissions et de votes manqués. Elle traduit une faille plus profonde : la perte d’une conception majoritaire de l’intérêt général. C’est dans ce vide que prospère le populisme, nourri par le désalignement entre les actions des partis politiques et les attentes des citoyens.


Le populisme qui prospère depuis une décennie, aussi bien dans l’Hexagone qu’au niveau mondial a, selon nos travaux de recherche, deux causes profondes. D’une part, une instabilité démocratique liée à un renforcement de la polarisation idéologique qui s’exprime, dans le cas français, par une tripartition inédite sous la Ve République. D’autre part, un désalignement entre l’offre électorale des partis et les préférences des citoyens, dont l’abstention croissante est le premier symptôme. En 2009, les partis politiques en Europe sont systématiquement moins conservateurs que leurs électeurs, dans presque tous les pays, sur presque tous les sujets culturels : immigration, condamnations pénales, autorité enseignante, relation entre les sexes, etc.

Notre affirmation selon laquelle le populisme est la conséquence d’un déséquilibre politique combiné à une instabilité démocratique est déduite, par un raisonnement hypothético-déductif, de la théorie économique de la démocratie d’Anthony Downs. Formulée en 1957 dans son ouvrage An Economic Theory of Democracy, elle constitue une application de la théorie du choix rationnel au comportement des acteurs politiques en démocratie – celle-ci étant définie par la concurrence électorale entre partis pour le vote des citoyens, par analogie avec la concurrence sur un marché. Du côté de la demande, les citoyens votent, à partir d’une analyse coûts-bénéfices, pour le parti qui maximise leurs bénéfices. Du côté de l’offre, les partis choisissent le positionnement politique qui maximise le nombre de votes reçus.

Ce cadre théorique a d’abord permis de déterminer les conditions garantissant l’existence d’un équilibre politique. On a néanmoins trop souvent réduit ce classique de la science économique et de la science politique au théorème de l’électeur médian, lui-même réduit à l’idée que « les élections se gagnent au centre ». Pourtant, une leçon oubliée du travail de Downs est que, non seulement cette convergence vers le centre dépend de conditions hautement particulières (dont l’absence d’abstention notamment), mais aussi que l’alignement entre l’offre politique et les préférences des électeurs n’est pas systématique. Or, pour que de nouveaux partis prospèrent, il faut nécessairement que le positionnement électoral des partis dominants diverge suffisamment des préférences de nombreux citoyens. Dans le cas contraire, il n’existe pas d’espace politique suffisant pour l’entrée d’un nouveau concurrent. Cependant, un déséquilibre politique n’est pas une condition suffisante pour expliquer l’émergence d’un parti populiste.

Des conceptions de l’intérêt général qui divergent

Downs a par la suite enrichi sa théorie de la démocratie en insistant sur la nécessité d’introduire dans les analyses économiques des phénomènes politiques le concept d’intérêt général. En démocratie, il est au cœur de la rhétorique de tous les partis politiques. La conception de l’intérêt général d’un citoyen, explique Downs, désigne la vision qu’il va former de ce que le gouvernement doit faire, compte tenu des valeurs que ce citoyen attribue à la société. Cette vision détermine alors ses décisions en matière de vote. Or Downs montre que la stabilité d’un régime démocratique requiert un consensus démocratique minimal, c’est-à-dire que les conceptions plurielles de l’intérêt général des citoyens s’accordent sur un socle minimal de principes gouvernant le fonctionnement du système démocratique et l’action politique. L’absence d’un tel consensus, soit l’existence d’une polarisation idéologique, engendre une remise en cause de la légitimité tant des règles de fonctionnement d’une démocratie que des résultats de l’action des pouvoirs publics.

Polarisation idéologique et déséquilibre politique

La polarisation idéologique, particulièrement visible lors des élections présidentielles de 2017 et 2022, n’est pas non plus suffisante à elle seule pour expliquer l’émergence puis les succès électoraux des partis dits populistes. Ainsi, l’après Seconde-Guerre mondiale en Europe a été marquée par une forte polarisation entre communistes, sociaux-démocrates et conservateurs, sans que le populisme n’ait été un phénomène politique majeur dans les démocraties occidentales de l’époque. Il n’existait en effet pas de déséquilibre majeur entre l’offre des partis et la distribution des préférences des citoyens.

Il existe aujourd’hui un accord dans la littérature scientifique pour définir le populisme à partir d’attributs fondamentaux tels que le manichéisme politique, l’anti-élitisme et l’idéalisation du peuple. En se fondant sur la théorie économique de la démocratie de Downs, une théorie générale du populisme, par-delà la diversité de ses manifestations historiques, devient possible.

Dans un tel cadre, nous montrons qu’un parti populiste propose une idéologie politique bâtie autour d’une conception de l’intérêt général alternative à la conception caractérisant le consensus démocratique minimal préalablement établi au sein de la société. Les partis dits mainstream ou de gouvernement, en dépit de leurs désaccords sur les politiques à mettre en œuvre, ont précisément en commun d’adhérer à ce consensus.

Des années 1980 aux années 2000, les partis dits de gouvernement en France (Parti socialiste [PS] et l’Union pour un mouvement populaire [UMP]) partageaient une adhésion commune au projet européen dans le cadre de la mondialisation économique et financière (avec certes des dissensions internes). La nature du consensus, dont l’affaiblissement s’est accéléré à la suite de la crise des dettes souveraines, explique pourquoi les partis populistes en France (La France insoumise [LFI] et Rassemblement national [RN]) ont exprimé un fort euroscepticisme.

Adopter une idéologie populiste ne constitue une stratégie politique rationnelle que lorsque la polarisation idéologique a suffisamment affaibli le consensus minimal préexistant. Sans cette polarisation, la concurrence électorale a lieu uniquement entre partis de gouvernement et porte seulement sur la sélection des instruments de politique publique, mais non sur les objectifs fondamentaux de l’action politique. Quant au déséquilibre politique, il incite à recourir à une rhétorique anti-élites et à promouvoir une conception de l’intérêt général qui dit privilégier la volonté majoritaire du peuple (le principe démocratique) par rapport à la protection des droits individuels (le principe libéral) lorsque ceux-ci entrent en conflit, par exemple sur des thèmes tels que l’avortement, l’écologie, ou l’immigration.

La crise politique en France

Cette analyse théorique pose deux questions.

Premièrement : quelles sont les causes de la polarisation idéologique ? L’évolution de long terme des préférences des individus en réponse aux dislocations économiques et sociales – notamment causées par la mondialisation commerciale, la crise bancaire et financière de 2008-2012 et le progrès technologique – est généralement mise en avant. Elle interagit avec la fin du monopole de la production d’information des médias et partis traditionnels consécutive à la digitalisation de nos sociétés.

Deuxièmement : quels sont les causes du déséquilibre politique actuel ? L’explication principale réside dans le processus de convergence au centre des programmes des partis politiques en Occident dans les années 1980-2000. Majoritaire à un moment donné, les promesses non tenues de la mondialisation et de la construction européenne ont affaibli – comme l’avait déjà illustré le Non au référendum de 2005 – le consensus incarné par l’UMP et par le PS, puis par le « macronisme ».

Il serait néanmoins trop facile d’attribuer seulement aux élites politiques des anciens et des nouveaux partis dits « de gouvernement », comme le font les partis dits populistes, l’instabilité démocratique et la polarisation idéologique actuelles. Les hommes et femmes issus des partis populistes, de gauche comme de droite, n’ont pas non plus été capables de forger un consensus démocratique minimal autour d’une conception renouvelée de l’intérêt général qui suscite l’adhésion d’une majorité de citoyens.

C’est cette double faillite qui entraîne une succession de crises à l’intérieur du régime politique. Or, face à la succession de gouvernements depuis 2022, il est probable que la régulation du déséquilibre politique présent n’ait lieu qu’au cours d’une crise politique d’une ampleur que la France n’a pas connu depuis plusieurs décennies. Puissions-nous espérer qu’un consensus majoritaire renouvelé naisse rapidement des cendres du consensus en faillite.

The Conversation

Alexandre Chirat vient de recevoir un financement de l'ANR pour un projet de recherche sur l'économie politique du populisme (ANR-24-CE26-2354).

Cyril Hédoin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

03.11.2025 à 16:20

L’Union européenne peut-elle encore peser sur le monde ?

Jean-Philippe Melchior, Professeur des universités en sociologie, Le Mans Université

L’UE proclame son attachement à des valeurs communes, mais sa réalité est bien plus économique que politique. Cet état de fait peut-il subsister longtemps ?
Texte intégral (1799 mots)

La combinaison de son recul économique, de la dégradation du contexte international et du possible désengagement de Washington du Vieux Continent place l’UE devant une alternative : continuer à n’être qu’une plateforme commerciale et normative, sachant que les recettes néolibérales appliquées au cours des dernières décennies ont mécontenté de larges pans de la population, ou aller plus avant vers une intégration politique plus poussée.


Quand tout s’accélère sur le plan géopolitique, il est essentiel de relier les événements aux tendances structurelles qui les nourrissent. Depuis février 2025, l’inquiétude grandit en Europe : le président des États-Unis, qui affirmait pouvoir mettre fin au conflit russo-ukrainien « en un jour », se soucie peu de la souveraineté de Kiev. L’échange tendu du 28 février entre Donald Trump et Volodymyr Zelensky, de même que la rencontre à tonalité très amicale d’Anchorage avec Vladimir Poutine le 16 août ont montré que Washington pousse à un cessez-le-feu à n’importe quelle condition, quitte à sacrifier les intérêts de l’Ukraine.

Cette posture met en évidence la dépendance persistante de l’Union européenne à l’égard des États-Unis et oblige à repenser ses fondements. Après un rappel des fragilités de la construction européenne, il convient d’identifier les défis suscités par la politique américaine, puis de réfléchir aux opportunités qu’offre cette nouvelle configuration.

Le rôle d’accélérateur de l’UE dans la généralisation des politiques néolibérales

Le compromis social forgé après 1945 – droits sociaux, services publics, redistribution, sécurité de l’emploi – s’est progressivement érodé, laissant place à un capitalisme dérégulé. Le rôle joué par l’UE dans cette mutation, amorcée dès les années 1980, est souvent sous-estimé.

Dans un contexte de mondialisation, les élites économiques ont cherché à doter l’Europe d’un vaste marché intégré. Droite, centre et social-démocratie ont relayé cet objectif, conçu comme un moyen de rivaliser avec les États-Unis et le Japon. L’Acte unique (1986) et les traités de Maastricht (1992) et d’Amsterdam (1997) ont accéléré les transferts de compétences et favorisé une déréglementation sans précédent. Parallèlement, l’élargissement vers l’Europe centrale et orientale a accentué cette dynamique, permettant aux grandes entreprises d’opérer à l’échelle continentale.

Ces choix ont engendré, dans la quasi-totalité des pays de l’UE, des renoncements majeurs : perte de souveraineté budgétaire, affaiblissement de la protection sociale, recul des services publics, flexibilité accrue du travail.

L’orientation néolibérale de l’UE a nourri la défiance des catégories populaires et contribué à la montée de l’extrême droite. Sans rupture avec cette trajectoire, l’UE risque de perdre encore en légitimité et de voir croître les forces hostiles à l’intégration.

Pourtant, l’UE a acquis des compétences étatiques importantes – légiférer, négocier des accords commerciaux, développer une banque centrale. Elle s’est affirmée comme un proto-État, mais dont la vocation demeure largement économique. L’UE n’a pas encore trouvé le chemin d’un équilibre entre intégration économique et justice sociale, ce qui alimente sa vulnérabilité politique.

Un contexte international difficile pour l’UE

L’Europe reste une zone développée mais affiche une croissance atone : 1 à 1,5 % prévus dans la décennie, contre 3 % aux États-Unis et des niveaux supérieurs pour la Chine et l’Inde.

Cette perte de vitesse économique intervient à un moment où la guerre est aux portes de l’UE (rappelons que l’Ukraine est frontalière de trois pays membres : la Pologne, la Slovaquie et la Roumanie).

L’Europe a tardé à percevoir la nature agressive du régime russe. Géorgie en 2008, Crimée en 2014, Donbass ensuite : autant de signaux d’un impérialisme assumé que l’Union a eu tendance à minorer. L’invasion à grande échelle de l’Ukraine en 2022 a contraint l’UE à réagir, non sans retard, et non sans divergences internes notables, dont la posture de Viktor Orban est la manifestation la plus éclatante. À ce stade, la mobilisation ukrainienne et l’aide militaire occidentale ont permis de contenir l’armée russe, mais environ 20 % du territoire restent occupés.

Le retour de Donald Trump à la Maison Blanche en janvier 2025 a bouleversé les équilibres : relèvement brutal des droits de douane, retrait d’accords multilatéraux (OMS, accords de Paris sur le climat), discours isolationniste et pressions sur l’Ukraine pour que celle-ci accepte de céder ses territoires. L’idée même d’une alliance atlantique « éternelle » est remise en cause, d’autant que l’UE a été contrainte d’accepter un accord commercial aux conditions très favorables aux États-Unis.

Cette rupture force l’Europe à réfléchir à son autonomie stratégique.

Faute de moyens militaires suffisants, elle pourrait promouvoir un compromis imposant la neutralité de l’Ukraine en échange d’un retrait russe partiel. Mais un tel scénario fragiliserait durablement Kiev et renforcerait l’insécurité des pays frontaliers, exposés à une éventuelle attaque russe sans disposer de défense commune solide. Dans le même temps, le retrait de Washington des institutions multilatérales, ses ambitions territoriales inédites et son désintérêt pour le climat accentuent la nécessité d’un repositionnement global de l’UE. La pression exercée par les États-Unis pour que l’Europe assume seule ses responsabilités militaires place les gouvernements face à des choix budgétaires et diplomatiques de long terme.

Une redéfinition nécessaire, mais peu probable à court et moyen termes

L’UE se trouve à un tournant décisif : soit elle reste un grand marché régulé par la concurrence, soit elle se transforme en puissance politique. Trois paramètres seront déterminants.

Les dynamiques politiques internes. En France, la dissolution de 2024 a plongé le pays dans une instabilité durable. Le gouvernement, privé de majorité, peine à assumer un rôle moteur en Europe, et se concentre sur un discours militaire ponctuel. En Allemagne, la victoire relative de la CDU en 2025 a permis l’émergence d’un chancelier pro-européen, Friedrich Merz, malgré la poussée de l’AFD. La solidité institutionnelle allemande offre à Berlin la possibilité de relancer le projet européen, au moment où Paris se fragilise. Mais là encore, la marge de manœuvre dépendra de la capacité du nouveau gouvernement à construire des alliances solides et à répondre aux défis sociaux et économiques qui fragilisent sa légitimité interne.

Les divergences entre États membres. Les pays d’Europe centrale et septentrionale (Pologne, États baltes, Suède, Finlande) militent pour une intégration sécuritaire renforcée. Mais la Hongrie d’Orban et l’Italie de Meloni bloquent toute évolution fédérale. L’absence de consensus entrave la capacité de l’UE à peser dans la reconfiguration mondiale, que ce soit en Ukraine ou au Moyen-Orient. Si le pacte Trump-Poutine venait à se fissurer, les membres de l’UE sauraient-ils dépasser leurs réflexes pro-américains ou pro-russes pour tracer, ensemble, une voie autonome ? La réponse demeure incertaine. La tentation, pour certains États, de privilégier des accords bilatéraux avec Washington ou Moscou persistera tant que l’UE n’aura pas affirmé un cap commun.

Le rôle des peuples. Toute avancée vers un État fédéral ou confédéral suppose l’adhésion populaire. Or la légitimité de l’UE est entamée par des décennies de politiques néolibérales. Pour restaurer la confiance, il faudrait instaurer un véritable pouvoir constituant, renforcer le Parlement européen, multiplier les débats démocratiques transnationaux et rompre avec une logique purement économique. C’est une condition nécessaire pour qu’une défense commune et des compétences régaliennes soient acceptées. À défaut, l’UE risque de rester une construction technocratique perçue comme distante des préoccupations quotidiennes. Le défi est de transformer l’intégration européenne en projet mobilisateur, porteur de justice sociale, de transition écologique et de sécurité collective.

Un choix stratégique

En définitive, l’Union européenne se trouve face à un choix stratégique : demeurer un simple marché soumis aux rapports de force mondiaux, ou se transformer en puissance politique capable de défendre ses intérêts et ses valeurs. Une telle transformation suppose de surmonter ses fragilités internes, de marginaliser les forces nationalistes hostiles à toute intégration, et surtout d’associer les peuples à une véritable refondation.

À ces conditions, l’UE pourrait enfin s’imposer comme acteur autonome et redonner un sens au projet européen. Sans cette évolution, elle restera spectatrice des recompositions géopolitiques dominées par Washington et Moscou.

The Conversation

Jean-Philippe Melchior ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

03.11.2025 à 16:19

New York : l’élection municipale qui pourrait fracturer le Parti démocrate

Elisa Chelle, Professeure des universités en science politique, Université Paris Nanterre

La probable victoire de Zohran Mamdani à New York devrait provoquer de profonds bouleversements au sein de son parti, dont il incarne le courant situé le plus à gauche.
Texte intégral (3159 mots)

Le démocrate Zohran Mamdani, qui représente le courant le plus à gauche de sa formation politique, est bien placé pour être élu maire de New York ce 4 novembre. Sa campagne a mis l’accent sur les questions économiques, promouvant un programme ambitieux et difficilement réalisable, certains prérogatives en la matière n’étant pas directement du ressort de la mairie. Mais ce sont surtout ses positions tranchées sur le conflit israélo-palestinien qui ont été mises sur le devant de la scène, aussi bien par le camp républicain que par son adversaire démocrate Andrew Cuomo. Si Mamdani gagne, les conséquences sur son parti seront majeures.


L’élection du maire de New York, ce 4 novembre 2025, se présente comme l’une des consultations politiques les plus scrutées aux États-Unis. Bien au-delà de son enjeu local, ce scrutin cristallise les fractures profondes du Parti démocrate et pourrait redéfinir les équilibres de la politique nationale en vue des élections de mi-mandat de 2026. Et Donald Trump pourrait en être le premier bénéficiaire.

Trois candidats sont en lice : le démocrate et socialiste Zohran Mamdani, figure de la gauche radicale et favori des sondages ; Andrew Cuomo, démocrate concourant en indépendant, ancien gouverneur de l’État de New York (2011-2021) qui avait démissionné alors qu’il était accusé par plusieurs femmes de harcèlement sexuel ; et le républicain Curtis Sliwa.

Le maire sortant, le démocrate Eric Adams, inquiété pour des faits de corruption, a vu, en février dernier les charges pesant sur lui abandonnées grâce à l’intervention de Donald Trump. Il a donc pu se représenter mais a fini par renoncer fin septembre, faute de dépasser les 10 % d’intentions de vote. Dans une ville où les Démocrates sont sept fois plus nombreux que les Républicains, Mamdani, investi par le Parti démocrate après sa victoire à la primaire du mois de juin, a toutes les chances de l’emporter.

Portrait d’un outsider : Zohran Mamdani

À 34 ans, Zohran Mamdani incarne une nouvelle génération politique. Né en Ouganda dans une famille privilégiée d’origine indienne – son père est professeur de sciences politiques à Columbia, sa mère une réalisatrice reconnue, notamment récompensée par la Caméra d’Or au festival de Cannes en 1988 pour son film Salaam Bombay ! –, il a obtenu la nationalité des États-Unis, où la famille s’est installée quand il avait sept ans, en 2018.

Diplômé en études africaines du prestigieux Bowdoin College dans le Maine, il s’est essayé au rap sous le nom de scène « Young Cardamom », puis a travaillé comme conseiller en prévention des saisies immobilières auprès de familles surendettées, tout en militant au sein des Democratic Socialists of America (DSA), principale organisation ouvertement socialiste du pays, qui revendique quelque 90 000 membres. Le terme « socialiste » est un marqueur très fort aux États-Unis. Il désigne la gauche de la gauche et est souvent utilisé par les Républicains pour dénoncer les excès de leurs adversaires.

Les DSA jouent un rôle essentiel dans la trajectoire de Mamdani. Créée en 1982, l’organisation fédère alors des militants et des intellectuels de la gauche radicale, plutôt âgés, publiant des notes et organisant des conférences. 2016 marque un tournant. C’est la première fois qu’un candidat se déclarant socialiste se présente à une élection présidentielle : il s’agit de Bernie Sanders. Zohran Mamdani s’engage pour soutenir sa campagne. C’est aussi l’année de la première élection de Donald Trump. Le choc est un catalyseur : le mouvement se rajeunit, gagne en ampleur et devient une machine à produire des candidats, comme Alexandria Ocasio-Cortez ou Mamdani lui-même. Le soutien de DSA lui permet d’être élu à l’Assemblée de l’État de New York en 2020, son premier et seul mandat politique à ce jour.

Son appartenance aux Democratic Socialists of America donne une coloration particulière à la candidature du jeune Américain d’ascendance indienne. Il doit être anticapitaliste dans la capitale mondiale du capitalisme financier. Et il doit faire preuve d’un antisionisme radical dans la ville qui abrite le plus grand nombre de Juifs au monde et qui reste une place forte du soutien à Israël. Le tout en aspirant à tenir le gouvernail d’une mégapole au budget de 109 milliards de dollars (soit 94,7 milliards d’euros) et aux 300 000 employés, en n’ayant l’expérience que de la gestion d’un bureau de cinq personnes.

Un programme ambitieux… mais réalisable ?

Doublement du salaire minimum, crèches gratuites, bus gratuits, gel des loyers, supermarchés publics… autant de mesures qui changeraient la vie des milieux modestes. Dans un contexte d’augmentation du coût de la vie et dans une mégapole marquée par de criantes inégalités socioéconomiques, ces promesses résonnent. Le maire démocrate Bill de Blasio (2014-2021) avait déjà mis en place la maternelle gratuite pour les enfants de 3 ans et 4 ans, et gelé les loyers pendant deux ans. Seul problème pour Mamdani : le maire de New York ne dispose pas toujours des pouvoirs nécessaires pour les mettre en œuvre ou en assurer le financement.

Taxer les riches pour soutenir la redistribution : la ligne est fidèle aux ambitions de la gauche radicale. Mamdani envisage une augmentation de la pression fiscale sur les ménages et les entreprises les plus fortunés : + 2 % d’impôts sur les particuliers dont les revenus annuels dépassent le million de dollars (868 600 euros), et taux d’imposition de 11,5 % (au lieu de 7,25 %) sur les 1 000 entreprises les mieux loties (sur les 250 000 que compte New York). Mamdani a déclaré à la télévision : « Il ne devrait pas y avoir de milliardaire. » Les intéressés ont bien reçu le message. Vingt-six d’entre eux ont déjà collecté près de 25 millions de dollars (21,7 millions d’euros) pour alimenter les fonds de campagne pro-Cuomo et/ou anti-Mamdani. Leur premier contributeur n’est autre que Michael Bloomberg, maire (démocrate puis indépendant) de New York de 2002 à 2013.

Autre difficulté : la fiscalité relève de la compétence de l’État, pas de la municipalité. La gouverneure de l’État de New York Kathy Hochul est certes démocrate, mais centriste. Elle s’est déjà déclarée opposée à ces hausses d’impôt, au nom de l’attractivité de l’État. Elle n’ignore pas le risque de délocalisation d’entreprises vers le Connecticut, dont la première ville hub (Stamford) n’est qu’à une heure de train de Manhattan, et où le taux d’imposition sur les sociétés deviendrait plus attractif. La Californie a déjà fait les frais d’une fiscalité élevée avec l’exode d’une partie de ses entreprises dans le Texas et de ses électeurs démocrates dans les États voisins.

L’augmentation du salaire minimum, même graduelle, se heurte au même obstacle. C’est l’État de New York qui décide, ce que Mamdani ne peut pas mettre en avant en pleine campagne. Les réticences à ce type de réforme sont connues. L’augmentation des salaires entraîne une augmentation des prix (donc réduit le pouvoir d’achat). La hausse du coût du travail incite aux réductions de personnel (donc nuit à l’emploi). Mamdani propose de réduire certaines charges sur les entreprises en contrepartie (amendes ou factures d’eau), mais cela est loin de compenser. La mesure pèserait, en outre, de manière disproportionnée sur les petites entreprises.

Qu’en est-il de la gratuité des bus ? La maire progressiste de Boston, Michelle Wu, a déjà expérimenté une telle mesure. À la condition expresse de compenser le manque à gagner par l’agence d’exploitation du réseau de transports en commun. À New York, cela représenterait une somme de 652 millions de dollars (566,4 millions d’euros) par an. Le réseau étant géré par la MTA, une agence d’État, le maire ne pourrait que négocier, et non imposer. Rappelons par ailleurs que le pilier des transports publics new-yorkais reste le métro, et les trains de banlieue pour les habitants les plus éloignés du centre.

Le gel des loyers pourrait s’appliquer aux 46 % de logements à loyer régulé de la ville. Le plafond de révision annuelle des loyers est déterminé par une commission de neuf membres, tous nommés par le maire. Il serait donc possible de composer habilement la commission, mais celle-ci resterait légalement tenue d’évaluer les coûts d’exploitation des propriétaires (impôts, énergie, rénovation). Un gel prolongé pourrait soit être contesté dans les tribunaux, soit dégrader l’état du parc locatif, soit inciter les petits propriétaires à retirer leurs biens de la location.

Punir les grandes fortunes et pratiquer la redistribution n’a donc rien d’évident dans une ville comme New York. Les démocrates d’Albany – la capitale de l’État – seraient les premiers sur le chemin d’un maire socialiste comme Mamdani.

La question israélo-palestinienne : un piège politique

Depuis le 7 octobre 2023, la question israélo-palestinienne est explosive au sein du Parti démocrate. D’un côté, il y a l’establishment du parti soutient Israël ; de l’autre, une jeune garde qui y est de plus en plus hostile. Les Democratic Socialists of America ont adopté une ligne antisioniste radicale. Ils exigent de leurs candidats de se conformer à tous les critères suivants : soutien au mouvement « Boycott, désinvestissement, sanctions », interdiction de voyager en Israël, reconnaissance du « droit au retour » et du « du droit à la résistance », opposition à tout cessez-le-feu à la faveur d’une « libération totale » de la Palestine.

Cette position place le candidat dans une situation intenable. New York compte 1,1 million de Juifs, soit un quart du total de la population juive-américaine. La ville est le siège de groupes de pression, de médias et de grands donateurs pro-Israël. Vingt-quatre ans après le 11-Septembre, un candidat musulman qui refuse de condamner clairement les violences du Hamas – organisation ouvertement antisémite selon sa charte de 1988 – soulève des inquiétudes considérables.

Mamdani a qualifié Israël d’« État d’apartheid » conduisant « un génocide » à Gaza. On connaît les arguments invoqués par la gauche radicale : l’antisionisme n’est pas l’antijudaïsme, et il s’agit avant tout d’une lutte anticolonialiste. Mais on a aussi pu observer combien une telle posture, qui suscite régulièrement des soupçons d’antisémitisme larvé, a pu coûter cher aux leaders de la gauche, tel le travailliste Jeremy Corbyn au Royaume-Uni. À la veille de l’élection, 60 % des électeurs juifs de New York déclarent soutenir Andrew Cuomo.

L’« establishment » démocrate divisé, Donald Trump se frotte les mains

La candidature d’Andrew Cuomo, 67 ans, est celle du camp centriste, acquis au consensus libéral, mais entravé par des casseroles judiciaires. Issu d’une dynastie politique – son père Mario fut gouverneur pendant trois mandats –, Cuomo a démissionné de son poste de gouverneur de l’État de New York en 2021 car il était accusé de harcèlement sexuel sur une douzaine de femmes. Fait documenté : il a également manipulé les chiffres des décès dans les maisons de retraite pendant le Covid, ce qui lui vaut une procédure judiciaire pour parjure devant le Congrès.

Malgré sa défaite à la primaire du Parti démocrate organisée le 24 juin dernier (avec 43,61 % des suffrages contre 56,39 % pour Mamdani au dernier tour de scrutin), il a décidé de maintenir sa candidature et de se présenter en tant qu’indépendant. Pas évident pour un camp démocrate qui prêche – tout spécialement depuis la présidentielle de 2020, qui reste contestée avec véhémence par le clan Trump – le respect du résultat des élections.

Baiser de la mort : Cuomo est soutenu par le maire sortant Eric Adams. Cet ancien capitaine de police a été inculpé pour corruption. Mais sur injonction présidentielle, un juge fédéral a abandonné les poursuites engagé contre lui il y a quelques mois. Adams a donc continué à faire campagne. En avril, il a retiré sa candidature à la primaire démocrate, et a concouru par la suite en indépendant, jusqu’à son abandon définitif fin septembre. Pendant ces quelques mois, il a contribué à une division de l’électorat démocrate entre sa candidature et celle de Cuomo, ce qui a favorisé Mamdani. C’était précisément le dessein du camp Trump.

Le président a beau jeu de présenter l’affrontement Cuomo-Mamdani comme un duel entre un ancien édile désavoué et un « communiste fou à 100 % » (c’est ainsi qu’il qualifie Mamdani), ce qui discrédite le Parti démocrate dans son ensemble. De par ses attaques répétées à l’encontre de Mamdani, il transforme l’élection new-yorkaise en guerre par procuration contre la gauche progressiste.

Donald Trump n’espère pas voir un républicain gagner la mairie de New York, objectif quasi impossible en l’état actuel des forces. Sa stratégie consiste à utiliser la probable victoire de Mamdani comme laboratoire afin de fracturer le Parti démocrate au niveau national. Le camp des centristes gestionnaires est en lambeaux. Le choix est cornélien : soutenir un candidat anticapitaliste et pro-palestinien, en fidélité au parti qui l’a investi, ou défendre un candidat accusé – à raison – de parjure et de harcèlement sexuel.

Pendant que la gauche radicale se prend à rêver de victoires « du Maine à la Californie », l’anticapitalisme de Mamdani permettra à Trump de brandir l’épouvantail du « radicalisme de gauche » auprès de l’électorat modéré national. Chaque difficulté à New York sera imputée au « socialisme » du maire. Surtout, son antisionisme radical va être un détonateur dans le camp démocrate. Les leaders vont devoir prendre position en public et régler leurs comptes en interne. Barack Obama, lui, a déjà choisi. De passage en Virginie et dans le New Jersey pour soutenir en meeting les candidates démocrates, il n’a pas fait d’arrêt à New York. Zohran Mamdani a dû se contenter d’un coup de téléphone de soutien de la part de l’ancien président.

Au cœur de cette stratégie : le vote juif. Donald Trump a pris parti en faveur d’Israël comme aucun président avant lui. Cela lui a valu un soutien considérable dans le camp républicain. Maintenant, il veut fissurer encore davantage le soutien historique des Juifs aux Démocrates. Si les plus orthodoxes choisissent déjà de plus en en plus le vote républicain, les plus modérés restent encore à convaincre. Et si Mamdani décidait de se tempérer sur cette question, il perdrait le soutien de DSA. Alexandria Ocasio-Cortez en a déjà fait l’expérience.

La difficile reconstruction du Parti démocrate

Zohran Mamdani illustre un tournant important pour le Parti démocrate : la mise de côté des questions identitaires et de guerre culturelle, dans le cadre de laquelle la posture du parti a parfois été qualifié de « wokiste ». Le retour des questions matérielles, relatives au coût de la vie, est indispensable à de futures victoires électorales du parti de l’âne. Mais dans un contexte où la formation tente de se reconstruire après la défaite de 2024, la gauche radicale n’apporte peut-être pas que des solutions.

Les autres figures démocrates se tiennent à distance à distance du jeune Mamdani. Au mieux, elles lui apportent un soutien formel. Mais chacun se prépare. Kamala Harris vient de publier ses mémoires et ne cache pas ses ambitions présidentielles pour 2028. Le gouverneur de Californie Gavin Newsom, fervent anti-Trump, est à la manœuvre pour faire voter, ce 4 novembre la Proposition 50, un redécoupage électoral partisan destiné à contrer une tactique similaire des républicains dans le Texas.

Le 4 novembre déterminera si New York devient le symbole d’une renaissance de la gauche radicale états-unienne ou le cadeau empoisonné qui divisera durablement le Parti démocrate, offrant à Donald Trump une victoire stratégique majeure pour garder le contrôle des deux Chambres aux élections de mi-mandat en novembre 2026.


Élisa Chelle est l’auteure de La démocratie à l’épreuve du populisme. Les leçons du trumpisme (Odile Jacob, 2025).

The Conversation

Elisa Chelle a reçu des financements de l'Institut universitaire de France.

PDF

03.11.2025 à 16:19

Face à l’IA, l’enseignant ne doit pas se transformer en chasseur de fraudes, mais repenser sa pédagogie

Cécile Méadel, Professeure en sciences de l'information et de la communication, Université Paris-Panthéon-Assas

Jaércio da Silva, Maître de conférences en sciences de l'information et de la communication, Université Paris-Panthéon-Assas

Former à l’intelligence artificielle générative, ce n’est pas enseigner une boîte à outils, c’est aider les étudiants à aiguiser leur esprit critique.
Texte intégral (2186 mots)

Aussi performantes soient-elles, les intelligences artificielles génératives ne peuvent remplacer les professeurs dans leur travail d’éducation à l’esprit critique auprès des élèves. Mais pour bien remplir ce rôle, ils doivent remettre en perspective leurs pratiques et réinventer leur pédagogie.


On le sait, les intelligences artificielles (IA) génératives sont en mesure de rédiger des textes, de traiter des corpus, de générer des contenus multimédias et de résoudre des équations complexes… soit des opérations traditionnellement demandées aux étudiants.

À l’université, elles provoquent (à nouveau et encore) des débats sur la place des machines dans l’acquisition de compétences. Si les étudiants s’appuient trop sur elles, ne risquent-ils pas de considérer certaines compétences comme obsolètes ? Peut-on apprendre sans pratiquer, en déléguant la tâche à une machine ?

Les réponses se multiplient avec un discours catastrophiste. Des enquêtes se font l’écho de pertes cognitives liées à l’usage des IA, comme l’explique la dernière étude du MIT, selon laquelle les utilisateurs d’intelligences artificielles génératives sous-performeraient systématiquement.


À lire aussi : L’IA dans l’enseignement supérieur : les leçons de Platon et du mythe de Theuth


Sont aussi interrogées les limites du modèle : les bases de données ne risquent-elles pas de se dégrader à force de se nourrir avec les résultats qu’elles produisent ? Sans compter le très lourd impact environnemental et humain de ces outils.

De tels discours prêtent des capacités infinies et incontrôlables à ces outils. Ils nourrissent le discours de toute-puissance des industries numériques et s’inscrivent dans un imaginaire de science-fiction. Ils négligent leur caractère économique et le fait que l’IA est un terme choisi par son potentiel marketing. Penser en termes d’effets, sans nourrir la discussion et sans contradiction, laisse les Big Tech piloter le débat.

Questionner la verticalité de l’enseignement

Ces outils sont indéniablement puissants, même s’ils ne peuvent pas tout faire. Leur facilité d’accès et leur rapidité font qu’ils sont largement mobilisés par les étudiants, comme le répètent ad nauseam sondages, articles et rapports publics. Or, cet usage est difficilement traçable et la situation ira en s’accentuant, car les intelligences artificielles génératives se multiplient et se diversifient, leur qualité augmente et les limites ou hallucinations évidentes autrefois (c’est-à-dire, il y a deux ans) s’atténuent.

En même temps, leurs effets sont désormais mis en lumière : la non-appropriation des productions, les limites de la réflexion et l’accroissement des inégalités.

La bonne nouvelle est que le combat pour affirmer que les intelligences artificielles génératives ne peuvent pas remplacer la réflexion n’est pas perdu d’avance. Mais il faut changer la focale du problème : comment en faire un « amplificateur d’intelligence » et non un substitut hébétant ?

Ces outils questionnent le modèle d’apprentissage encore largement vertical en France. Qui n’a jamais assisté dans un amphithéâtre à un cours magistral sans interactions pour en ressortir avec le constat de la passivité des étudiants ? Une passivité qui préexistait aux intelligences artificielles génératives. Ce n’est donc pas une chasse aux fraudes qui doit être mise en place, mais un questionnement sur la manière même d’enseigner et d’évaluer.

Voici trois pistes de réflexion sur la manière dont les intelligences artificielles génératives peuvent aider à repenser le rôle d’enseignant.

Resituer l’IA dans la longue histoire des usages numériques

Les intelligences artificielles génératives n’arrivent pas dans un paysage vide de technologie numérique. Internet, les bibliothèques numériques, le courrier électronique, les réseaux sociaux… reconfigurent le rapport à la connaissance. Certains ont pu faire comme si Google ou Wikipédia étaient des outils négligeables, qu’il suffisait d’interdire ou d’ignorer. C’était manquer à notre mission éducative.

Les résultats d’un moteur de recherche varient selon la capacité à formuler une requête, à comprendre le fonctionnement algorithmique et à exercer un regard critique sur les sources. Consulter Wikipédia sans savoir que l’on peut retracer l’historique d’une page, ignorer la différence entre Google Scholar et JSTOR, ou ne pas saisir la signification d’une citation, revient à utiliser ces outils de manière aveugle.

Reportage sur l’usage de l’IA à l’université (France 3 Bretagne, mars 2025).

Les technologies, comme l’a montré la sociologie des usages, se déploient dans un environnement pluriel et imprévisible, avec des pratiques différenciées, des détournements et des appropriations. Les usages des intelligences artificielles génératives doivent être replacés dans leur contexte social, politique, culturel. Mais aussi dans leurs modalités d’utilisation, passive ou active, individuelle ou collective, sur le modèle problem solving ou interaction créative. Ainsi, l’intelligence artificielle générative n’est ni miracle ni fléau pour l’apprentissage : sa puissance dépend du contexte, des usages, de la réflexivité déployée par les acteurs.

Rappelons enfin que l’intelligence artificielle générative n’est pas une technique unique, mais une série d’outils différents et que, si ChatGPT occupe aujourd’hui une position dominante, il n’est pas seul. Les risques associés (données personnelles, véracité des contenus, biais des modèles…) varient selon les systèmes. Éduquer à l’intelligence artificielle générative, c’est aussi apprendre à choisir le bon outil selon l’usage attendu, à en comprendre les enjeux éthiques, culturels et économiques.

Intégrer l’IA comme objet d’exercice critique

Former à l’intelligence artificielle générative ne revient donc pas à enseigner une boîte à outils : c’est avant tout offrir une perspective analytique et réflexive. La formation doit être pensée pour différents niveaux de maîtrise et adaptée aux besoins des étudiants.

Comme le note Nicholas Carr, les compétences nécessaires pour bien exploiter l’intelligence artificielle générative dépendent de savoirs que l’usage de l’IA risque de court-circuiter. Former à l’intelligence artificielle générative, c’est refuser de céder à une dépendance intellectuelle et veiller à ce que les étudiants développent une compréhension des sujets qu’ils abordent. L’enjeu est autant cognitif (développement de la pensée) et pragmatique (maîtrise de l’outil) qu’éthique (responsabilité, agentivité).


À lire aussi : Photos, IA et désinformation historique : l’enseignement de l’histoire face à de nouveaux défis


Il s’agit de permettre aux étudiants de développer une compréhension du fonctionnement même des modèles d’IA, notamment leur caractère probabiliste (qui les rend susceptibles de produire des réponses convaincantes, mais inexactes). Leur utilisation dépend largement du type de rapport au savoir que les étudiants entretiennent avec ces outils : lorsqu’ils sont utilisés pour construire et augmenter la connaissance, ils favorisent le développement de la réflexion analytique ; en revanche, un usage régurgitatif, reposant sur la reproduction des contenus générés, conduit à des apprentissages superficiels.

Intégrer l’intelligence artificielle générative comme objet d’exercice critique devient central pour renforcer l’autonomie intellectuelle des élèves et prévenir leur réduction au rôle de consommateurs passifs de contenus obtenus de manière automatisée.

Repenser le rapport à l’évaluation

Les textes rédigés à l’aide d’intelligences artificielles génératives sont, sauf grande maladresse, difficiles à détecter, ce qui remet en question nos méthodes d’évaluation traditionnelles, largement fondées sur la restitution écrite et la capacité de synthèse ou de mémorisation. Dans ce contexte, la classique fiche de lecture perd de sa pertinence : à l’échelle individuelle, les étudiants constatent que les intelligences artificielles génératives sont capables de résumer un texte plus efficacement qu’eux.

Pourtant, à l’échelle collective, cette délégation de la lecture à une intelligence artificielle générative conduit à une standardisation des interprétations, dictée par un fonctionnement orienté vers la synthèse la plus probable, au détriment de l’interprétation personnelle, de la nuance et de la complexité. Ce glissement interroge non seulement la validité des productions, mais aussi le sens même de la lecture et de la compréhension.


À lire aussi : Déléguer la lecture à l’IA : quels savoirs et plaisirs sacrifions-nous ?


Deux formats d’évaluation sont considérés comme préservés : l’oral ou le devoir surveillé avec interdiction des outils numériques. Ces options restent valables et sont encore très présentes pour les examens de l’université française, mais elles ne sauraient constituer les seules alternatives.

Des travaux explorent actuellement d’autres formes d’évaluation. En sciences humaines et sociales, plusieurs pistes s’ouvrent. Par exemple, cela consiste à valoriser des productions plus difficiles à automatiser, telles que la restitution d’enquêtes de terrain, les observations in situ, ou encore les productions qui mobilisent leur « expérience incarnée ». Une telle orientation implique un déplacement épistémologique : l’expérience, articulée à la théorie, participe à une construction collective du sens et à une éducation fondée sur l’engagement.

Ce n’est pas simple dans un système scolaire où la notation occupe une place centrale et qu’en conséquence la triche domine le débat sur les intelligences artificielles génératives. Pourtant, la finalité de l’évaluation ne devrait pas être de sanctionner, mais de mesurer la progression, la compréhension et la capacité à mobiliser des savoirs.

L’enseignant doit alors expliciter pour les étudiants ce qu’il évaluera, et si, comment et avec quelles limites l’intelligence artificielle générative peut être utilisée. Certaines pratiques doivent parallèlement être explicitement désignées comme inacceptables : présenter comme personnel le travail d’une IA, utiliser de fausses références ou fabriquer des données fictives.

Ce n’est pas l’usage de l’intelligence artificielle générative qui est problématique, mais des comportements qui vont à l’encontre des attentes pédagogiques. Dès lors, il ne s’agit pas d’abord de surveiller ou de sanctionner, mais de poser un cadre, favorisant une évaluation fondée sur le partage de responsabilités et sur le développement d’un raisonnement critique sur la manière dont la connaissance est produite, que l’étudiant soit épaulé ou non par l’intelligence artificielle générative.

The Conversation

Cécile Méadel a reçu des financements de l'ANR (STYX - ANR-23-PEIC-0006).

Jaércio da Silva a reçu des financements de l'ANR (STYX - ANR-23-PEIC-0006).

PDF

03.11.2025 à 16:18

Comment la photographie de guerre a transformé le regard de la France sur la révolution irlandaise

Claire Dubois, Professeure de civilisation irlandaise, Université de Lille

Síobhra Aiken, Senior Lecturer, Queen's University Belfast

Les photographes ont joué un rôle majeur dans la perception de la cause irlandaise sur le plan européen et international.
Texte intégral (2997 mots)
Les années 1920 sont aussi celles des débuts du photojournalisme…et de la manipulation de l'opinion par la photo.

Marquée par la violence et les bouleversements politiques, la révolution irlandaise (1912-1923, selon la plupart des historiens) voit l’opinion nationaliste irlandaise se tourner vers le mouvement républicain Sinn Féin pour obtenir l’indépendance par la force. Une exposition en ligne met en lumière le récit de ces années turbulentes dans la presse française.


Au tournant des années 1920, la France se passionne pour la cause irlandaise. Si la révolution a été le sujet de nombreux articles dans les journaux français, elle a aussi été suivie de près grâce aux images. Ce sont peut-être même les photographes qui ont transformé le regard de la France sur ces événements. Avant ces reportages photographiques, les Français s’intéressaient peu au sujet et beaucoup doutaient que l’Irlande soit capable de se gouverner seule.

C’est avec l’« Insurrection de Pâques » (Easter Rising), en 1916, que le public français a réellement pris conscience de la détermination des indépendantistes irlandais. Dans le contexte de la Première Guerre mondiale et de la Triple-Entente avec la Grande-Bretagne, ces événements sont d’abord perçus avec une certaine méfiance en France. Pourquoi, en effet, organiser une insurrection à Dublin alors que la guerre bat son plein sur le continent ?

Bien que les journalistes aient d’abord présenté l’Insurrection de Pâques comme un complot allemand, l’événement se révèle finalement être un coup de maître dans la lutte pour l’indépendance, notamment sur le plan de l’opinion publique internationale. Dépêchés sur place, les photographes ont alors joué un rôle majeur dans la perception de la cause irlandaise sur le plan européen et international.

Les balbutiements du photojournalisme

En effet, les événements de la période révolutionnaire en Irlande, dont les plus connus du grand public sont le soulèvement de Pâques en 1916, la guerre d’indépendance (1919-1921) et la guerre civile (1922-1923), ont souvent figuré en bonne place dans les pages des journaux français de l’époque.

À cette période, l’utilisation de la photographie dans la presse était encore un art balbutiant, mais cette technologie connut un essor rapide, de même que la circulation des images entre les îles britanniques et le continent. Les agences françaises de presse, telles que Rol et Meurisse, achètent alors des clichés à des photographes locaux (dont le nom n’était jamais crédité) et inondent les rédactions d’images qui, reproduites sous forme de gravures puis directement de photographies, créent une nouvelle proximité avec le conflit. Les journaux illustrés, comme Excelsior et le Miroir, ont aussi contribué au développent d’un photojournalisme plus approfondi, et frappé l’esprit des lecteurs avec leurs unes couvertes de photographies.

Une célèbre photographie publiée en 1916 en une du Miroir montre ainsi la comtesse Constance Markievicz à l’arrière d’un camion de police après le procès qui lui a valu une condamnation à mort, commuée en emprisonnement à vie en raison de son sexe. Souvent interrogée par les reporters français dépêchés sur place lors de la guerre d’indépendance, Markievicz, ancienne élève de l’Académie Julian à Paris, tente de convaincre la France du bien-fondé de l’indépendance irlandaise et condamne les exactions de l’armée britannique en Irlande.

« La comtesse Markievicz regagne la prison après sa condamnation. »

Dans une interview accordée à Joseph Kessel en 1920, elle souligne également l’importance des femmes dans le camp séparatiste et regrette que le socialisme radical ne soit pas aussi populaire en Irlande que sur le continent. Elle contribuera à populariser la cause irlandaise auprès du public français, de même que d’autres indépendantistes francophiles.

Des événements très présents dans la presse française

Pendant la guerre anglo-irlandaise, les journaux français de tous bords se font l’écho des événements en Irlande, publiant des interviews comme des articles de fond retraçant l’histoire du conflit. Le journal illustré parisien Excelsior publie régulièrement des photographies du conflit, y compris plusieurs unes au cours de la période révolutionnaire. L’annonce de la signature du Traité anglo-irlandais figure ainsi en [première page, le 8 décembre 1921], accompagnée, dans un souci didactique, de photographies de séances aux Parlements de Dublin et de Belfast et d’une carte de l’Irlande.

« La conclusion de l’accord anglo-irlandais a produit une impression profonde en Angleterre. » Gallica

À une semaine d’intervalle, deux unes de la première semaine de juillet 1922 documentent les effets de la guerre civile sur la population irlandaise et les destructions infligées à la ville de Dublin, lors de la bataille opposant les opposants et les supporters du Traité anglo-irlandais.

« Les rebelles irlandais assiégés à Dublin se sont rendus. » Gallica
« La guerre civile en Irlande : les dernières batailles de Dublin. » Gallica

La publication régulière de portraits et d’entretiens avec les différents protagonistes permet au public de se familiariser avec les acteurs du conflit et de se faire sa propre opinion sur les représailles britanniques pendant la guerre d’indépendance, puis sur la détermination des opposants au Traité pendant la guerre civile. Si la majorité des journaux français semble soutenir la cause indépendantiste, la guerre civile n’est pas comprise par l’opinion, choquée par le meurtre de Michael Collins perpétré par les opposants à l’État libre en août 1922.

Un cliché reproduit en une d’Excelsior le 24 novembre 1920 pousse la propagande à l’extrême. Situé en haut à droite, il montre les cadavres de rebelles vaincus lors de la bataille de Tralee (Kerry). Il s’agit en réalité d’une mise en scène pour des photographes officiels à Killeney dans le comté de Dublin, censée montrer les avancées des Britanniques.

« Depuis les tragiques événements de dimanche, le calme règne en Irlande ». Gallica

Susciter l’empathie

Au-delà des tentatives de manipulation de l’opinion, de nombreuses photographies disent l’histoire de la résistance irlandaise à l’oppression anglaise et pointent du doigt les destructions et la souffrance de la population civile, familières au public français de l’après-guerre. Les photographies choisies pour accompagner l’article de Joseph Kessel publié dans la Liberté, le 28 septembre 1920, représentent l’ampleur des destructions après le sac de Balbriggan par les « Black and Tans ». L’esthétique des ruines et le désespoir de la femme dont la photographie figure en médaillon ne sont pas sans rappeler la Grande Famine qui frappa l’Irlande quelques décennies auparavant.

« Le sac de Balbriggan par des soldats anglais. » Gallica

Représenter la souffrance est loin d’être aisé.

« Les récits peuvent nous amener à comprendre. Les photographies font autre chose : elles nous hantent », souligne Susan Sontag dans « Devant la douleur des autres », 2003.

Donner à voir ces visages, ces ruines et ces drames humains crée une plus grande proximité avec l’expérience du lecteur français d’après-guerre. Grâce à ces photographies, l’Irlande n’est plus une simple abstraction politique, mais devient une réalité tangible.


Une exposition numérique mise au point par Síobhra Aiken, Claire Dubois et Mark O’Rawe des universités de Queen’s (Belfast) et de Lille retrace l’histoire des représentations visuelles de la révolution irlandaise en France et met en lumière les liens entre les deux pays.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

03.11.2025 à 11:49

Peut-on être trop riche ? Tout dépend de vos convictions profondes et du contexte économique national

Jackson Trager, Ph.D. Candidate in Psychology, USC Dornsife College of Letters, Arts and Sciences

Peut-on être trop riche ? Derrière la question se cachent des considérations morales profondément ancrées. Une étude internationale éclaire sur la façon dont nos valeurs influencent nos jugements.
Texte intégral (1208 mots)

Des milliardaires à l’intelligence artificielle, la question reste la même : à partir de quand l’accumulation devient-elle excessive ? Une étude internationale montre que nos réponses dépendent autant de nos valeurs morales que du contexte économique et culturel.


À travers les cultures, les mêmes questions reviennent : avoir beaucoup d’argent est-il une bénédiction, un fardeau ou un problème moral ? Selon nos nouvelles recherches, la façon dont on perçoit les milliardaires ne relève pas seulement de l’économie. Le jugement dépend aussi de certains instincts culturels et moraux, ce qui aide à expliquer pourquoi les opinions sur la richesse sont si polarisées.

L’étude, que mon collègue Mohammad Atari et moi avons publiée en juin 2025 dans la revue scientifique PNAS Nexus, s’appuie sur des données d’enquêtes menées auprès de plus de 4 300 personnes dans 20 pays. Nous avons constaté que, si la plupart des gens dans le monde ne condamnent pas fermement le fait de posséder « trop d’argent », il existe des différences culturelles marquées.

Dans les pays riches et plus égalitaires sur le plan économique, comme la Suisse ou la Belgique, les personnes interrogées étaient plus enclines à juger immoral le fait de détenir trop de richesses. À l’inverse, dans des pays plus pauvres et plus inégalitaires, comme le Pérou ou le Nigeria, l’accumulation de richesses était perçue comme davantage acceptable.

Au-delà des aspects économiques, nous avons constaté que les jugements sur la richesse excessive sont aussi façonnés par des intuitions morales plus profondes. Notre étude s’appuie sur la moral foundations theory (théorie des fondements moraux), qui propose que le sens du bien et du mal repose sur six valeurs fondamentales : le soin, l’égalité, la proportionnalité, la loyauté, l’autorité et la pureté. Nous avons observé que les personnes attachées à l’égalité et à la pureté étaient plus susceptibles de considérer la richesse excessive comme répréhensible.

Le résultat concernant l’égalité était attendu, mais le rôle de la « pureté » est plus surprenant. La notion de pureté est généralement associée à des idées de propreté, de sacralité ou d’évitement de la contamination – découvrir qu’elle est liée à une perception négative de la richesse donne un nouveau sens à l’expression anglaise « filthy rich » (mot à mot « salement richenbsp;», de « filth » qui signifie «dégoûtant, obscène, corrompu »).

En tant que chercheur en psychologie sociale étudiant la morale, la culture et la technologie, je m’intéresse à la façon dont ce type de jugements varie selon les groupes et les sociétés. Les systèmes sociaux et institutionnels interagissent avec les croyances morales individuelles, façonnant la manière dont les gens perçoivent des sujets de société clivants comme la richesse et les inégalités – et, en retour, la façon dont ils s’engagent face aux politiques et aux conflits qui en découlent.

Pourquoi est-ce important ?

Les milliardaires exercent une influence croissante dans la politique, la technologie et le développement mondial. Selon l’organisation Oxfam, qui lutte contre la pauvreté, le 1 % le plus riche de la planète détenait en 2024 plus de richesses que 95 % de l’humanité réunie.

Les tentatives de réduction des inégalités par l’impôt ou la régulation des plus riches reposent toutefois peut-être sur une hypothèse erronée : celle selon laquelle l’opinion publique condamnerait largement les richesses extrêmes. Si, au contraire, la majorité considère l’accumulation de richesses comme moralement justifiable, de telles réformes risquent de rencontrer un soutien limité.

Si notre étude montre que la plupart des gens dans le monde ne considèrent pas la richesse excessive comme moralement condamnable, ceux vivant dans des pays plus riches et plus égalitaires sont en revanche bien plus enclins à la critiquer. Ce contraste soulève une question plus aiguë : lorsque les habitants de sociétés privilégiées dénoncent les milliardaires et cherchent à limiter leur influence, mettent-ils réellement en lumière une injustice mondiale – ou projettent-ils leur propre sentiment de culpabilité ?

Imposent-ils un principe moral façonné par leur prospérité à des pays plus pauvres, où la richesse peut représenter la survie, le progrès ou même l’espoir ?

Ce qu’on ignore encore

Une question reste ouverte : comment ces perceptions évoluent-elles avec le temps ? Les attitudes changent-elles à mesure que les sociétés deviennent plus riches ou plus égalitaires ? Les jeunes sont-ils plus enclins que les générations plus âgées à condamner les milliardaires ? Notre étude offre un instantané, mais des recherches menées sur le long terme pourraient montrer si les jugements moraux suivent les évolutions économiques ou culturelles plus larges.

Une autre incertitude concerne le rôle inattendu de la pureté. Pourquoi une valeur associée à la propreté et à la sacralité influencerait-elle la manière dont on juge les milliardaires ? Notre étude complémentaire a révélé que les préoccupations liées à la pureté dépassent la question de l’argent et s’étendent à d’autres formes d’« excès », comme le rejet d’« une trop grande » ambition, sexualité ou recherche de plaisir. Cela suggère que les individus perçoivent peut-être l’excès en lui-même – et pas seulement l’inégalité – comme une forme de corruption.

Et ensuite ?

Nous poursuivons nos recherches sur la manière dont les valeurs culturelles, les systèmes sociaux et les intuitions morales façonnent les jugements portés sur l’équité et sur l’excès – qu’il s’agisse de la richesse et de l’ambition, ou encore du savoir et de la puissance de calcul de l’intelligence artificielle.

Comprendre ces réactions morales instinctives au sein de systèmes sociaux plus larges est essentiel pour les débats sur les inégalités. Mais cela peut aussi aider à expliquer comment les individus évaluent les technologies, les dirigeants et les institutions qui accumulent un pouvoir ou une influence disproportionnés, jugés excessifs.

The Conversation

Jackson Trager ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

03.11.2025 à 11:25

Quand l’enseignement supérieur s’enracine dans son territoire : déni de mondialisation ou stratégie gagnante ?

Jean-Marie Cardebat, Professeur d'économie à l'Université de Bordeaux et Professeur affilié à l'INSEEC Grande Ecole, Université de Bordeaux

Olivier Guyottot, Enseignant-chercheur en stratégie et en sciences politiques, INSEEC Grande École

Alors que la course mondiale aux classements, celui de Shanghai ou d’autres, tend à uniformiser les programmes d’enseignement supérieur, l’ancrage local constitue un atout stratégique.
Texte intégral (1492 mots)

Et si la reconnaissance internationale des universités et des écoles de commerce passait par le terroir ? Alors que la course mondiale aux classements – celui de Shanghai ou d’autres – tend à uniformiser les programmes d’enseignement supérieur, l’ancrage local constitue aussi un atout stratégique.


Dans un paysage académique mondialisé, les grandes marques universitaires se livrent une compétition féroce pour figurer aux premières places des différents palmarès et classements internationaux. La réputation et la légitimité des universités et des écoles reposent encore largement sur la performance de leur recherche académique, comme en témoignent la culture du « Publish or perish » ou les critères du classement de Shanghai. Cette dynamique tend à renforcer la polarisation entre des universités de rang mondial et des établissements régionaux dans un contexte de mimétisme institutionnel et d’uniformisation des programmes d’enseignement supérieur.

Orientation des financements

Mais derrière cette image globalisée de la performance, les établissements d’enseignement supérieur demeurent intimement liés à leur territoire d’implantation. Cet ancrage local est notamment scruté de près par les pouvoirs publics, qui en font un critère pour orienter leurs financements, et par les acteurs institutionnels et les organismes d’accréditation, qui l’intègrent dans leurs critères de qualité pour octroyer le droit de délivrer des diplômes et accréditer des programmes.

Ce rapport au territoire ne se réduit toutefois pas à une logique réglementaire ou budgétaire et soulève une interrogation plus stratégique : la proximité avec les acteurs économiques, sociaux et culturels locaux peut-elle paradoxalement constituer une voie d’accès au rayonnement international pour les établissements d’enseignement supérieur ?


À lire aussi : Les secrets de la domination de l’Université Harvard au classement de Shanghai


Pour tenter de répondre à cette question, nous avons mené un travail d’investigation qui a donné lieu à un article de recherche publié dans la revue internationale Higher Education. Notre publication interroge et invite à repenser la relation entre enracinement local et visibilité mondiale des établissements d’enseignement supérieur à travers un cas emblématique : les régions viticoles françaises et les formations d’enseignement supérieur dédiées au secteur du vin.

Pour essayer de savoir si l’ancrage régional de ces programmes d’enseignement supérieur pouvait constituer un atout dans la compétition internationale entre établissements, notre projet de recherche repose sur une double méthodologie, à la fois quantitative (classement, attractivité, employabilité, résultats académiques de 72 formations en vin réparties sur l’ensemble des régions françaises) et qualitative (22 entretiens semi-directifs menés auprès de responsables académiques, étudiants et diplômés de programmes en vin et de professionnels du secteur viticole).

Attractivité internationale accrue

Notre travail est fondé sur deux hypothèses. La première postule que la réputation d’une région et la richesse de son écosystème (c’est-à-dire la densité des acteurs économiques, culturels et institutionnels liés à ce secteur) influencent directement la performance et la visibilité des formations supérieures spécialisées dans ce domaine. La seconde avance l’idée que ces formations confèrent alors à leurs établissements d’origine une attractivité internationale accrue au lieu de les limiter à un rayonnement local.

Pour explorer cette relation, notre travail a mobilisé deux concepts :

  • l’heuristique « glonacale », soit un cadre théorique qui permet d’analyser le positionnement des établissements d’enseignement supérieur en considérant simultanément leurs échelles globale, nationale et locale ;

  • l’échelle « géo-cognitive », qui désigne l’espace géographique dans lequel les établissements d’enseignement supérieur se positionnent. Cet outil permet de prendre en compte et d’interpréter la proximité et la portée symboliques et fonctionnelles des acteurs de cet espace.

Des liens stratégiques

Les résultats de notre étude révèlent ainsi une forte corrélation entre la réputation d’une région spécialisée dans un secteur et la performance des programmes de formation implantés dans cette région et dédiés à ce secteur. Dans le cas des régions viticoles françaises, plus un territoire est identifié et réputé pour son activité, sa culture et son histoire viticoles (Bordeaux, Champagne, Bourgogne…), plus les formations viticoles implantées sur ce territoire bénéficient d’une image de qualité.

Surtout, les liens de ces formations avec l’écosystème local (entreprises, syndicats, institutions) renforcent leurs contenus pédagogiques, favorisent l’employabilité de leurs diplômés et améliorent leur légitimité académique. C’est l’ensemble des critères de performance des programmes d’enseignement qui sont ainsi renforcés par le territoire d’accueil, en particulier l’attractivité auprès des étudiants étrangers.

Contourner la hiérarchie classique

Mais au-delà de ces résultats, qui peuvent sembler logiques, notre étude démontre surtout que les régions dotées d’une spécialisation historique, culturelle ou économique forte, telle que celle en lien avec les bassins viticoles, offrent un espace stratégique alternatif aux universités et aux écoles. Les échelles géo-cognitives liées aux programmes en lien avec le vin permettent de contourner la hiérarchie académique classique centrée sur la recherche.

Ces formations offrent notamment la possibilité de valoriser des caractéristiques distinctives dans les processus d’audit et d’accréditation des universités et des écoles. Elles créent ainsi, pour les établissements d’enseignement supérieur, un espace parallèle de légitimité stable et attractif qui leur permet de se distinguer dans un environnement universitaire dominé par les dynamiques de concurrence et de standardisation fondées sur la taille et les disciplines académiques.

Cette recherche démontre ainsi que les formations spécialisées peuvent jouer un rôle stratégique dans l’ancrage territorial des établissements d’enseignement supérieur tout en leur offrant des avantages compétitifs sur la scène mondiale.

L’enseignement supérieur globalisé ne s’oppose donc pas à la logique de spécialisation régionale : bien au contraire, celle-ci peut constituer un levier majeur de segmentation et de rayonnement stratégique. Pour les universités et les écoles, miser sur les atouts locaux de leurs régions d’implantation est aussi une manière de renforcer leur rayonnement global et de se distinguer dans un monde académique de plus en plus concurrentiel et mondialisé. Un exemple à méditer pour les établissements d’enseignement supérieur présents dans des régions réputées pour des spécialisations fortes similaires au vin.

The Conversation

Président de l'European Association of Wine Economists

Olivier Guyottot ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

03.11.2025 à 11:25

Utilisation de l’écriture inclusive par les marques : indifférence des hommes, soutien nuancé des femmes

Magali Trelohan, Enseignante-chercheuse, comportements de consommations, sociaux et environnementaux, EM Normandie

Abdul Zahid, Lecturer Marketing Management, Anglia Ruskin University

L’écriture inclusive fait régulièrement la une des journaux en France. Entre défenseurs et opposants, le débat semble sans fin. Mais que se passe-t-il lorsque des marques l’utilisent pour communiquer ?
Texte intégral (1360 mots)
Les femmes affichent une attitude plus favorable que les hommes à l’égard de la marque lorsque celle-ci utilise une écriture inclusive. Reworlding

L’écriture inclusive fait régulièrement la une des journaux en France. Entre défenseurs et opposants, le débat semble sans fin. Mais que se passe-t-il lorsque des marques utilisent cette écriture pour communiquer ? Une étude révèle que les réactions sont loin d’être homogènes.


La linguistique distingue trois types de langues à travers le monde :

  • les langues genrées, comme le français ou l’espagnol, qui attribuent un genre grammatical aux noms communs : le bateau, la mer, la plage, le sable, etc. ;

  • les langues à genre naturel, comme l’anglais, qui ne marquent pas le genre des noms communs – le déterminant est the pour tous les objets –, mais qui marquent le genre principalement dans les pronoms pour les personnes – she/her pour une fille ou une femme et he/his pour un homme ou un garçon ;

  • Les langues non genrées, comme le chinois ou le turc, qui n’intègrent pas de distinctions grammaticales de genre.

En France, langue dite genrée, le masculin est considéré comme « neutre » et, au pluriel, il « l’emporte sur » le féminin, selon la formule consacrée. Pourtant, des formes dites inclusives, comme le point médian de « salarié·es », se développent pour tenter de rendre visible la diversité des genres. Cette volonté s’appuie sur les travaux en sociolinguistiques qui montrent que la langue façonne notre perception du monde et de notre environnement. Si le sujet fait polémique, c’est parce que l’écriture inclusive interroge le pouvoir symbolique de la langue : qui est inclus ou exclu par les mots que nous choisissons ?

Notre étude, menée auprès de 800 consommatrices et consommateurs français, en analyse le phénomène.

Réaction envers la marque

Pour comprendre ces réactions, nous avons mené une expérience. Chaque participante ou participant à notre étude voyait un post d’une marque de jus de fruits, rédigé avec différentes formes d’écriture inclusive – comme « les client·es » – ou sans, et avec ou sans explication de ce choix par la marque. Nous avons ensuite mesuré leurs réactions, leur attitude envers la marque et leur intention d’achat. Il existe plusieurs formes d’écriture inclusive, nous les avons toutes testées.

  • La double flexion consiste à écrire les deux genres séparés par « et » (ex. : « toutes et tous ») ;
  • La double flexion contractée fusionne les terminaisons féminines et masculines grâce à un point médian ou un point (ex. : « étudiant·e·s ») ;
  • Les termes épicènes ou collectifs que nous appelons forme « dégenrée », ne marquent pas le genre (ex. : « le lectorat » plutôt que « les lecteurs ») ;
  • Le masculin générique, la forme usuelle en français avec le masculin qui l’emporte sur le féminin ;
  • Le féminin générique, avec l’ensemble des accords au féminin. C’est d’ailleurs cette forme qui est perçue comme la plus sexiste et la moins inclusive par l’ensemble des répondants.

Les hommes indifférents… sauf si la marque explique son choix

Les résultats indiquent que, globalement, les hommes ne réagissent pas différemment à un post utilisant l’écriture inclusive par rapport à un post classique.

Leur attitude, leur intention d’achat ou leur perception de la marque ne changent pas. Cependant, un point intéressant émerge : lorsque la marque explique son choix d’utiliser l’écriture inclusive, en rappelant qu’il s’agit d’une démarche d’égalité ou d’inclusivité, l’attitude des hommes devient plus positive.

Cette explication semble lever une forme de méfiance et permet d’intégrer le message sans rejet.

Les femmes soutiennent l’inclusif mais pas toutes ses formes

Globalement, les femmes affichent une attitude plus favorable que les hommes à l’égard de la marque lorsque celle-ci utilise une écriture inclusive. Elles perçoivent la marque comme plus proche de leurs valeurs et se disent plus enclines à acheter le produit.

Cet effet varie toutefois selon leur vision des rôles de genre.

Les femmes qui adhèrent fortement aux stéréotypes traditionnels – par exemple, l’idée que les hommes et les femmes ont des « rôles naturels » différents – se montrent plus réticentes à l’égard de l’écriture inclusive. Chez elles, l’écriture inclusive (en particulier la forme contractée, c’est-à-dire le point médian, et la forme dégenrée) tend à provoquer un rejet de la marque.

On ne retrouve pas cet effet de l’adhésion aux stéréotypes de genre chez les hommes. Ce n’est pas cela qui influence leurs perceptions et comportements liés à l’écriture inclusive.

Notre étude montre que la forme d’écriture inclusive la plus controversée, celle avec le point médian, suscite davantage de réactions négatives. Comme pour les hommes, lorsque la marque justifie son choix, cette forme controversée est toutefois mieux acceptée.

Puissance idéologique de la langue

Ces résultats mettent en lumière le poids idéologique de la langue. Le masculin reste perçu comme neutre.

Ce constat rejoint les travaux en sociolinguistique sur l’androcentrisme (une vision du monde qui voit l’homme comme l’humain neutre ou typique) et sur la domination symbolique.

Il révèle aussi une ligne de fracture : les femmes ne constituent pas un groupe homogène sur ces questions. Celles qui adhèrent aux normes traditionnelles deviennent les gardiennes d’un certain conservatisme linguistique.

Quelles implications pour les marques ?

Pour les professionnels du marketing, l’écriture inclusive n’est pas qu’une question de style : elle engage la perception de la marque.

Notre étude conseille :

  • d’expliquer son choix d’écriture inclusive, notamment pour rassurer les consommateurs qui y sont indifférents ou qui sont sceptiques. Ainsi, les marques remporteront leur adhésion ;

  • d’adapter la forme utilisée : certaines sont perçues comme plus acceptables que d’autres. Le point médian, plus controversé, peut être mis de côté au profit de termes épicènes ou de la double flexion dans le cadre d’une communication qui se veut consensuelle. En revanche, une marque militante pourra choisir la double flexion contractée (le point médian) ;

  • de connaître son audience : les femmes y sont majoritairement favorables, mais il existe des nuances idéologiques. Comme nous l’avons montré, celles qui adhèrent aux stéréotypes de genre auront tendance à rejeter les marques utilisant l’écriture inclusive.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

03.11.2025 à 11:25

Quand les imaginaires des marques nous inspirent

Valérie Zeitoun, Maitre de Conférences, IAE Paris – Sorbonne Business School

Géraldine Michel, Professeur, IAE Paris – Sorbonne Business School

Les imaginaires de marques viennent se substituer aux grands récits collectifs, y compris le roman national français, en apportant de nouvelles raisons d’espérer.
Texte intégral (3668 mots)
Les marques produisent des imaginaires collectifs et peuvent être considérées comme « des acteurs politiques ». HJBC/Shutterstock

Traversé par de multiples crises, le réel est devenu anxiogène. Il réclame de nouveaux modèles et de nouveaux rêves. Dans ce contexte, les imaginaires des marques viennent se substituer aux grands récits collectifs défaillants, en offrant aux individus de quoi se projeter, espérer, et peut-être apporter de nouvelles raisons de croire. C’est ce qu’analysent ici Valérie Zeitoun et Géraldine Michel, avec Raphaël LLorca, expert associé à la Fondation Jean-Jaurès, Arnaud Caré, directeur général délégué d’Ipsos, et Nicolas Cardon, directeur de l’expérience client d’Ipsos.


« L’esprit du voyage par Louis Vuitton », « La beauté plurielle de Dove », « Le sport inclusif » de Nike, ces imaginaires irriguent notre quotidien. Ils deviennent des forces de projection et de conviction collective, bien au-delà de leur valeur marchande. Face à l’évolution de leur rôle se pose la question de leur influence dans l’ordre social et/ou politique, au-delà de l’ordre marchand.

Comment, dans leur mission d’agent social, les marques participent-elles et poussent-elles au progrès social et environnemental, et permettent-elles ainsi de renouer avec de nouvelles utopies ?

L’imaginaire

L’imaginaire est le fruit de l’imagination d’un individu, d’un groupe ou d’une société. Il produit des représentations ou des mythes qui entretiennent un rapport plus ou moins détaché de la réalité.

Poser l’imaginaire et le réel en parallèle tend à accentuer la tension qui existe entre ces deux notions. Leur relation relève d’une dialectique qui interroge la manière dont l’imaginaire se rapporte au réel et réciproquement. Pour explorer ce rapport complexe, il est possible de distinguer trois dynamiques principales : une dynamique d’opposition, une dynamique de substitution et une dynamique d’enrichissement.

L’imaginaire comme illusion

Depuis l’allégorie de la caverne de Platon, la tradition philosophique a longtemps pensé l’imaginaire et le réel de manière adverse. Pour Platon, les individus vivent souvent dans l’ignorance, attachés aux apparences, et il faut un effort de pensée pour accéder à la vérité, c’est-à-dire au « monde des Idées ». Dans cette perspective, le réel renvoie au monde des idées invariables et immuables tandis que l’imaginaire est lui entendu comme illusoire, fictif, sans réalité.

Notre culture occidentale est profondément ancrée dans cette opposition, valorisant le réel comme domaine de la vérité et de la connaissance, reléguant l’imaginaire au rang du fantasme.

Affiche publicitaire de la marque Persil qui « lave plus blanc que blanc ». Bibliothèque spécialisée de Paris, FAL

Dans le domaine de la consommation, la célèbre réclame de Persil (« lave plus blanc ») est emblématique d’une rhétorique publicitaire fondée sur l’excès de promesse. En invoquant l’idée d’un « plus blanc que blanc », elle promet l’inatteignable et participe à une forme d’aliénation ou d’asservissement. Le récit de marque se réduit alors à l’idée d’une illusion, voire d’une tromperie.

L’imaginaire comme idéalisation

Publicité du Big Mac de McDonald’s en Thaïlande. Opasbbb/Shutterstock

Le philosophe Jean Baudrillard propose une autre perspective. Selon lui, l’imaginaire ne s’oppose plus simplement au réel, mais s’y substitue. Le simulacre n’est pas une simple copie du réel : il en efface la référence. Il produit l’illusion d’un monde réel, mais entièrement artificiel, forme d’hyperréalité, saturée d’images et de signes.

Photo d’un Big Mac dans un restaurant McDonald’s. Liveheavenly/Shutterstock

L’imaginaire, dès lors, se substitue au réel et l’idéalise. Les campagnes publicitaires de la marque McDonald’s qui reposent sur une représentation parfaite du hamburger – comparée à la réalité du hamburger servi dans les restaurants – génèrent un simulacre. Les consommateurs n’achètent pas un hamburger, mais l’image idyllique du hamburger.

L’imaginaire comme ressource du réel

Une troisième approche, initiée par le philosophe Maurice Merleau-Ponty, envisage au contraire l’imaginaire comme une composante fondamentale du réel. Dans cette perspective, l’imaginaire ne s’oppose pas au réel, il en est le prolongement, voire un producteur. L’imaginaire permettrait d’accéder au réel autrement, éventuellement de le transformer en lui imprimant de nouvelles formes.

L’imaginaire ouvre vers d’autres réels possibles. C’est dans cette dynamique que certaines marques s’inscrivent, et ce faisant réinventent les modalités de notre environnement. C’est le cas de la marque Apple. À son lancement, elle apporte une nouvelle vision de l’ordinateur personnel axée sur la convivialité et le design de l’objet pour s’inscrire dans le quotidien des individus, et se positionner contre des usages de l’époque qui considéraient l’ordinateur comme strict objet du monde du travail.

La fabrique de nouveaux réels collectifs

Dès 1957, le sémiologue Roland Barthes met en évidence la capacité des objets et des signes de consommation à produire un imaginaire socialement partagé. La marque se définit comme objet social et réservoir symbolique. Elle ne se réduit pas à un simple signe marchand, elle agit comme un médiateur symbolique, capable de relier les individus à des univers de significations collectives.

Elle produit du sens et génère de la valeur en projetant des imaginaires partagés. Dans cette direction, les marques iconiques le deviennent, justement, parce qu’elles articulent des imaginaires culturels qui viennent répondre à des enjeux sociaux forts. Nike, en soutenant publiquement le footballeur Colin Kaepernick dans sa protestation contre les violences policières faites aux Afro-Américains, incarne un imaginaire de résistance.

Publicité de la marque Nike pour fêter les 30 ans de son slogan « Just do it » avec le footballeur états-unien Colin Kaepernick. Nike

Avec sa campagne « Don’t Buy This Jacket », la marque outdoor Patagonia a supporté un imaginaire plus sobre. Elle incite les consommateurs à ne pas céder au consumérisme. Cet imaginaire s’incarne aussi dans les actes – réparabilité des produits, soutien à des actions environnementales, etc. – et, de fait, devient le réel.

D’autres marques pourraient être ici mentionnées, Dove et le nouvel imaginaire de la beauté : vision alternative qui remet en cause une beauté normative pour la rendre plurielle, femmes de toutes morphologies, âges, origines ou couleurs de peau. C’est encore Ikea ou Levi’s qui participent d’imaginaires plus inclusifs en soutenant la cause LGBTQIA+. Toutes ces marques participent d’une forme d’engagement, fondé sur de nouveaux imaginaires sociaux et/ou culturels, qui permet d’enrichir, de modifier, de transformer le réel.

La marque, un acteur politique ?

Publicité d’avril 2024 en France de la marque Burger King, « mettant l’accent » sur la région provençale. HenrySaintJohn/Shutterstock

Les marques produisent des imaginaires collectifs, en ce sens, comme le propose Raphaël LLorca, elles peuvent être considérées comme « des acteurs politiques » qui structurent et façonnent notre appréhension du réel. L’imaginaire national et la signification « d’être français » se fonde aujourd’hui, en partie, sur des projections et/ou des incarnations proposées par les acteurs marchands tous secteurs confondus, la mode, les transports ou la grande distribution.

L’ironie, souligne Raphaël LLorca, c’est que ce sont souvent des marques étrangères, et singulièrement états-uniennes, comme Burger King ou Nike, qui proposent leur version du roman national français !

Dans tous les cas, la sécrétion d’imaginaires politiques de la part d’acteurs marchands constitue une rupture profonde dans l’équilibre des forces entre les trois ordres traditionnels – ordres politique, religieux et marchand.

Imaginaires de marques et engagement

Une étude Ipsos fait le constat d’un lien entre engagement individuel et engagement des marques. Il apparaît ainsi que les fans de marques engagées, comme Disney, Deezer ou Heineken, sont eux-mêmes plus impliqués que la moyenne française dans les causes d’équité et d’égalité entre les populations.

Plus important, en termes de gestion de marque, il apparaît que cette adhésion aux marques, porteuses d’imaginaires positifs, va au-delà d’une élection de principe. 50 % des Français interrogés déclarent, dans le contexte actuel, qu’ils seraient prêts à acheter moins de produits provenant de marques éloignées de leur engagement pour l’équité, la diversité et l’inclusion. Ces résultats montrent que les marques ont le pouvoir de nourrir le réel d’imaginaires sociaux, culturels voire politiques.

Les Français et les politiques de « diversité et d’inclusion » en entreprise à l’ère de Donald Trump (sondage réalisé en avril 2025 auprès de 800 Français représentatifs de la population nationale). Ipsos, Fourni par l'auteur

Mais comment peuvent-elles le faire ? À cette question, une seconde étude Ipsos explore les conditions d’émergence de nouveaux réels aspirationnels.

Les marques doivent incarner ces imaginaires si elles souhaitent construire des liens émotionnels avec les consommateurs et citoyens. Près de 69 % des interrogés affirment être disposés à rompre avec des marques qui ne tiendraient pas leurs promesses sur des sujets sociaux ; 70 % se déclarent prêts à suivre une marque à laquelle ils sont émotionnellement liés, contre 45 % lorsque ce lien n’est que fonctionnel.

Les imaginaires des marques deviennent des forces de projection et de conviction collective, bien au-delà de leur valeur marchande. Les marques qui s’engagent dans de nouveaux imaginaires et qui leur donnent une réalité tangible favorisent l’engagement des individus, collaborateurs et clients. Ainsi, elles génèrent une adhésion et une implication pérenne, mais, surtout, elles participent d’un élan transformatif social et peut-être politique.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

03.11.2025 à 11:24

Ce que font vraiment les analystes financiers

Pierre Lescoat, Professeur Assistant, Neoma Business School

Pénélope Van den Bussche, Maîtresse de conférences en Sciences de gestion, Université Paris Dauphine – PSL

Que font réellement les analystes financiers qui commentent les marchés financiers et qui conseillent des milliers d’investisseurs dans le monde ?
Texte intégral (1730 mots)
Au-delà des transactions financières, les marchés sont animés par une communauté humaine de professionnels, avec ses règles, ses valeurs et ses récits. Vectorfusionart/Shutterstock

Que font réellement ces analystes financiers, dits analystes « sell-side », au sein des grandes banques d’affaires ? Une étude consacrée à leur travail à travers les pratiques d’évaluation de la performance montre la complexité de ce métier finalement peu connu.


Les analystes financiers dits sell-side conseillent des milliers de professionnels, en particulier les fonds d’investissement qui gèrent les retraites et l’épargne de nombreuses personnes à travers le monde. La recherche en finance s’est beaucoup concentrée sur la fiabilité de leurs recommandations et sur la façon dont elles informent des mouvements de marché, le travail des analystes étant de produire des prévisions fiables.

S’inscrivant dans les travaux en sociologie de la finance, notre étude ne se penche pas tant sur le rôle des analystes, mais sur ce que leur organisation attend d’eux. Nous appréhendons les analystes non pas comme membre des marchés financiers, mais comme membres d’une organisation marchande – la banque qui les emploie – qui les rémunère et les évalue.

Interface des entreprises et des fonds d’investissement

Les analystes sell-side vendent des services financiers à différents clients (d’où le nom sell-side). Ils émettent des conseils sur la vente ou l’achat d’actions boursières de sociétés cotées. Ces analystes sont soumis à une régulation stricte. Ils sont l’interface entre les départements de communication financière des grandes entreprises cotées et les fonds d’investissement, qui investissent en bourse l’argent de leurs clients.

La régulation porte particulièrement sur la prévention des conflits d’intérêts et du délit d’initié, réglementant les informations que les analystes ont le droit ou non de transmettre en fonction de leurs interlocuteurs, selon quels moyens – rapport écrit public, discussions informelles, etc.

Indispensables aux banques

Profession plus discrète que celle de traders, les analystes financiers sont indispensables aux banques. Ils leur fournissent une légitimité puisqu’ils sont reconnus comme des experts sur les marchés financiers. Pour autant, la multiplication des bases de données, ainsi que la concurrence d’ « activistes », les short-seller, remet en question cette expertise et notamment l’objectivité des rapports publiés par les analystes sell-side.

Notre étude se concentre sur le système d’évaluation de la performance des analystes par leur banque. Ce système est particulièrement complexe, car il fait intervenir des groupes professionnels internes et externes à la banque. En externe, les équipes d’analystes sell-side sont soumises chaque année à des classements réalisés par des sites, tels que Extel.

Classement des analystes financiers

Ces classements mettent en compétition les équipes d’analystes entre banques, mais aussi à l’intérieur des banques – entre secteurs d’activités ou zones géographiques couverts –, voire à l’intérieur de leur équipe. Les classements sont constitués suite à la collecte des votes effectués par les analystes buy-side, c’est-à-dire les analystes financiers présents chez les clients des banques (d’où le nom buy-side).


À lire aussi : Vendeurs activistes et analystes financiers, des expertises antagonistes


Ces classements sont par la suite intégrés dans l’évaluation interne de la performance des analystes dans leur banque. D’autres groupes professionnels de la banque comme les vendeurs et les traders sont également amenés à voter pour les analystes, les classant à nouveau.

Plus un analyste sell-side marque la mémoire d’un analyste buy-side ou d’un vendeur, plus ce dernier a des chances de voter pour lui. Selon certains participants à notre étude, il n’existe pas de norme pour marquer la mémoire d’un investisseurs. Un analyste peut aussi bien plaire à un client pour la qualité de ses analyses que pour sa personnalité, ou encore sa capacité à aider les analystes buy-side dans leurs propres analyses. Ce qui importe c’est que le votant se souvienne de lui.

Des analystes entrepreneurs de leur réputation

Dans le but d’obtenir une bonne évaluation de leur performance, les analystes doivent travailler leur réputation en externe, mais aussi en interne. Si on les imagine régulièrement en contact avec leurs clients investisseurs, notre étude met en lumière l’existence d’un gatekeeper : le vendeur, appelé encore sales, en charge de gérer la relation client.

Le vendeur, ou sales, constitue un intermédiaire incontournable qui transmet les arguments des analystes pour appuyer son discours commercial. Les analystes doivent à ce titre effectuer un travail de mise en valeur de leurs recherches. En effet, les vendeurs lisent rarement les rapports, surtout écrits, comme le montrent le professeur de comptabilité Crawford Spence et ses co-auteurs dans une logique de conformité à la loi.

La régulation encadre ces échanges : les espaces de travail des analystes et des vendeurs sont strictement séparés. Il existe donc une ambiguïté entre ce qu’exige la régulation – une séparation stricte des activités – et ce que reflète le système d’évaluation de la performance des analystes, devoir être apprécié et reconnu par les vendeurs.

Performativité des narratifs d’analyste

L’économiste Robert Shiller a mis en avant à quel point l’économie se constitue à partir de récits, c’est-à-dire d’histoires, ou stories, qui circulent et donnent un sens des évènements économiques. Chez les analystes financiers, ces « narratifs » correspondent aux interprétations et recommandations que font les analystes pour leurs clients. Notre étude prolonge ces travaux, ainsi que ceux de l’anthropologue Stefan Leins en mobilisant le concept d’autorité narrative. Cette autorité, et la compétition qui existe entre analystes pour l’obtenir, est au fondement de leur évaluation.

C’est en faisant circuler ces narratifs d’analystes qu’on voit leur « performativité ». Par l’intermédiaire des vendeurs, les narratifs des analystes sell-side atteignent les clients investisseurs qui peuvent eux-mêmes les réutiliser pour défendre leurs idées auprès de leurs propres clients. C’est ainsi que les narratifs circulent sur les marchés. Or, la valeur de ces narratifs dépend aussi des « modes » existantes sur les marchés, modes dont la dimension éphémère contraste avec le temps long nécessaire à un analystes pour développer une expertise. Comme dit l’une de nos sources, Michael, analyste sell-side dans une banque d’une capitale financière européenne :

« Si tu es réputé comme étant le meilleur fabricant de cabines téléphoniques aujourd’hui, tu es peut-être la star des cabines téléphoniques, mais plus personne n’en veut donc ça ne sert à rien. »

Ces modes sont cruciales pour les banques, car ces dernières se rémunèrent sur les transactions effectuées pour le compte de leurs clients. Les secteurs « à la mode » génèrent potentiellement plus de commissions, puisque le volume de transaction y est plus important. Elles ont comme contrepartie de remettre en cause régulièrement la valeur de l’expertise des analystes.

Notre étude rappelle ainsi qu’au-delà des transactions et des rapports écrits, les marchés sont bien animés par des professionnels incarnés qui parlent, échangent, analysent au quotidien. Ils font de ces termes un peu abstraits une communauté d’humains qui constituent sans toujours en avoir clairement l’idée les marchés qu’ils ne cessent de décrire tout au long de leurs carrières.

The Conversation

Cette étude a été menée dans le cadre d'une thèse de doctorat financée par l'ESCP Europe et le réseau Netw@rks.

Pénélope Van den Bussche ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

03.11.2025 à 09:48

Syrian forced migrants in Turkey have built businesses despite challenges. Here’s what has helped them succeed

Eren Akkan, Associate Professor, Kedge Business School; European Academy of Management (EURAM)

Burcin Hatipoglu, Assistant Professor, Business School, UNSW Sydney

Kerem Gurses, Professor, Department of Management and Technology, Universitat Ramon Llull

Research into these entrepreneurs may carry lessons for societies and governments around the world.
Texte intégral (1562 mots)

By the end of 2024, the number of people worldwide who had been “forcibly displaced as a result of persecution, conflict, violence, human rights violations or events seriously disturbing public order” and had fled their countries stood at approximately 42.7 million, according to the UN Refugee Agency. Whether they are asylum seekers requesting temporary sanctuary or refugees who are unwilling to return to their countries of origin, forced migrants are people who haphazardly migrate to and strive to find safety in a new country.

While much attention focuses on their immediate needs, such as shelter, food, and security, many forced migrants are doing something remarkable: they’re starting businesses. For example, in Turkey, over 14,000 formal businesses owned or co-owned by Syrian forced migrants have been registered since the war in Syria began in 2011. By opening small restaurants, grocery stores and service providers, these entrepreneurs are working to rebuild their lives and contribute to their host communities.

However, building a business is often an uphill battle. Many forced migrant entrepreneurs face language barriers, discrimination and legal uncertainty. Yet, some manage to succeed. What makes the difference? Our recent research on Syrian forced migrant entrepreneurs in Turkey offers new insights. We point to the key factors that shape whether forced migrant businesses thrived or struggled. Understanding how these factors interact may reveal not only how to most effectively support forced migrant entrepreneurship but also how to ensure more inclusive societies.

The role of a host country identity

Forced migrants often turn to entrepreneurship out of necessity. Barred from regular employment or struggling to find work due to unrecognised credentials or to prejudice, many start small businesses to survive. The key question here is what transforms that act of survival into a story of success in a host country? Our study of 170 Syrian forced migrant entrepreneurs showed that their business performance didn’t just depend on acumen or capital but was also tied to how they saw themselves with respect to the host society.

Those who had a host country identity, that is, who reported having a strong sense of belonging and an emotional and mental connection to the people and institutions in Turkey, were more likely to adapt their businesses to local customers, seek opportunities, and build lasting relationships. A host country identity was a predictor of both financial performance (ie whether the business was more profitable and had higher returns relative to its main competitors) and customer performance (ie whether the business attained superior outcomes in managing its customer base compared to its main competitors).

A host country identity doesn’t form in a vacuum. Local language proficiency plays a powerful role. In our study, forced migrants who felt confident speaking the host country’s language were more likely to feel connected to local contexts, including markets and customers. In contrast, perceived discrimination had the opposite effect. We found that when entrepreneurs reported being treated unfairly by customers, landlords, or officials, it chipped away at their sense of belonging. In fact, social exclusion can be subtle, with customers avoiding shops, commercial landlords denying lease agreements, or government officials delaying permits. We found that these experiences hindered the success of forced migrants’ businesses by curbing their sense of connectedness to the host country.

The role of legal protection – and its timing

Legal status plays a critical but often overlooked role in this story. In Turkey, Syrian forced migrants are granted “temporary protection” status, which affects their ability to access capital and open formal businesses. But not everyone receives this protection at the same time. We found that promptly granted formal protection was crucial. Forced migrants who received legal temporary protection shortly after arrival were affected by discriminatory attitudes to a lesser extent, hence feeling more secure and included in the host country. By contrast, those who waited longer for protection tended to be more adversely affected by discriminatory attitudes, which weakened their feeling of connection toward the host country. Even when they eventually got legal status, the damage to their sense of belonging had often already been done. We believe that this delay creates a kind of invisible disadvantage, one that policies aimed at helping forced migrants rarely address.

A social justice issue

This isn’t only about forced migrant business owners, but all of us. When forced migrant entrepreneurs succeed, they don’t just lift themselves out of poverty or precarity. They create jobs, pay taxes, serve customers, and bring new ideas into local economies. They become part of the social and economic fabric of their communities. In contrast, when they’re held back due to language barriers, discrimination or slow-moving legal systems, everyone loses out on their potential.

This is also a social justice issue. Forced migrants didn’t choose to leave their homes. Many lost everything. And yet, instead of giving up, they’re trying to contribute and belong. The least we can do is remove the barriers that make their integration harder than it already is.

Our research suggests a few actions that policymakers and civil society can take. First, ensure timely legal protection for forced migrants. Fast-tracking legal status can give them the foundation they need to start planning their lives and their businesses with confidence. Second, invest in language programmes. Forced migrants with strong language skills are better positioned to engage economically and socially. Third, combat discrimination through public education. Negative stereotypes about forced migrants don’t just hurt feelings, they hurt economies. Promoting positive narratives and intergroup contact can reduce prejudice and build more inclusive communities.

The Fast Track initiative in Sweden, which partially reflected these recommendations by focusing on language learning, credential recognition, and “workplace integration”, illustrated how targeted support can accelerate inclusion. According to a report prepared for the Nordic Council of Ministers, a Fast Track effort that focused on newly arrived entrepreneurs “led to… increased motivation and inspiration” and “83 new businesses [being] initiated by participants”. These findings underscore the potential effects of coordinated, early interventions.

Forced migration is one of the defining issues of our time. As wars, climate change, and instability continue to uproot people, countries around the world will need to do more than offer short-term aid. They’ll need to offer pathways to belonging, and that starts with recognising that forced migrant entrepreneurs aren’t a problem to be solved. They’re part of how countries can integrate newcomers while boosting economic growth and community development.


A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!


The European Academy of Management (EURAM) is a learned society founded in 2001. With over 2,000 members from 60 countries in Europe and beyond, EURAM aims at advancing the academic discipline of management in Europe.

The Conversation

This work was supported by the Department of Research and Universities of the Generalitat de Catalunya and the Ramon Llull University (2023-URLProj-079).

Burcin Hatipoglu et Eren Akkan ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.

PDF

02.11.2025 à 17:02

Dix ans après, quel bilan pour l’accord de Paris ?

Christian de Perthuis, Professeur d’économie, fondateur de la chaire « Économie du climat », Université Paris Dauphine – PSL

Dix ans après l’accord de Paris, la COP30 va s’ouvrir sur un bilan contrasté. Mais la possibilité d’une transition énergétique plus rapide qu’attendu maintient l’espoir d’un basculement décisif.
Texte intégral (2406 mots)

Que reste-t-il de l’accord de Paris, dix ans après sa signature, au moment de l’ouverture de la COP30 au Brésil, dans un contexte de tensions géopolitiques et de « backlash » climatique mené par les États-Unis ? Des signaux encourageants subsistent malgré tout, notamment l’accélération des transitions énergétiques dans les pays émergents. De quoi garder entrouverte une fenêtre, certes bien étroite, sur la voie de la stabilisation de la température mondiale.


Lors de son adoption en 2015, l’accord de Paris a généré beaucoup d’espoirs, car il embarquait l’ensemble des signataires. De par son caractère universel, il allait donner une tout autre dimension à la lutte contre le réchauffement planétaire.

Changement d’ambiance, dix ans après, à l’ouverture de la COP30 sur le climat à Belém au Brésil, qui doit se tenir du 10 au 21 novembre 2025. En 2024, le thermomètre a affiché un réchauffement de 1,5 °C, les émissions mondiales de CO2 ont continué d’augmenter et sa concentration dans l’atmosphère a battu tous ses records. Avec la défection des États-Unis après la réélection de Donald Trump, l’universalisme de l’accord en a pris un sérieux coup.

Ni tout rose ni tout noir, notre bilan de dix années d’application de l’accord de Paris s’écarte d’une telle vision simpliste suggérant que rien n’a bougé durant les dix dernières années. Depuis 2015, des progrès substantiels ont été réalisés.

« Les émissions mondiales ne cessent d’augmenter ». Oui, mais…

Le premier bilan global des émissions de gaz à effet de serre discuté à la COP de Dubaï en 2023 a certes rappelé que les émissions mondiales de gaz à effet de serre n’étaient pas encore stabilisées. Diagnostic confirmé en 2024, mais qui reste insuffisant à ce stade pour analyser l’impact de l’accord de Paris sur le régime des émissions.

On peut également relever que :

  • Au cours de la dernière décennie, le rythme de croissance des émissions mondiales de CO2, le principal gaz à effet de serre d’origine anthropique, a été divisé par trois relativement à la décennie précédente.

  • Cette inflexion majeure s’explique par le déploiement, bien plus rapide qu’escompté, des capacités de production d’énergie solaire et éolienne.

La transition d’un système économique reposant sur les énergies de stock (fossile et biomasse) vers des énergies de flux (soleil, vent, hydraulique…) a donc été bel et bien amorcée durant les dix premières années de l’accord. Elle semble désormais irréversible, car ces énergies sont devenues bien moins coûteuses pour les sociétés que l’énergie fossile.

De plus, on ne saurait jauger de l’efficacité de l’accord à partir du seul rétroviseur. Il faut également se projeter dans le futur.

Les principaux émetteurs de CO₂ dans le monde. Fourni par l'auteur

Du fait de ses investissements massifs dans la production et l’utilisation d’énergie renouvelable, la Chine est en train de franchir son pic d’émissions, pour des rejets de CO2 de l’ordre de 9 tonnes par habitant, quand les États-Unis ont passé leur pic à 20 tonnes, et l’Europe à 11 tonnes. L’Inde pourrait d’ici une dizaine d’années franchir le sien à environ 4 tonnes.

Le fait que ces pics d’émissions soient substantiellement plus bas que ceux des vieux pays industrialisés est une information importante. Les pays moins avancés peuvent désormais construire des stratégies de développement sautant la case fossile. Ceci laisse une fenêtre entrouverte pour limiter le réchauffement planétaire en dessous de 2 °C.

Des objectifs de température désormais inatteignables ?

L’Organisation météorologique mondiale (OMM) a indiqué que le thermomètre avait franchi 1,5 °C en 2025, soit la cible de réchauffement la plus ambitieuse de l’accord. Cette poussée du thermomètre reflète en partie la variabilité à court terme du climat (épisode El Niño, par exemple). Elle résulte également de dangereuses rétroactions : le réchauffement altère la capacité des puits de carbone naturels (forêts et océan) à séquestrer le CO2 de l’atmosphère.

Faut-il pour autant en conclure que les objectifs sont désormais inatteignables, au risque d’ouvrir un peu plus les vannes du backlash climatique ?

L’alerte de 2024 confirme ce qui était déjà apparu dans les scénarios prospectifs du 6ᵉ rapport d’évaluation du Groupe d’experts intergouvernemental sur l’évolution du climat (Giec). Du fait de l’inertie du stock de CO2 déjà présent dans l’atmosphère, la cible de 1,5 °C est en réalité dépassée avant 2035 dans la majorité des scénarios.

Cela n’exclut pas qu’on puisse limiter le réchauffement en dessous de 2 °C, l’autre cible de l’accord de Paris, à condition de réduire massivement les émissions de CO2 une fois le pic d’émission atteint. D’après le Global Carbon Budget, le budget carbone résiduel pour limiter le réchauffement à 2 °C s’établit à environ vingt-cinq années au rythme actuel d’émissions.

Et pour viser 1,5 °C ? Il faut alors passer en régime d’émissions nettes négatives durant la seconde partie du siècle. Dans ces scénarios dits du « dépassement » (overshooting), les puits de carbone séquestrent plus de CO2 qu’il n’en est émis, ce qui permet de faire redescendre le thermomètre après le franchissement du seuil. Ce serait toutefois aller au-delà de l’accord de Paris, qui se contente de fixer un objectif de zéro émission nette.

Comment financer une transition juste ?

L’accord de Paris stipule que les financements climatiques internationaux à la charge des pays développés doivent atteindre au minimum 100 milliards de dollars (86,4 milliards d’euros) par an à partir de 2020, puis être fortement réévalués.

Le bilan est ici en demi-teinte :

  • La barre des 100 milliards de dollars (86,4 milliards d’euros) n’a été franchie qu’en 2022, avec trois ans de retard.

  • À la COP29 de Bakou, un nouvel objectif de 300 milliards de dollars (259,2 milliards d’euros) par an à atteindre d’ici 2030 a été acté. Un tel triplement, s’il est effectif, ne permettra de couvrir qu’une partie des besoins de financement, au titre de l’adaptation au changement climatique, et des pertes et dommages.

Durant les dix premières années de mise en œuvre de l’accord, il n’y a toutefois guère eu d’avancée sur les instruments financiers à utiliser. En particulier, les dispositions de l’article 6 ouvrant la possibilité d’appliquer la tarification carbone n’ont pas été traduites dans un cadre opérationnel permettant leur montée en puissance.

Manque également à l’appel un accord plus précis sur qui paye quoi en matière de financement climatique. Ce flou artistique quant à qui sont les bailleurs de fonds et à hauteur de combien chacun doit contribuer fragilise la portée réelle de l’engagement financier.

Il reste donc beaucoup de chemin à parcourir pour traduire la promesse de 300 milliards de dollars (259,2 milliards d’euros) par an en engagements crédibles.

Les COP sur le climat, l’énergie fossile et le jeu des lobbies

Pas plus que la Convention climat datant de 1992, l’accord de Paris ne mentionne la question de la sortie des énergies fossiles, le terme lui-même n’étant nulle part utilisé.

En 2021, la décision finale de la COP26 mentionnait pour la première fois le nécessaire abandon du charbon ; celle de la COP28 à Dubaï élargissait la focale à l’ensemble des énergies fossiles. C’est un progrès, tant la marche vers le net zéro est indissociable de la sortie accélérée des énergies fossiles.

Paradoxalement, depuis que les COP ont inscrit la question de l’énergie fossile à leur ordre du jour, la présence des lobbies pétrogaziers s’y fait de plus en plus pesante.

Elle est visible dans les multiples évènements qui se tiennent parallèlement aux sessions de négociation, et plus discrète au sein des délégations officielles conduisant les négociations. Une situation régulièrement dénoncée par les ONG qui réclament plus de transparence et une gouvernance prévenant les conflits d’intérêts lorsque le pays hôte de la COP est un pays pétrolier, comme cela a été le cas à Dubaï (2023) et à Bakou (2024).

En réalité, l’accord de Paris n’a pas accru l’influence des lobbies proénergie fossile : ces derniers s’appliquent à freiner les avancées de la négociation climatique depuis ses débuts. Il n’a pas non plus réduit leur pouvoir de nuisance, qui résulte de la prise de décision au consensus, qui donne un poids disproportionné aux minorités de blocage. Pas plus qu’il ne prévoit de mécanisme retenant ou pénalisant ceux qui font défection.

Un « backlash » climatique impulsé par l’Amérique trumpienne

Parmi les décrets signés par Donald Trump le premier jour de sa présidence figurait celui annonçant le retrait des États-Unis de l’accord de Paris sur le climat. Une façon particulière de souffler la dixième bougie d’anniversaire.

Si la sortie lors du premier mandat avait été un non-événement, il en fut autrement cette fois-ci. En quittant l’accord, l’Amérique trumpienne ne s’est nullement mise en retrait. L’offensive engagée au plan interne par l’administration républicaine contre toute forme de politique climatique s’est doublée d’une diplomatie anti-climat agressive, comme l’a illustré le torpillage en règle de l’accord sur la décarbonation du transport maritime de l’Organisation maritime internationale.

Cette diplomatie repose sur les mêmes fondements que la nouvelle politique étrangère du pays : la défense de ses intérêts commerciaux, à commencer par ceux des énergies fossiles, à l’exclusion de toute autre considération portant sur les normes internationales en matière de droits humains, de défense de l’environnement ou de lutte contre le réchauffement planétaire.

Cette offensive anti-climat peut-elle sonner le glas de l’accord de Paris ? Les États-Unis disposent d’alliés parmi les grands exportateurs d’énergie fossile et leur idéologie anti-climat se diffuse insidieusement au-delà de leurs frontières. S’ils faisaient trop d’émules, l’accord de Paris perdrait rapidement de sa consistance.

Un autre scénario peut encore s’écrire : celui d’un front commun entre la Chine, l’Union européenne et l’ensemble des pays réaffirmant leurs engagements climatiques. Un tel jeu d’alliance serait inédit et pas facile à construire. Il sera peut-être rendu possible par la démesure de l’offensive anti-climat de l’Amérique trumpienne. Le premier acte se jouera à la COP de Belém, dès novembre prochain.

The Conversation

Christian de Perthuis ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

02.11.2025 à 17:01

Aliments sans gluten : qui les achète et pourquoi ? quels ingrédients inattendus contiennent-ils ?

Marie-Françoise Samson, Chercheuse en biochimie alimentaire, Inrae

Dominique Desclaux, Chercheure en Agronomie et Génétique, Inrae

Bon nombre de produits alimentaires sans gluten incorporent une longue liste d’ingrédients (agents de texture, protéines, matières grasses, sucre, additifs, etc.) et… beaucoup d’eau.
Texte intégral (2056 mots)

Celles et ceux qui privilégient les aliments sans gluten font souvent ce choix car ces produits sont perçus comme plus sains. Mais certaines recettes incorporent une longue liste d’ingrédients (agents de texture, protéines, matières grasses, sucres et autres additifs) et… beaucoup d’eau. C’est ce que révèlent Dominique Desclaux et Marie-Françoise Samson, de l’Inrae, dans « Gluten, alimentation et santé » (éditions Quae).


La proportion de gens qui évitent/bannissent le gluten de leur alimentation est variable. En 2013 par exemple, 30 % des Américains se déclaraient intéressés par un régime sans gluten. Soixante-cinq pour cent pensent aussi que ce régime est plus sain et 27 % le choisissent pour perdre du poids (Jones, 2017).

En France, selon des données de l’enquête Nutrinet collectées en 2016, sur un peu plus de 20 000 personnes, 10,31 % d’entre elles éviteraient le gluten et 1,65 % de façon stricte. Selon une autre enquête réalisée en Angleterre en 2019, parmi les personnes qui évitent le gluten, 76 % le font parce qu’elles ont la maladie cœliaque, 8 % parce qu’elles sont intolérantes au gluten, 10 % parce qu’elles vivent avec une personne cœliaque et seulement 6 % pour d’autres raisons (Vriesekoop et al., 2020).

Parmi ces autres raisons vient en tête la perception que le régime sans gluten est plus sain, qu’il peut procurer un bien-être et un confort physique immédiats et sur le long terme. Vient ensuite la volonté de perdre du poids. Parmi ces consommateurs, on retrouve beaucoup de femmes, plutôt jeunes.

En France et dans différents pays, les consommateurs qui font le choix d’une alimentation sans gluten pour des raisons liées au bien-être ont recours à d’autres pratiques qui, pour eux, vont dans le même sens : plus de fruits et légumes, moins d’alcool et de produits gras et sucrés, mais aussi moins de produits laitiers. Ces mêmes personnes privilégient les produits issus de l’agriculture biologique, les circuits courts et évitent les aliments ultratransformés.

Une liste d’ingrédients longue comme un jour sans pain

Soixante-dix pour cent des aliments consommés par les Français contiendraient du gluten. On rappelle que, dans les produits à base de blé, comme le pain ou les gâteaux, le réseau de gluten se développe lors du pétrissage et de la formation de la pâte. Une structure protéique tridimensionnelle est créée, qui apporte de l’élasticité au mélange. Ce réseau piège aussi le gaz carbonique (CO2) produit lors de la fermentation, dans le cas du pain, ou généré par la levure chimique dans le cas des gâteaux. Les bulles de gaz formées vont alors s’expanser tout en étant contenues par le réseau et provoquer la levée de la pâte. Lors de la cuisson, le réseau se fige, contribuant ainsi à la stabilité du produit.

Ces propriétés uniques rendent le gluten presque indispensable à la formulation de produits tels que le pain ou les gâteaux. Dans le cas des produits type « pain sans gluten », la fabrication est un défi, car rien ne peut rivaliser avec les protéines du blé, mais des formulations complexes vont permettre de s’en approcher.

Si la liste des ingrédients est restreinte dans un pain de tradition française – une farine de blé panifiable, de l’eau, du sel, un levain ou une levure, et éventuellement d’autres farines (farines de fève 2 % max., farine de soja 0,5 % max., farine de blé malté 0,3 % max.) –, il n’en va pas de même pour leurs analogues sans gluten vendus dans le commerce. Parfois, une vingtaine d’ingrédients sont nécessaires pour obtenir un pain.

Quelles farines pour du sans-gluten ?

Se passer de gluten nécessite d’avoir recours à d’autres céréales et d’autres ingrédients ou additifs. L’élément principal est le plus souvent un amidon, comme dans les pains à base de blé (l’amidon est le constituant majeur de la farine de blé). Celui du maïs est l’ingrédient principal dans environ 60 % des recettes (Roman et al., 2019). Il est très souvent associé à une farine de riz blanc (dans 30 % des formulations). L’amidon de maïs donne des pains avec un volume important, mais avec une texture plutôt sèche et friable.

D’autres types d’amidon sont parfois incorporés dans des proportions plus faibles, comme le tapioca, la fécule de pommes de terre ou des amidons modifiés. D’autres farines peuvent venir compléter la liste des ingrédients de base, comme des farines de riz complet ou de sarrasin.

Ces ingrédients de base sont une réalité commerciale, mais la littérature scientifique fait état d’essais avec des farines de céréales autres que le riz ou le maïs : sorgho, millet, teff ; de pseudo-céréales : amarante, quinoa, chia ; de légumineuses (pois chiches, pois, soja) ; ou encore de châtaignes. Les légumineuses sont intéressantes sur le plan nutritionnel (teneur en protéines plus élevée et composition en acides aminés différente et complémentaire de celle des céréales), mais, si elles sont utilisées en proportions trop importantes, les études sensorielles révèlent qu’elles apportent de l’amertume ou des goûts inhabituels mal perçus par les jurys et les consommateurs.

Comment épaissir et retenir l’eau ?

Des agents de texture (hydrocolloïdes) sont incorporés dans plus de 80 % des recettes pour leurs propriétés épaississantes et leur forte capacité à retenir l’eau. Ils permettent aussi d’augmenter la viscosité du mélange, afin de mieux retenir les gaz de fermentation et la levée de la pâte. Le plus fréquemment utilisé est l’hydroxypropyl méthylcellulose (HPMC). Les gommes de xanthane, de guar ou de caroube sont aussi utilisées, car elles présentent une meilleure capacité de rétention d’eau. Des pectines sont parfois ajoutées, mais moins fréquemment que le psyllium (plantain des Indes), reconnu aussi pour ses effets bénéfiques sur la santé (traitement des diarrhées et de la constipation, régulation de la glycémie et de la lipidémie).

Quelles protéines rajouter ?

À côté de l’amidon et des ingrédients structurants, les protéines les plus fréquemment incorporées proviennent de l’œuf, entier ou blanc, ou du soja. On peut citer aussi les protéines de pois, de lupin ou de lait. L’ajout de protéines permet en outre de développer des arômes lors de la cuisson, par le biais de la réaction de Maillard.

Pourquoi rajouter du sucre ?

La plupart des pains sans gluten contiennent des sucres ajoutés : saccharose le plus souvent, glucose, fructose, sirops d’origines diverses (betterave, canne à sucre, sirop de maïs, de riz ou d’agave). Les sucres sont ajoutés pour servir de « carburant » aux levures et amener le développement d’arômes et de la coloration lors de la cuisson, toujours par le biais de la réaction de Maillard.


À lire aussi : Les aliments sans gluten contiennent souvent moins de fibres et plus de sucre que leurs contreparties avec gluten


Certains rajoutent aussi du gras…

Des huiles et des matières grasses sont également incorporées afin de renforcer la sensation d’humidité en bouche, d’améliorer la texture (pains moins durs, mie plus souple) ainsi que la durée de conservation, très souvent jugée décevante. Les huiles de colza/canola, tournesol et soja sont les plus utilisées devant l’huile d’olive, la margarine ou l’huile de palme.

… et encore de nombreux additifs

Parmi les ingrédients mineurs, on retrouve :

  • des émulsifiants utilisés pour stabiliser les bulles et les uniformiser dans la pâte, ou encore pour limiter les pertes en eau au cours du temps. Parmi les plus employés, on trouve les mon – -o- et diglycérides d’acides gras et les lécithines ;

  • les conservateurs comme l’acide propionique, le glycérol, les sorbates ;

  • des agents levants, naturels comme les levures et les levains, ou chimiques comme le bicarbonate de sodium ;

  • des acides pour améliorer la conservation en diminuant le pH et pour produire du CO2 avec le bicarbonate ;

  • des arômes ;

  • des graines entières ou broyées de lin, tournesol, sésame, pavot, chia ou courge qui vont apporter des oméga-3 et des oméga-6 et masquer certains goûts désagréables ;

  • des fibres en plus des hydrocolloïdes, pour enrichir les pains sur le plan nutritionnel et pour augmenter la capacité de rétention d’eau (inuline, fibres de pomme ou de betterave) ;

  • des enzymes pour former des liaisons entre les polymères entrant dans la composition du pain ou pour produire des sucres pour les levures ;

  • du sel…

Et de l’eau, dont la proportion varie, selon les ingrédients ajoutés, de 50 à 220 %.

Les pâtes et biscuits sans gluten : moins d’additifs ?

Contrairement au pain, les pâtes alimentaires et les biscuits ont des listes d’ingrédients beaucoup plus courtes. Dans le cas des pâtes alimentaires, la substitution du blé dur par 100 % de légumineuses (pois chiches, lentilles) est maintenant fréquente. Cependant, la grande majorité des pâtes sont élaborées à partir de farine de riz ou de maïs ou encore de mélanges des deux. Dans quelques cas, on retrouve des émulsifiants (mono – et diglycérides d’acides gras). La composition des biscuits est également plus « légère », dans la mesure où la pâte n’est pas levée. Là encore, les ingrédients de base sont l’amidon de maïs et la farine de riz, additionnés de sucre, de matières grasses, de levure chimique et de sel.

Les produits sans gluten sont-ils ultratransformés ?

Sur le plan organoleptique, des efforts ont été réalisés par les industriels pour améliorer les propriétés des produits sans gluten. À propos du pain, les critiques les plus fréquentes portent sur la texture qualifiée de dure et de friable, sur l’aspect des alvéoles parfois très grosses, sur le goût qualifié de fade ou de « carton ». Les reproches concernent aussi sa conservation. Les pâtes alimentaires sont, pour leur part, jugées plus proches, voire équivalentes aux analogues contenant du gluten.

Sur le plan nutritionnel, les produits sans gluten apparaissent de qualité inférieure à celle des équivalents qui en contiennent (pains, pâtes, biscuits, gâteaux, snacks, pizza).

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

02.11.2025 à 08:56

Les frappes des États-Unis contre des bateaux en mer des Caraïbes répondent-elles à une stratégie cohérente ?

Jeffrey Fields, Professor of the Practice of International Relations, USC Dornsife College of Letters, Arts and Sciences

L’administration Trump affirme que le gouvernement Maduro serait derrière le trafic de drogue à destination des États-Unis. Une opération de « regime change » se profile-t-elle ?
Texte intégral (2307 mots)

Une quinzaine de bateaux supposément remplis de drogue et de trafiquants ont été détruits par des frappes conduites par les forces armées des États-Unis au cours de ces dernières semaines. Des opérations illégales au regard du droit international, que l’administration Trump justifie en affirmant que le trafic de drogue relève du terrorisme. Alors que le Venezuela de Nicolas Maduro n’est qu’un acteur secondaire dans l’afflux de drogue vers les États-Unis, Washington affirme que le régime de Caracas organise sciemment ce trafic et laisse entendre qu’une opération de changement de régime pourrait être prochainement menée à son encontre.


« Je pense que nous allons simplement tuer les personnes qui font entrer de la drogue dans notre pays. D’accord ? Nous allons les tuer. Vous savez, ils vont être, genre, morts », a déclaré Donald Trump fin octobre 2025 à propos des frappes militaires américaines contre des bateaux dans la mer des Caraïbes, au nord du Venezuela.

À ce jour, quatorze bateaux ont été frappés, ce qui a causé la mort de 43 personnes. L’administration a affirmé, sans en fournir la moindre preuve, que ces embarcations étaient exploitées par des trafiquants de drogue.

Le 24 octobre, Washington a lancé un renforcement militaire de grande envergure dans la région. Le Pentagone a déployé dans les Caraïbes le porte-avions USS Gerald-R.-Ford et une partie de son groupe aéronaval, ainsi que plusieurs autres navires de guerre, et a transféré à Porto Rico des avions de combat F-35. Il s’agit du plus important déploiement naval américain dans la mer des Caraïbes depuis la crise de Cuba en 1962.

Selon la Maison Blanche, ce renforcement naval et les frappes contre des bateaux dans les eaux internationales s’inscrivent dans les opérations de lutte contre le trafic de drogue. Les navires visés appartiendraient à des trafiquants de drogue vénézuéliens, bien que l’administration n’ait fourni aucune preuve de la présence de drogue à bord ni précisé de quelles drogues il s’agirait, Trump ayant seulement affirmé que du fentanyl pourrait être transporté par ce biais.

À plusieurs reprises, le président et certains de ses conseillers ont qualifié les exploitants et les occupants des bateaux de « narco-terroristes ». Mais ils n’ont jamais expliqué pourquoi ces personnes devraient être considérées comme des terroristes. Au-delà de la question de la lutte contre le trafic de drogue, Trump et son entourage ont également laissé entendre qu’ils cherchent à renverser le gouvernement de Nicolás Maduro au Venezuela.

Ancien analyste politico-militaire et ancien conseiller principal au département de la défense, je peine à discerner dans l’action de l’administration Trump une stratégie ou un objectif cohérent.

La lutte contre le trafic de drogue, une justification discutable

Les bateaux qui ont été interceptés provenaient tous du Venezuela ou avaient des liens avec ce pays, et tous ont été interceptés dans la mer des Caraïbes et dans le Pacifique au nord de la Colombie, ce qui rend cette opération particulièrement déroutante.

Le Venezuela n’est pas un grand producteur de fentanyl ou de cocaïne. Les principales routes du trafic de cocaïne se trouvent dans l’océan Pacifique, et non dans les Caraïbes.

En règle générale, c’est dans les eaux internationales que les garde-côtes états-uniens interceptent les navires soupçonnés de transporter de la drogue. En 2025, la garde côtière a intercepté une quantité record de drogues et de précurseurs chimiques dans les Caraïbes. Il est à noter que la quantité de précurseurs chimiques de la méthamphétamine interceptée dépasse de loin celle du fentanyl.

Après l’interception, les garde-côtes sont censés engager une procédure conforme aux contraintes légales, en interpellant l’équipage avant de le remettre à une agence états-unienne chargée de l’application de la loi.

Mais les frappes de Trump ont tué sans sommation la plupart des personnes se trouvant à bord des bateaux et ont vraisemblablement détruit toutes les drogues illicites présumées. De nombreux observateurs et experts juridiques estiment que ces meurtres équivalaient à des assassinats extrajudiciaires.

Le Venezuela dans le viseur de Donald Trump

Trump est obsédé depuis un certain temps par le gang vénézuélien Tren de Aragua, ce qui renforce l’intérêt que son administration porte au Venezuela.

En janvier, Washington a désigné Tren de Aragua comme organisation terroriste, au même titre que plusieurs autres cartels de la drogue. Mais le communiqué de la Maison Blanche annonçant cette désignation ne mentionnait aucun comportement ou activité constitutifs de terrorisme. En effet, la législation des États-Unis définit le terrorisme comme un acte de violence à motivation politique, visant généralement la population civile, dans le but de provoquer un changement politique.

La désignation d’un groupe, quel qu’il soit, comme « organisation terroriste étrangère » présente l’avantage de permettre au gouvernement de prendre des mesures telles que la saisie des avoirs et l’imposition de restrictions de voyage à l’encontre des personnes qui y sont associées.

Il reste qu’accoler cette qualification à un gang criminel dénué d’idéologie et d’objectifs politiques clairs donne une image erronée de Tren de Aragua, et invite à s’interroger sur les motivations de la Maison Blanche.

Et puis, il y a eu l’étrange incident de l’opération secrète qui ne fut pas si secrète que ça.

Début octobre, le New York Times a rapporté que Trump avait donné son aval à des opérations secrètes au Venezuela et autorisé la CIA à mener des « frappes meurtrières » à l’intérieur du pays.

Étonnamment, Trump a confirmé qu’il avait effectivement donné son feu vert à des opérations secrètes. Or, la caractéristique principale d’une opération secrète est normalement que le rôle du gouvernement qui l’ordonne demeure caché.

L’obsession de Trump pour le Venezuela remonte à son premier mandat, lorsqu’il avait déjà le régime de Maduro dans le collimateur. En mars 2020, son administration a accusé Maduro d’être à la tête du Cartel de los Soles – le cartel des soleils – un réseau criminel informel lié à de hauts responsables militaires vénézuéliens soupçonnés d’avoir organisé un trafic de drogue vers les États-Unis. Et en 2025, la Maison Blanche a affirmé que Maduro contrôlait Tren de Aragua.

Des observateurs indépendants affirment que le leader de l’opposition Edmundo González Urrutia a facilement remporté l’élection présidentielle de 2024. La commission électorale, contrôlée par le gouvernement, a toutefois déclaré Maduro vainqueur. Si la Maison Blanche entend favoriser un changement de régime au Venezuela, comme l’ont suggéré certains responsables anonymes, les récents propos de Trump ont sans doute incité Maduro à se préparer à une telle éventualité.

Aspects juridiques

Si l’objectif de l’administration est d’interdire les drogues dangereuses comme la cocaïne, la Colombie est une source beaucoup plus importante. Le Venezuela joue principalement un rôle de canal de transit mineur plutôt que celui de producteur.

En ce qui concerne l’atténuation des effets des drogues et des stupéfiants aux États-Unis, de nombreuses études menées au cours des dernières décennies ont montré que les mesures prises pour réduire la demande à l’intérieur du pays plutôt qu’à s’en prendre à l’offre sont plus efficaces en la matière.

En l’absence d’informations publiques suggérant l’existence d’une stratégie ou d’un objectif global, les problèmes juridiques liés aux frappes maritimes deviennent évidents.

Le secrétaire d’État Marco Rubio a déclaré que tout cela relevait d’« opérations de lutte contre le trafic de drogue ». Mais il est allé plus loin en affirmant qu’au lieu d’intercepter les bateaux, ceux-ci seraient détruits.

La méthode consistant à intercepter et détruire les bateaux et à tuer les personnes à bord pose de nombreux problèmes juridiques, notamment en ce qui concerne l’exécution de missions de maintien de l’ordre par les forces armées des États-Unis. Cela est interdit par la loi Posse Comitatus Act, qui interdit clairement aux forces armées fédérales d’exercer des activités de maintien de l’ordre.

En ce qui concerne les mesures visant le Venezuela, Trump a affirmé qu’il ne demanderait pas au Congrès de déclarer la guerre, mais qu’il l’informerait de toute opération terrestre.

Le War Powers Act (loi sur les pouvoirs de guerre, adoptée en 1973) qui oblige le président à informer le Congrès avant toute opération militaire et à lui rendre compte après coup, devrait s’appliquer à cette situation. Mais depuis son adoption, presque tous les présidents l’ont ignorée à un moment ou à un autre.

Bien que certains républicains au Congrès se soient opposés aux actions militaires menées jusqu’à présent, le Sénat a rejeté début octobre une résolution qui aurait empêché de nouvelles frappes dans les Caraïbes.

L’administration Trump continue de présenter ses activités dans les eaux internationales comme une opération militaire et les passeurs comme des combattants ennemis. La plupart des spécialistes du droit rejettent cette position et qualifient ces frappes d’exécutions extrajudiciaires.

En réponse à une réaction désinvolte du vice-président J. D. Vance au sujet de ces opérations, le sénateur républicain Rand Paul a écrit sur X : « S’est-il déjà demandé ce qui se passerait si les accusés étaient immédiatement exécutés sans procès ni représentation ? Quelle pensée méprisable et irréfléchie que de glorifier le fait de tuer quelqu’un sans procès. »

Sur les opérations liées au Venezuela, les déclarations éparses de Trump et de ses conseillers, tels que Marco Rubio et le secrétaire à la défense Pete Hegseth, laissent en suspens de nombreuses questions : à ce stade, rien ne justifie que les bateaux soient détruits et leurs occupants tués plutôt qu’interceptés et arrêtés.

The Conversation

Jeffrey Fields a reçu des financements de la Carnegie Corporation de New York.

PDF

02.11.2025 à 08:56

Du car scolaire aux rues piétonnes, repenser le chemin de l’école

Sylvain Wagnon, Professeur des universités en sciences de l'éducation, Faculté d'éducation, Université de Montpellier

Penser les transports scolaires n’est pas seulement une question de logistique et d’écologie, mais aussi d’égalité entre élèves.
Texte intégral (1893 mots)

Selon leur lieu d’habitation, les enfants et les adolescents peuvent rejoindre en quelques minutes à pied leur établissement scolaire ou passer une dizaine d’heures par semaine dans les transports. Penser ces trajets n’est pas seulement une question de logistique et d’écologie, mais aussi d’égalité.


Chaque jour, près de 13 millions d’élèves en France effectuent un trajet plus ou moins long entre leur domicile et leur établissement scolaire. Qu’il dure quelques minutes à pied ou plus d’une heure en car, ce temps invisible structure les journées, pèse sur le sommeil et influence la réussite éducative.

Longtemps négligée, cette mobilité quotidienne fait aujourd’hui l’objet d’une attention nouvelle. En septembre 2025, l’Agence de la transition écologique (Ademe) a publié la première étude nationale à grande échelle sur la mobilité des enfants et adolescents intégrant les chemins de l’école : le transport scolaire est désormais un enjeu de santé publique, d’égalité et d’écologie.

Cars scolaires et inégalités territoriales

Le transport scolaire a une histoire. C’est une réalité depuis les années 1960, quand les premiers services départementaux se sont organisés pour desservir les collèges et lycées éloignés. En 1963, on comptait environ 4 000 circuits de car scolaire ; dix ans plus tard, ils étaient déjà plus de 23 000, bien au-delà de la simple croissance démographique. Ce développement répondait à une exigence d’égalité d’accès à l’enseignement dans les territoires ruraux.

« 1968 : le ramassage scolaire en campagne » (archive INA).

Aujourd’hui, la compétence relève des Régions depuis la réforme de 2017. Elles organisent le transport de plus de 2 millions d’élèves en zones non urbaines, auxquels s’ajoutent environ 2 millions d’élèves transportés par les réseaux urbains (bus, tram, métro).

Au total, près d’un tiers des jeunes scolarisés utilisent chaque jour un mode de transport collectif pour rejoindre leur établissement. La pénurie actuelle de conducteurs de bus scolaires fragilise l’égalité d’accès à l’école, surtout dans les zones rurales dépendantes de ce mode de transport. Elle révèle une fracture territoriale croissante : quand certains élèves bénéficient de transports réguliers, d’autres voient leurs trajets rallongés ou compromis.

Quels moyens de transport pour aller à l’école ?

L’étude de 2025 de l’Ademe confirme la place centrale de la voiture dans les trajets domicile-école : un tiers des enfants l’utilisent chaque jour, et cette proportion grimpe à 54 % dans les DROM.

Les chiffres sont proches de ceux déjà relevés dans une étude de 2020 : la marche représente de son côté 25 % des déplacements, devant les transports collectifs urbains (19 %), le car scolaire (18 %) et le vélo (2 %). Si la marche reste dominante sur les trajets courts, son usage recule avec l’âge des élèves.

Toutefois, ces moyennes nationales masquent de fortes dynamiques locales : dans certaines villes, l’usage du vélo progresse de manière significative, porté par la création de pistes cyclables sécurisées. Ensuite, de multiples initiatives émergent pour favoriser les mobilités actives entre le domicile et l’école. Objet de plusieurs études, le pédibus, trajets encadrés à pied, organisés par des parents d’élèves et des bénévoles ou par les collectivités locales, demande une organisation et une réglementation, mais donnerait de réels résultats dans le domaine de la santé des élèves.


À lire aussi : Lutter contre la sédentarité des enfants : quel bilan pour les bus pédestres ?


De son côté, le vélobus, groupes d’enfants à vélo accompagnés par des adultes, connaît un réel succès, tout comme encore l’hippobus, calèche tirée par des chevaux expérimentée dans certaines communes. Ces dispositifs traduisent une volonté croissante des collectivités locales mais aussi des parents de repenser le trajet scolaire.

« Vendargues (Hérault) : les élèves vont à l’école en calèche » (France 3 Occitanie, 2018).

La géographie des trajets scolaires révèle de fortes disparités. Dans certains départements ruraux, un collégien peut passer jusqu’à deux heures par jour dans les transports, contre quelques minutes pour un élève de centre-ville.

À ces inégalités territoriales s’ajoutent des inégalités sociales : le coût des abonnements de transport peut peser lourdement sur les familles modestes, malgré les aides régionales ou départementales. Certaines collectivités pratiquent la gratuité, d’autres imposent des tarifs variables selon les revenus, ce qui nourrit un sentiment d’injustice.

L’étude de l’Ademe met également en lumière un recul de l’autonomie : l’âge du premier déplacement seul est aujourd’hui de 11,6 ans, contre 10,6 ans pour leurs parents. Les craintes parentales liées à la sécurité expliquent en partie ce recul, avec une différence marquée selon le genre. Les filles sont jugées plus vulnérables : 40 % des parents estiment qu’elles sont davantage exposées aux agressions, ce qui retarde leur autonomie.

Le poids du temps de trajet

Si le transport scolaire garantit l’accès à l’éducation, il pèse aussi sur le quotidien. Dans certains territoires, ce temps peut représenter jusqu’à dix heures hebdomadaires passées dans un car, réduisant le temps disponible pour les devoirs, pour les loisirs ou pour le repos.

Un élève qui passe plus d’une heure par jour dans les transports dort en moyenne une demi-heure de moins que ses camarades proches de l’école. Une enquête menée sur des lycéens a montré cette corrélation. Le transport scolaire n’est donc pas neutre : il conditionne directement la réussite éducative et le bien-être.

Une étude sur des adolescents montre que les longs trajets compromettent non seulement le sommeil, mais aussi les capacités cognitives, l’équilibre mental et les notes scolaires.

En Suisse, plusieurs travaux scientifiques ont déjà exploré la question du chemin de l'école comme espace d'apprentissage et d'accès à l'autonomie. Ces recherches ont montré que ce trajet quotidien constitue un tiers-lieu éducatif, au sein duquel les enfants développent des compétences sociales, cognitives et spatiales à travers l'expérience directe de leur environnement.

Les « rues scolaires » : des laboratoires d’innovation

Inspirées de la Grande-Bretagne et de la Belgique, les « rues scolaires » se développent en France depuis 2019. Le principe est simple : fermer temporairement à la circulation automobile la rue située devant une école aux heures d’entrée et de sortie scolaires. Les bénéfices observés sont nombreux : baisse mesurable de la pollution de l’air, réduction du bruit, amélioration du sentiment de sécurité et essor des mobilités actives.

À Paris, plus de 300 rues apaisées existent à cette rentrée 2025, couvrant près de la moitié des écoles primaires. Le mouvement s’étend désormais aux métropoles, mais aussi aux villes moyennes et aux villages, qui y voient un outil concret pour sécuriser et transformer les trajets domicile-école, mais aussi réduire leur pollution atmosphérique. Ces dispositifs contribuent également à renforcer l’autonomie des enfants, en leur permettant de se déplacer seuls ou entre pairs dans un environnement plus serein et moins anxiogène.

Les rues scolaires permettent de tester de nouvelles façons d’organiser l’espace public, tout en favorisant une appropriation collective de la rue par les enfants et les familles. Elles ne constituent pas seulement un aménagement technique, mais aussi une réflexion sociale et politique sur la place que l’on souhaite donner aux enfants dans la ville.

Transformer le trajet scolaire en moment éducatif

Ces expérimentations invitent à changer de regard sur le transport scolaire qui n’est pas un temps perdu, mais un espace d’apprentissage. Marcher ou pédaler vers l’école contribue à la santé physique et à l’autonomie. L’aménagement d’environnements sécurisés transforme le chemin de l’école en moment de socialisation entre parents, adultes et enfants. Dans certaines écoles, on l’intègre à des projets pédagogiques autour de la mobilité durable ou à des apprentissages sur l’espace local.

Le transport scolaire est donc bien plus qu’un dispositif technique : il structure le quotidien de millions d’élèves, il révèle les fractures territoriales et il influence directement la réussite éducative. Longtemps invisible, ce temps mérite d’être reconnu et repensé. Car l’expérience éducative ne se limite pas aux murs de la classe, elle commence dès le trajet et se prolonge dans la vie quotidienne des enfants.

The Conversation

Sylvain Wagnon n'a pas participé à l'étude de l'Ademe citée dans cet article.

PDF

02.11.2025 à 08:55

Pourquoi la France, malgré la dégradation de sa note par les agences financières, reste emprunteuse « sans risque » pour les régulateurs ?

Rémy Estran, CEO – Scientific Climate Ratings, EDHEC Business School

Les agences de notation Fitch et Standard & Poor’s ont dégradé la note de la France de AA- à A+. Contre-intuitivement, les banques et assurances considèrent toujours l’Hexagone comme un débiteur « sûr ».
Texte intégral (1807 mots)
Si la France est notée par trois agences (Standard & Poor’s, Moody’s, et Fitch), les notations la plus élevée et la plus basse sont écartées ; c’est celle du milieu qui est retenue. WilliamBarton/Shutterstock

Malgré la dégradation de la note de la France de AA- à A+ en septembre 2025 par l’agence Fitch, puis en octobre 2025 par Standard & Poor’s, l’Hexagone est toujours considéré comme un emprunteur « sans risque » dans les bilans des banques et des assureurs. Pourquoi ce décalage ?


Vendredi 12 septembre 2025, Fitch a dégradé la note de la France de AA- à A+, après la clôture des marchés. Symboliquement, c’est un coup dur. Pour la première fois depuis plus de dix ans, la France a perdu son badge « double A ». Et pourtant, le lundi suivant, rien n’avait changé : le CAC 40 était en hausse et les spreads de crédit de la France étaient stables.

Rebelote un mois plus tard : le 18 octobre, Standard & Poor’s (S&P) abaisse à son tour la note de la France à A+. Là encore, aucune réaction notable des marchés – ni sur les spreads obligataires ni sur l’indice CAC 40. Le 24 octobre, Moody’s a pour sa part placé la note AA- de la France sous perspective négative.

L’explication courante ? Les marchés avaient déjà anticipé ces décisions. Mais est-ce vraiment toute l’histoire ?

Dans cet article, nous expliquons pourquoi, tant dans le cadre de la réglementation bancaire (Capital Requirements Regulation, CRR) relative aux exigences de fonds propres, que de la réglementation des assurances (Solvency II), la France est toujours considérée comme un emprunteur entrant dans la définition d’un pays « sans risque ».

Cela peut aider à comprendre l’impact limité jusqu’à présent des dégradations successives de Fitch et de Standard & Poor’s, tout en soulignant que les mécanismes bancaires et assurantiels à l’œuvre peuvent soudainement se transformer en couperet.

Notations vs échelons

Dans le cadre des approches standardisées, les réglementations prudentielles européennes (2024/1820 et 2024/1872 essentiellement) ne fonctionnent pas directement avec des notations alphabétiques, mais s’appuient sur des credit quality step (CQS), soit des échelons de qualité de crédit. Ces échelons sont des catégories générales qui regroupent plusieurs notations :

– CQS 0 : AAA (Solvency II uniquement ; le CRR ne comporte pas de niveau 0), comme l’Allemagne, la Suisse, le Danemark, les Pays-Bas ou la Suède.

– CQS 1 : AAA à AA- (CRR)/CQS 1 et AA+ à AA- (Solvency II), comme l’Autriche, la Finlande, l’Estonie, la Belgique ou la République tchèque.

– CQS 2 : A+ à A-, comme la Slovénie, la Slovaquie, la Pologne, la Lituanie ou la Lettonie.

– CQS 3 : BBB+ à BBB-, comme l’Italie, la Roumanie, la Bulgarie, la Croatie, ou la Hongrie.

– CQS 4-6 : notations spéculatives (BB+ et inférieures), comme la Serbie, le Monténégro, la Macédoine du Nord ou le Kosovo.

Techniquement, selon les réglementations bancaires et assurantielles, la dégradation de la note de la France par Fitch en septembre 2025 aurait pu la faire passer de CQS 1 à CQS 2. Mais ce n’est pas le cas.

Jusqu’en octobre 2025, date de la dégradation de la note française par Standard & Poor’s, ces deux cadres réglementaires continuaient de traiter la France comme un émetteur de très haute qualité, c’est-à-dire « AA » et non « A ». Cela tient à la manière dont les réglementations traitent les notes multiples : ni les banques ni les assureurs ne retiennent mécaniquement la note la plus basse.

Règle de la deuxième meilleure notation

En vertu de la réglementation bancaire et assurantielle européenne, la règle de la deuxième meilleure notation s’applique.

Par exemple, si un débiteur est noté par trois agences (S&P, Moody’s, Fitch), les notations la plus élevée et la plus basse sont écartées, et celle du milieu est retenue. Tant que deux des trois agences maintenaient la France dans la catégorie AA, la notation de référence aux fins du capital réglementaire restait CQS 1.


À lire aussi : Moody’s, Standard & Poor’s, Fitch… plongée au cœur du pouvoir des agences de notation


En d’autres termes, même après la dégradation par Fitch à A+, les régulateurs continuaient de classer la France comme « AA ». Ce n’est qu’après la dégradation par S&P, le 17 octobre 2025, que la France est effectivement passée en CQS 2. Moody’s, de son côté, a maintenu sa note AA-, mais l’a placée sous perspective négative le 24 octobre – un signal d’alerte, certes, mais sans conséquence réglementaire à ce stade.

Toutes les dégradations ne se valent pas. Certaines modifient immédiatement la manière dont les institutions financières européennes doivent traiter le risque. D’autres, en revanche, restent sans effet opérationnel. Et pourtant, aucune n’a véritablement fait réagir les marchés.

Illusion réglementaire de la sécurité

Pour la plupart des débiteurs, tels que les entreprises ou les institutions financières, le passage d’un échelon de qualité de crédit, ou credit quality step (CQS), à un autre a une incidence directe sur les exigences de fonds propres. Dans le cas particulier des États souverains européens, même un passage officiel au CQS 2 n’a guère d’importance.

En vertu des règles actuelles, les obligations souveraines de l’Union européenne libellées dans leur propre devise ont en effet une pondération de risque de 0 %. Pourquoi ?

Dans la pratique, les banques ne sont pas tenues de mettre de côté des fonds propres pour couvrir le risque de défaut des emprunts de la France libellés en euros, et ce, quelle que soit la note attribuée à cette dette par les agences de notation.

De même, les assureurs qui détiennent des obligations émises par les États de l’Union européenne (libellées dans leur propre monnaie) ne sont soumis à aucune exigence de capital pour se prémunir contre un éventuel défaut de paiement sur ces titres.

Les seules exigences de fonds propres pour ces obligations proviennent des risques dits « de marché » : le risque de taux d’intérêt, c’est-à-dire la perte potentielle liée à une hausse des taux, et le risque de change, en cas de variation défavorable des devises étrangères. Aucun capital n’est exigé au titre du spread de crédit, c’est-à-dire du risque que le marché exige une prime plus élevée pour prêter à l’État.

Les prêts à la France – ou à tout autre État souverain européen dans sa monnaie nationale – sont considérés comme sans risque de crédit. Ce cadre a été conçu pour éviter la fragmentation et traiter la dette publique de tout État membre européen comme la base du système financier, quelle que soit la situation individuelle de chaque pays.

Paradoxe systémique

Les marchés font bien sûr déjà la distinction entre les États souverains. Les écarts se creusent, les prix des credit defaut swaps (CDS) – qui permettent aux investisseurs de s’assurer contre le défaut d’un émetteur de dette – augmentent et les investisseurs exigent une prime pour les crédits les plus faibles, bien avant que la dégradation ne soit officielle.

Du point de vue des fonds propres réglementaires, le cadre existant ne laisse aucune place à une distinction progressive au sein de l’Union européenne. La conséquence est claire : les États souverains européens sont considérés comme « sûrs » par définition, jusqu’à ce qu’ils ne le soient plus…

Cela crée une sorte d’« effet de falaise » organique. Tant que la confiance institutionnelle reste suffisante, la réglementation atténue partiellement la reconnaissance du risque. Dès qu’un seuil est franchi – souvent un seuil de confiance, plutôt que purement comptable –, la correction devient brutale. Ce qui devrait être une réévaluation progressive se transforme en rupture systémique.

Il y a quinze ans, la crise de la dette publique en Grèce avait suffi à déclencher une crise à l’échelle européenne. Aujourd’hui, la France nous rappelle que l’architecture même de la réglementation européenne rend sa stabilité financière moins graduelle que binaire. Tant que les marchés y croient, tout tient. Mais si la confiance venait à se dérober, ce n’est pas seulement la France qui vacillerait – ce serait toute l’Europe.

The Conversation

Rémy Estran est président de l'EACRA (European Association of Credit Rating Agencies).

PDF

01.11.2025 à 19:48

Délibération budgétaire : le lent apprentissage de la démocratie parlementaire

Damien Lecomte, Chercheur associé en sciences politiques, Université Paris 1 Panthéon-Sorbonne

Sans 49.3, le parlement redevient un lieu de débats décisifs à l’occasion de l’examen du budget. Une nouvelle étape vers un parlementarisme proche des standards européens ?
Texte intégral (1686 mots)

Avec le renoncement au 49.3, des discussions budgétaires inédites ont lieu entre groupes politiques à l’Assemblée nationale : le Parlement redevient un lieu de débats décisifs. Est-ce là une nouvelle étape dans le « réapprentissage » de la délibération parlementaire selon des standards européens ?


Après l’éclatement rapide de son gouvernement initial, le premier ministre Sébastien Lecornu est parvenu à survivre aux premières motions de censure déposées contre lui le 16 octobre en échange de deux engagements principaux envers la gauche – le Parti socialiste en particulier : la suspension de la réforme des retraites et le renoncement à l’article 49.3 de la Constitution.

Cette situation ouvre la voie à une vraie expérience de délibération parlementaire. De fait, les débats budgétaires à l’Assemblée nationale depuis le début de la session offrent un spectacle inhabituel : des députés mobilisés et nombreux, des chefs de partis très présents, des négociations pratiquées en pleine séance ou pendant les suspensions entre des blocs opposés… Le Parlement redevient un lieu de débats décisifs. Néanmoins, les chances de succès des discussions budgétaires sont minces et l’apprentissage du parlementarisme « à l’européenne » prend du temps.

Un budget dépendant des aléas de la délibération parlementaire

La décision de Sébastien Lecornu de renoncer à l’article 49.3 semblait s’imposer au premier ministre : en l’absence de majorité, cet article n’est plus une arme à toute épreuve pour le gouvernement, comme l’a démontré la censure de Michel Barnier en décembre 2024. Reste que la construction d’un compromis budgétaire par l’Assemblée nationale est très incertaine.

Le 49.3 offre en principe deux avantages principaux au premier ministre. D’une part, il dispense d’un vote sur le texte de loi lui-même – remplacé par un éventuel vote de censure. D’autre part, il lui permet de conserver le texte dans la version de son choix, avec les amendements déposés ou acceptés par lui. Il peut alors présenter à l’Assemblée nationale un choix de « tout ou rien », c’est-à-dire un budget à laisser passer tel quel ou à rejeter en bloc par la censure.

En l’absence de cette arme et pour la première fois depuis 2021, le projet de loi de finances (PLF) et le projet de loi de financement de la Sécurité sociale (PLFSS) dépendent donc des débats à l’Assemblée nationale. À partir du texte initial déposé par le gouvernement (rectifié pour inclure la suspension de la réforme des retraites), le texte final résultera des votes des députés sur chaque article et chaque amendement déposé. Cela implique de trouver une majorité de suffrages exprimés favorables à chaque disposition pour que celle-ci figure dans le texte de l’Assemblée nationale.

Le droit d’amendement des députés et les discussions parlementaires restent certes enserrés de contraintes, entre la recevabilité financière des amendements déposés par les élus (exigée par l’article 40 de la Constitution), la possibilité pour le gouvernement d’imposer un vote unique sur un ensemble de dispositions (procédure du « vote bloqué » de l’article 44.3) et la poursuite de la navette parlementaire à laquelle participera le Sénat. Il n’en reste pas moins que les députés auront le dernier mot et qu’une majorité de votes « pour » à l’Assemblée nationale sera nécessaire à l’adoption du texte. Autrement dit, l’adoption du PLF et du PLFSS par le Parlement nécessitera le vote « pour » d’au moins une partie des groupes d’opposition, et non pas seulement leur abstention.

Toute la difficulté est donc de trouver le point d’équilibre – s’il existe – qui fasse le moins mal possible à des groupes d’opposition pour leur permettre d’assumer de voter le texte – de revendiquer des victoires malgré les concessions.

Le risque est donc grand que les débats dans l’hémicycle aboutissent plutôt, que ce soit sur chaque article ou sur le texte final, à des majorités « négatives » qui coalisent les votes « contre » de plusieurs groupes, parfois pour des raisons opposées. Les différents blocs parlementaires pourraient donc rejeter mutuellement leurs propositions sans parvenir à un accord majoritaire – une issue fort vraisemblable.

L’absence persistante d’un vrai accord préalable

Devant la crise politique qui s’éternise depuis l’été 2024, les pratiques évoluent doucement. L’importance prise par les négociations entre Sébastien Lecornu et le Parti socialiste et les vraies concessions annoncées par le premier ministre vont bien plus loin que ce que François Bayrou avait pu tenter. Mais les pratiques françaises ne rejoignent pas encore les standards des pratiques européennes.

L’adoption des lois budgétaires nécessiterait un compromis global préalable, même a minima, entre le gouvernement, les groupes minoritaires – principalement LR – et une partie des groupes d’opposition – le PS étant a priori le plus ouvert à cet égard. Un tel compromis global devrait fixer les grands équilibres et les principales concessions que les parties prenantes s’engagent à se faire mutuellement, quitte à se faire violence.

Dans les régimes parlementaires européens plus habitués à la négociation parlementaire et à la construction de coalitions post-électorales – dont l’Allemagne est l’exemple le plus évident – la pratique la plus courante consiste à mettre au clair, avant les débats au Parlement proprement dits, un accord entre forces politiques. Les gouvernements de coalition les plus durables sont, sans surprise, ceux qui s’appuient sur un « contrat de coalition » le plus complet et détaillé possible. Dans ce cas, les parlementaires peuvent devoir voter des textes qui leur déplaisent, mais le font pour remplir leur part du « contrat de coalition », en échange de la même discipline de la part de leurs partenaires pour les dispositions qui leur tiennent à cœur.

Lorsque les partis partenaires ne parviennent pas à se mettre d’accord au préalable sur certains sujets plus clivants, ils se mettent d’accord sur un renvoi ultérieur du débat et sur des procédures pour trancher les désaccords – par exemple en prévoyant un « comité de coalition » réunissant les membres des directions partisanes et chargé d’arbitrer le moment venu lorsqu’une décision doit être prise. Des procédures visant à éviter les mauvaises surprises et ne pas s’en remettre à l’incertitude des rapports de force en assemblée ou à la cacophonie gouvernementale.

La France est encore loin d’avoir institutionnalisé un mode de fonctionnement parlementaire fondé sur la négociation et le compromis. Aucun accord formel et encore moins de contrat de législature n’existe entre le gouvernement et les groupes minoritaires et d’opposition – pas plus qu’il n’en a existé entre les partenaires de la défunte coalition du « socle commun ».

Une adoption du budget très improbable

À cet égard, il est très révélateur que l’annonce de la suspension de la réforme des retraites par le premier ministre, la plus importante concession faite au PS en échange de sa non-censure, n’engage pas automatiquement sa propre base parlementaire, puisque les députés Renaissance sont divisés sur le vote de ce compromis, mollement défendu par le président Macron, et que la position collective du groupe s’est orientée vers un refus de la voter, quitte à mettre en péril l’adoption du PLFSS.

Elle engage encore moins les parlementaires LR : le président du Sénat Gérard Larcher a déjà annoncé que la droite sénatoriale supprimerait la suspension de la réforme des retraites. À tout cela s’ajoute les désaccords apparemment irréductibles entre PS et LR sur la fiscalité et notamment la taxation des plus riches, alors qu’une version même « allégée » de la taxe Zucman est exigée par les socialistes.

L’absence d’accord de compromis préalable sur au moins quelques grandes mesures, acceptées par une majorité de groupes parlementaires, donne certes tout son intérêt à la délibération dans l’hémicycle, mais laisse très incertaine, pour ne pas dire très improbable, l’adoption d’un budget pour l’État et la Sécurité sociale. Le processus d’adaptation de la politique française à l’absence de majorité à l’Assemblée nationale est donc loin d’être terminé.

The Conversation

Damien Lecomte ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

01.11.2025 à 15:21

La course à la bombe : encore ?

Cyrille Bret, Géopoliticien, Sciences Po

La course aux armements nucléaires entre la Russie et les États-Unis paraît relancée, comme aux heures les plus inquiétantes de la guerre froide, mais selon des modalités nouvelles.
Texte intégral (2338 mots)

L’arme nucléaire revient sur le devant de la scène internationale, avec les annonces successives, par Vladimir Poutine, du développement de nouveaux armements, et par Donald Trump de la reprise d’essais. Les traités de limitation des armements sont de plus en plus ignorés et cette nouvelle course entre les deux (anciens) Grands de la guerre froide pourrait, cette fois, inciter plusieurs nouveaux participants à entrer dans la compétition…


Depuis une semaine, l’actualité stratégique est devenue retro. Elle a repris une chorégraphie très « années 1950 » car elle a été bousculée par le retour du nucléaire au-devant de la scène internationale.

Le 26 octobre dernier, en treillis et en vidéo, Vladimir Poutine présente (à nouveau) le missile expérimental russe Bourevstnik (« annonceur de tempête »), doté d’une tête et d’un système de propulsion nucléaires. Quelques jours plus tard, c’est au tour d’un drone sous-marin à propulsion nucléaire, le Poséidon, déjà présenté il y a quelques années, d’avoir les honneurs des autorités russes qui proclament qu’il est indétectable et pourrait venir percuter les côtes ennemies et y faire exploser une charge nucléaire. Enfin, le 29 octobre, Donald Trump annonce sur le réseau Truth Social la reprise des essais pour « les armes nucléaires », une première depuis l’adoption du Traité sur l’interdiction des essais nucléaires en 1996.

Cette guerre des communiqués a déclenché l’onde de choc d’une bombe – médiatique, fort heureusement – dans les milieux stratégiques. En effet, depuis l’invasion de l’Ukraine par la Russie en 2022, la guerre d’Israël contre le Hamas dans la bande de Gaza, le bombardement de l’Iran par les États-Unis et la guerre Inde-Pakistan du début de l’année, l’attention des analystes militaires s’était portée sur les armements traditionnels (blindés, missiles, munitions, chasseurs) et sur les systèmes innovants (drones, artillerie mobile, munitions guidées, bombes perforatrices).

Dans cette séquence en Technicolor et en Mondovision, tout se passe comme si le célèbre Dr. Folamour du film de Stanley Kubrick (1964) faisait son grand retour : ce personnage de fiction, scientifique nazi employé par l’armée américaine, paraît comme rappelé à la vie par la nouvelle guerre froide que se livrent les grandes puissances militaires dotées de l’arme atomique, à savoir les États-Unis, la Fédération de Russie et la République populaire de Chine, respectivement pourvues d’environ 3700, 4200 et 600 ogives nucléaires. Ce parfum de course à la bombe fleure bon les années 1950, les Cadillac roses et les défilés sur la place Rouge.

Pourquoi la course aux armements nucléaires est-elle aujourd’hui relancée, du moins au niveau médiatique ? Et quels sont les risques dont elle est porteuse ?

Essais nucléaires américains et surenchères médiatiques

En annonçant la reprise des essais nucléaires sur le sol des États-Unis, Donald Trump s’est montré aussi tonitruant que flou. Dans ce domaine-là comme dans tous les autres, il a voulu claironner le Make America Great Again qui constitue son slogan d’action universelle pour rendre à l’Amérique la première place dans tous les domaines.

En bon dirigeant narcissique, il a voulu occuper seul le devant de la scène médiatique en répliquant immédiatement aux annonces du Kremlin. En bon animateur de reality show, il a volé la vedette atomique à son homologue russe. Invoquant les initiatives étrangères en la matière, il a endossé son rôle favori, celui de briseur de tabous, en l’occurrence le traité d’interdiction complète des essais nucléaires (TICEN) adopté en 1996 par l’Assemblée générale des Nations unies, avec le soutien des États-Unis de Bill Clinton, érigés en gendarme du monde.

Le message trumpien procède d’une surenchère évidente sur les annonces du Kremlin : comment Donald Trump aurait-il pu laisser toute la lumière à Vladimir Poutine en matière d’innovations nucléaires de défense ? Il lui fallait réagir par une annonce plus forte, plus choquante et plus massive. C’est tout le sens de la reprise des essais sur « les armements nucléaires ». Personne ne sait s’il s’agit de tester de nouvelles ogives, de nouveaux vecteurs, de nouveaux modes de propulsion ou de nouvelles technologies de guidage. Mais tout le monde retient que c’est le président américain qui a officiellement relancé et pris la tête de la course mondiale à la bombe. C’était le but visé. Examinons maintenant ses conséquences.

À moyen terme, cette déclaration n’a rien de rassurant : les États-Unis, première puissance dotée historiquement et deuxième puissance nucléaire par le nombre d’ogives, envoient par cette annonce un « signalement stratégique » clair au monde. Ils revendiquent le leadership en matière d’armes nucléaires (dans tous les domaines) en dépit du rôle essentiel qu’ils ont joué depuis les années 1980 pour le contrôle, la limitation et la réduction des armes nucléaires.

En effet, les différents traités signés et renouvelés par Washington – Traité sur les forces nucléaires à portée intermédiaire (1987), START I (1991), II (1993) et New START (2010), TICEN, etc. – avaient tous pour vocation de dire au monde que les États-Unis se donnaient comme horizon la dénucléarisation des relations internationales ainsi que de l’espace et même la suppression de l’arme comme le souhaitait le président Obama.

Avec cette annonce – qu’on espère réfléchie même si elle paraît compulsive –, les États-Unis changent de rôle mondial : ils cessent officiellement d’être un modérateur nucléaire pour devenir un moteur de la nucléarisation des relations internationales.

L’avenir du nucléaire : dissuasion ou suprématie ?

La tonalité qui se dégage de cette guerre des communiqués atomiques ressemble à s’y méprendre à la première guerre froide et à la course-poursuite à laquelle elle avait donné lieu. Après avoir conçu, produit et même utilisé l’arme atomique en 1945 contre Hiroshima et Nagasaki, les États-Unis avaient continué leur effort pour obtenir la suprématie nucléaire dans le domaine des vecteurs, des milieux (air, terre, mer) et des technologies de guidage. L’URSS de Staline avait, elle, d’abord cherché à briser le monopole américain sur l’arme nucléaire puis gravi tous les échelons technologiques pour devenir une puissance nucléaire à parité avec ce qu’on appelait alors le leader du monde libre.

Le pivot historique doit être noté, surtout s’il se confirme par une course aux armements. Jusqu’à la guerre d’Ukraine, les armes nucléaires faisaient l’objet de perfectionnements technologiques réguliers. Mais le cadre de leur possession restait inchangé : elles devaient constituer un outil de dissuasion. Autrement dit, elles devaient rester des armements à ne jamais utiliser. Les signalements stratégiques sont aujourd’hui sensiblement en rupture avec cette logique établie depuis les années 1980.

Depuis le début de la guerre d’Ukraine, le Kremlin laisse régulièrement entendre qu’un usage sur le champ de bataille (le fameux « nucléaire tactique ») n’est pas à exclure en cas de risque pour les intérêts vitaux russes. De même, les États-Unis viennent de faire comprendre que leur priorité n’est plus la lutte contre la prolifération nucléaire, qu’elle soit nord-coréenne ou iranienne. Si le message de Donald Trump sur Truth Social est suivi d’effets, la priorité nucléaire américaine sera la reconquête de la suprématie nucléaire en termes de quantité et de qualité.

Autrement dit, les anciens rivaux de la guerre froide relancent une course aux armements nucléaires au moment où les instruments internationaux de limitation et de contrôle sont démantelés ou obsolètes. Ils ne luttent plus pour se dissuader les uns les autres d’agir. Ils participent à la course pour l’emporter sur leurs rivaux. Le but n’est plus la MAD (Mutual Assured Destruction) mais la suprématie et l’hégémonie atomique.

L’effet d’imitation risque d’être puissant, donnant un nouvel élan aux proliférations.

De la compétition internationale à la prolifération mondiale ?

Si les annonces russo-américaines se confirment, se réalisent et s’amplifient sous la forme d’une nouvelle course aux armements nucléaires, trois ondes de choc peuvent frapper les relations stratégiques à court et moyen terme.

Premier effet de souffle, au sein du club des puissances officiellement dotées de l’arme nucléaire au sens du Traité de Non-Prolifération (TNP), la République populaire de Chine ne pourra pas se laisser distancer (quantitativement et qualitativement) par son rival principal, les États-Unis et par son « brillant second », la Russie. En conséquence, la RPC s’engagera progressivement dans un programme visant à combler son retard en nombre de têtes et dans la propulsion des vecteurs. Cela militarisera encore un peu plus la rivalité avec les États-Unis et « l’amitié infinie » avec la Russie. Il est à prévoir que de nouveaux armements nucléaires seront développés, adaptés à l’aire Pacifique et dans les espaces que la Chine conteste aux États-Unis : Arctique, espace, fonds marins… Il est également à prévoir que la Chine s’attachera à développer des systèmes de lutte contre ces nouveaux vecteurs à propulsion nucléaire.

Le deuxième effet sera, pour les Européens, une interrogation sur les ressources à consacrer à leurs propres programmes nucléaires, de taille réduite car ils sont essentiellement axés sur la dissuasion stratégique. S’ils refusent de s’y engager pour concentrer leurs ressources sur les armes conventionnelles, ils risquent un nouveau déclassement. Mais s’ils se lancent dans la compétition, ils risquent de s’y épuiser, tant leur retard est grand. Nucléarisés mais appauvris. Ou bien vulnérables mais capables de financer le réarmement conventionnel.


À lire aussi : Les défis du réarmement de l’Europe : réveil stratégique ou chaos organisé ?


Enfin, le troisième effet indirect des déclarations russo-américaines sur la reprise de la course aux armements sera la tentation, pour de nombreux États, de se rapprocher du seuil afin de garantir leur sécurité. Si l’Arabie saoudite, la Corée du Sud, la Pologne et même le Japon et l’Allemagne considèrent que leur sécurité nécessite des armes nucléaires et que le cadre du TNP est obsolète, alors la prolifération risque de reprendre de plus belle, à l’ombre des menaces nord-coréennes et iraniennes.


À lire aussi : Nouveau partenariat Arabie saoudite-Pakistan : quelles conséquences internationales ?


De Dr. Folamour à Dr. Frankenstein

Les annonces russes, américaines et, n’en doutons pas, bientôt chinoises sur les armements nucléaires présagent d’une nouvelle phase dans les affaires stratégiques, celle d’une compétition majeure sur toutes les technologies liées à ces armes complexes. Si la tendance se confirme, les armes nucléaires, leurs vecteurs, leurs usages et leurs doctrines seront de nouveau propulsés au premier plan du dialogue compétitif entre puissances. Et l’espace sera lui-même susceptible de devenir le nouvel espace de la compétition nucléaire.

Vivons-nous pour autant une régression historique vers la guerre froide ?

La donne est bien différente de celle des années 1950, quand le but des puissances communistes était de rattraper leur retard sur les armes américaines (acquisition de la bombe, passage au thermonucléaire). Et le débat stratégique est bien distinct de celui des années 1970, quand la compétition était quantitative (combien de têtes ? Combien de vecteurs ?).

Aujourd’hui, les risques liés aux armes nucléaires sont différents : démantèlement progressif des traités de limitation et de contrôle de ces armes, tentation retrouvée de se porter au seuil pour les puissances non dotées et surtout réflexion sur un usage (et non plus sur la dissuasion).

Ce n’est pas Dr. Folamour qui a connu une résurrection, c’est un nouveau Dr. Frankenstein qui s’est lancé dans des expérimentations.

The Conversation

Cyrille Bret ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

01.11.2025 à 15:19

Au Royaume-Uni, l'influence cachée des militaires derrière le nouvel engouement pour les petits réacteurs nucléaires

Phil Johnstone, Visiting Fellow, School of Global Studies, University of Sussex; University of Tartu; Utrecht University

Andy Stirling, Professor of Science & Technology Policy, SPRU, University of Sussex Business School, University of Sussex

Derrière le renouveau du nucléaire civil se cachent des enjeux militaires : sous-marins, armement et projection de puissance.
Texte intégral (2170 mots)

Outre-Manche, les petits réacteurs modulaires sont présentés comme une solution énergétique, mais servent d'abord les besoins stratégiques des armées. En subventionnant le nucléaire civil, citoyens et consommateurs financent indirectement la puissance militaire.


La récente visite de Donald Trump au Royaume-Uni a donné lieu à un «partenariat historique» sur l'énergie nucléaire. Londres et Washington ont annoncé leur intention de construire 20 petits réacteurs modulaires et de développer également la technologie des microréacteurs – et ce alors qu'aucune de ces installations n'a encore été construite commercialement nulle part dans le monde.

Le premier ministre britannique, Keir Starmer, a promis que ces projets inaugureraient un «âge d'or» du nucléaire qui permettrait aussi de «faire baisser les factures». Pourtant, l'histoire de l'énergie nucléaire est faite de décennies de surenchère, de coûts faramineux et de retards à répétition. Partout dans le monde, les tendances vont dans la mauvaise direction.

Alors pourquoi un tel regain d'enthousiasme pour le nucléaire ? Les véritables raisons tiennent moins à la sécurité énergétique ou au changement climatique – et bien davantage à la puissance militaire.

À première vue, l'argument semble évident. Les partisans du nucléaire présentent les petits réacteurs modulaires, ou SMR, comme indispensables pour réduire les émissions et répondre à une demande croissante d'électricité, alimentée par les voitures et les centres de données. Les grandes centrales nucléaires étant désormais devenues trop coûteuses, les réacteurs de taille réduite sont promus comme une alternative enthousiasmante.

Mais aujourd'hui, même les analyses les plus optimistes de l'industrie reconnaissent que le nucléaire – y compris les SMR – a peu de chances de rivaliser avec les énergies renouvelables. Une étude publiée plus tôt cette année dans le New Civil Engineer concluait que les SMR sont «la source d'électricité la plus coûteuse par kilowatt produit, comparée au gaz naturel, au nucléaire traditionnel et aux renouvelables».

Des évaluations indépendantes – notamment celle de l'ex-pro-nucléaire Royal Society – montrent que des systèmes 100 % renouvelables surpassent tout système incluant du nucléaire en termes de coût, de flexibilité et de sécurité. Cela contribue à expliquer pourquoi des analyses statistiques mondiales révèlent que l'énergie nucléaire n'est généralement pas associée à une réduction des émissions de carbone, contrairement aux renouvelables.

En partie, l'enthousiasme pour les SMR s'explique par le fait que les voix institutionnelles les plus audibles ont souvent un mandat ou des intérêts pronucléaires : il s'agit de l'industrie elle-même et de ses fournisseurs, des agences nucléaires et des gouvernements dotés de programmes militaires nucléaires bien ancrés. Pour ces acteurs, la seule question est de savoir quels types de réacteurs développer, et à quelle vitesse. Ils ne se demandent pas s'il faut construire des réacteurs en premier lieu : la nécessité est considérée comme une évidence.

Au moins, les grandes centrales nucléaires ont bénéficié d'économies d'échelle et de décennies d'optimisation technologique. Beaucoup de conceptions de SMR ne sont encore que des «réacteurs PowerPoint», existant uniquement sous forme de diapositives et d'études de faisabilité. Les affirmations selon lesquelles ces projets non réalisés «coûteront moins cher» relèvent au mieux de la spéculation.

Les marchés financiers le savent. Si les investisseurs considèrent la frénésie autour des SMR comme une occasion de profiter de milliards de subventions publiques, leurs propres analyses se montrent nettement moins enthousiastes quant à la technologie elle-même.

Alors pourquoi, dès lors, un tel intérêt pour le nucléaire en général et pour les réacteurs de petite taille en particulier ? Il est évident que quelque chose d'autre se joue derrière cette mise en avant.

Le lien caché

Le facteur négligé est la dépendance des programmes militaires vis-à-vis des industries nucléaires civiles. Le maintien d'une marine nucléaire ou d'un arsenal nucléaire exige un accès constant à des technologies de réacteurs génériques, à une main-d'œuvre hautement qualifiée et à des matériaux spécifiques. Sans industrie nucléaire civile, les capacités militaires nucléaires deviennent beaucoup plus difficiles et coûteuses à entretenir.

Les sous-marins nucléaires occupent une place particulièrement centrale, car ils nécessiteraient très probablement l'existence d'industries nationales de réacteurs et de leurs chaînes d'approvisionnement même en l'absence d'un programme nucléaire civil. Déjà difficilement abordables pris individuellement, les sous-marins nucléaires deviennent encore plus coûteux si l'on prend en compte l'ensemble de cette «base industrielle sous-marine».

Rolls-Royce constitue un maillon essentiel de cette chaîne : l'entreprise construit déjà les réacteurs des sous-marins britanniques et doit produire les SMR civils récemment annoncés. Elle déclarait d'ailleurs ouvertement en 2017 qu'un programme de SMR civils permettrait de «décharger le ministère de la Défense du fardeau que représente le développement et le maintien des compétences et des capacités».

Ici, comme le soulignait Nuclear Intelligence Weekly en 2020, le programme de SMR de Rolls-Royce entretient une importante «symbiose avec les besoins militaires du Royaume-Uni». C'est cette dépendance qui permet aux coûts militaires (selon les termes d'un ancien dirigeant du constructeur de sous-marins BAE Systems) d'être «masqués» derrière des programmes civils.

En finançant les projets nucléaires civils, les contribuables et les consommateurs prennent en charge les usages militaires de l'énergie nucléaire par le biais de subventions et de factures plus élevées – sans que ces dépenses supplémentaires apparaissent dans les budgets de la défense.

Lorsque le gouvernement britannique nous a financés pour évaluer l'ampleur de ce transfert, nous l'avons estimé à environ 5 milliards de livres par an rien qu'au Royaume-Uni. Ces coûts échappent à la vue du public, car ils sont absorbés par les recettes provenant de factures d'électricité plus élevées et par les budgets d'agences gouvernementales supposément civiles.

Il ne s'agit pas d'un complot, mais plutôt d'une sorte de champ gravitationnel politique. Dès lors que les gouvernements considèrent l'arme nucléaire comme un marqueur de statut mondial, les financements et le soutien politique s'auto-entretiennent. Il en résulte une étrange forme de circularité : l'énergie nucléaire est justifiée par des arguments de sécurité énergétique et de coûts qui ne tiennent pas la route, mais elle est en réalité maintenue pour des raisons stratégiques qui demeurent inavouées.

Un schéma mondial

Le Royaume-Uni n'a rien d'exceptionnel, même si d'autres puissances nucléaires se montrent beaucoup plus franches. Le secrétaire américain à l'énergie, Chris Wright, a ainsi décrit l'accord nucléaire entre les États-Unis et le Royaume-Uni comme essentiel pour «sécuriser les chaînes d'approvisionnement nucléaires à travers l'Atlantique». Chaque année, environ 25 milliards de dollars (18,7 milliards de livres) transitent ainsi du nucléaire civil vers le nucléaire militaire aux États-Unis.

La Russie et la Chine sont elles aussi assez transparentes sur leurs liens indissociables entre civil et militaire. Le président français Emmanuel Macron l'a dit sans détour : «Sans nucléaire civil, pas de nucléaire militaire ; sans nucléaire militaire, pas de nucléaire civil».

Dans ces pays, les capacités nucléaires militaires sont perçues comme un moyen de rester à la «table des grands». Mettre fin à leur programme civil menacerait non seulement l'emploi et l'approvisionnement énergétique, mais aussi leur statut de grande puissance.

La prochaine frontière

Au-delà des sous-marins, le développement des «microréacteurs» ouvre de nouveaux usages militaires pour l'énergie nucléaire. Les microréacteurs sont encore plus petits et plus expérimentaux que les SMR. Bien qu'ils puissent tirer des profits en exploitant les budgets d'achats militaires, ils n'ont aucun sens d'un point de vue commercial pour l'énergie. Cependant, les microréacteurs sont considérés comme essentiels dans les plans américains pour l'alimentation sur le champ de bataille, les infrastructures spatiales et de nouvelles armes à haute puissance énergétique. Préparez-vous à les voir occuper une place croissante dans les débats «civils» – précisément parce qu'ils servent des objectifs militaires.

Quel que soit le regard porté sur ces évolutions militaires, il n'a aucun sens de prétendre qu'elles n'ont aucun lien avec le secteur nucléaire civil. Les véritables moteurs du récent accord nucléaire entre les États-Unis et le Royaume-Uni résident dans la projection de puissance militaire, et non dans la production civile d'électricité. Pourtant, cet aspect demeure absent de la plupart des débats sur la politique énergétique.

Il s'agit pourtant d'un enjeu démocratique essentiel : il faut de la transparence sur ce qui se joue réellement.

The Conversation

Phil Johnstone est professeur invité à l’Université de Tartu, chercheur postdoctoral à l’Université d’Utrecht et chercheur associé à l’Université du Sussex. Il est membre bénévole du Sussex Energy Group et du Nuclear Consultation Group, parrain du Nuclear Information Service, et siège au comité consultatif du Medact Nuclear Weapons group. Avec Andy Stirling, il a auparavant reçu des financements du Foreign, Commonwealth and Development Office (FCDO) du Royaume-Uni pour des recherches qui sous-tendent certaines des analyses présentées dans ce blog.

Andy Stirling est professeur émérite à l’Université du Sussex. Parmi ses nombreuses fonctions passées de conseil auprès de gouvernements et d’organisations intergouvernementales, il siège actuellement au sous-comité de sociologie du Research Excellence Framework 2029 du Royaume-Uni et au Conseil de recherche de l’Institut canadien de recherches avancées. Il est membre bénévole du Sussex Energy Group et du Nuclear Consultation Group, parrain du Nuclear Information Service et du Nuclear Education Trust, ainsi qu’administrateur de Greenpeace UK. Il a exercé en 2022-2023 comme expert-conseil pour l’évaluation officielle par le gouvernement britannique du programme d’innovation nucléaire du DESNZ et, avec Phil Johnstone, a reçu des financements du Foreign, Commonwealth and Development Office (FCDO) du Royaume-Uni pour des recherches qui sous-tendent certaines des analyses présentées dans ce blog.

PDF

01.11.2025 à 15:18

Pourquoi le missile nucléaire russe Bourevestnik change les règles du jeu militaire

Iain Boyd, Director of the Center for National Security Initiatives and Professor of Aerospace Engineering Sciences, University of Colorado Boulder

La Russie affirme avoir testé avec succès un missile de croisière à propulsion nucléaire, le Burevestnik. Capable de voler des milliers de kilomètres à basse altitude, il pourrait remettre en cause l’équilibre stratégique mondial.
Texte intégral (1915 mots)
Les précédents essais du missile Bourevestnik par la Russie comprennent notamment ce tir de 2018. Capture d'écran d'une vidéo du ministère russe de la Défense., CC BY

Le président russe Vladimir Poutine, vêtu d’un uniforme militaire, a annoncé le 26 octobre 2025 que la Russie avait testé avec succès un missile à propulsion nucléaire. Si cette information est avérée, une telle arme pourrait conférer à la Russie une capacité militaire unique, aux répercussions politiques plus larges.


Le missile, appelé Bourevestnik, aurait été testé avec succès au-dessus de l'océan Arctique après des années de développement et plusieurs vols d'essai initiaux, dont l'un a entraîné la mort de cinq scientifiques nucléaires.

Je suis ingénieur et j’étudie les systèmes de défense. Voici comment ces armes fonctionnent, les avantages qu'elles présentent par rapport aux systèmes de missiles conventionnels, et leur potentiel à perturber la stabilité stratégique mondiale.

Missiles à propulsion conventionnelle

Les missiles sont utilisés par les forces armées du monde entier depuis des siècles et se déclinent en une grande variété de modèles, caractérisés par leur mission, leur portée et leur vitesse. Ils servent à endommager et détruire une large gamme de cibles, notamment des installations terrestres comme des bases, des centres de commandement et des infrastructures enterrées en profondeur ; des navires ; des aéronefs ; et potentiellement des engins spatiaux. Ces armes sont lancées depuis le sol par l’armée de terre, depuis la mer par des bâtiments de la marine, et depuis les airs par des chasseurs et des bombardiers.

Les missiles peuvent être tactiques, avec des portées relativement courtes de moins de 800 km, ou stratégiques, avec des portées de plusieurs milliers de kilomètres. On distingue trois grandes catégories de missiles : balistiques, de croisière et hypersoniques.

Les missiles balistiques sont propulsés par des moteurs fusées. Après l’extinction de la poussée, le missile décrit un arc prévisible qui l’emmène hors de l’atmosphère, dans l’espace, puis de nouveau dans l’atmosphère en direction de sa cible.

Les missiles de croisière disposent d’un moteur additionnel qui s’allume après l’extinction de la fusée, permettant au missile de parcourir des trajectoires programmées, typiquement à basse altitude. Ces moteurs fonctionnent grâce à un mélange chimique ou à un carburant solide.

Les missiles hypersoniques volent à des vitesses supérieures à celle du son, mais pas aussi rapides que les missiles balistiques intercontinentaux (ICBM). Ils sont lancés par de plus petites fusées qui les maintiennent dans les couches supérieures de l’atmosphère. Le planeur hypersonique est propulsé jusqu’à une altitude élevée puis glisse vers sa cible en manœuvrant en cours de route. Le missile de croisière hypersonique, lui, est propulsé jusqu’à une vitesse hypersonique, puis utilise un moteur à air appelé scramjet pour maintenir cette vitesse.

Comment fonctionnent les missiles à propulsion nucléaire

Les missiles à propulsion nucléaire sont une variante de missile de croisière. Les conceptions reposent généralement sur une forme de scramjet. Un système nucléaire thermique utilise la fission du combustible nucléaire pour ajouter de l’énergie à un flux d’air qui est ensuite accéléré dans une tuyère pour générer de la poussée. De cette manière, la fission du matériau nucléaire remplace la combustion chimique des moteurs de croisière traditionnels.

a line drawing diagram with labels
Le concept d’un scramjet à propulsion nucléaire est simple, même si sa construction est extrêmement complexe. Lawrence Berkeley National Laboratory

La densité d’énergie — la quantité d’énergie libérée par unité de masse de combustible — fournie par la fission nucléaire est des millions de fois supérieure à celle des propergols chimiques. Cette caractéristique signifie qu’une quantité relativement faible de combustible fissile peut propulser un missile pendant des périodes bien plus longues que ne le permettent les propergols chimiques.

Les États-Unis ont étudié le développement d’un missile à propulsion nucléaire dans les années 1960. Le programme, Project Pluto, a été abandonné en raison des progrès rapides réalisés à la même époque sur les ICBM, ainsi que des inquiétudes liées à la contamination environnementale associée aux systèmes nucléaires.

Avantages du vol à propulsion nucléaire

L’avantage principal des missiles à propulsion nucléaire réside dans l’énergie supplémentaire qu’ils génèrent, leur permettant de voler plus loin, plus longtemps, plus vite et plus bas dans l’atmosphère, tout en exécutant une large gamme de manœuvres. Pour ces raisons, ils représentent un défi considérable pour les meilleurs systèmes de défense antimissile.

L’armée russe affirme que le missile Bourevestnik a parcouru 8 700 miles à basse altitude sur une période de 15 heures. À titre de comparaison, un vol commercial entre San Francisco et Boston couvre 2 700 miles en six heures. Bien que le Bourevestnik ne vole pas particulièrement vite pour un missile, il est probablement manœuvrable, ce qui le rend difficile à intercepter.

Contraintes liées à l’utilisation de l’énergie nucléaire

L’immense quantité d’énergie libérée par la fission constitue le principal défi technique du développement de ces missiles. Ces niveaux d’énergie très élevés exigent des matériaux capables de résister à des températures atteignant plusieurs milliers de degrés Celsius, afin d’empêcher le missile de se détruire lui-même.

Sur le plan de la sécurité, la technologie nucléaire a trouvé des applications très limitées dans l’espace en raison des risques de contamination radioactive en cas d’incident, comme un lancement raté. Les mêmes inquiétudes s’appliquent à une arme à propulsion nucléaire.

De plus, de tels systèmes doivent pouvoir rester sûrs pendant de longues années avant leur utilisation. Une attaque ennemie contre une installation de stockage contenant des armes à propulsion nucléaire pourrait entraîner une fuite radioactive massive.

Les premiers développements d’un missile à propulsion nucléaire par les États-Unis dans les années 1950 et 1960 ont pris fin lorsqu’il est apparu que cette idée soulevait des défis stratégiques et environnementaux majeurs.

Le Bourevestnik russe et la stabilité mondiale

Le nouveau missile russe Bourevestnik est en développement depuis plus de vingt ans. Bien que peu de détails techniques soient connus, les responsables russes affirment qu’il peut manœuvrer afin de contourner les systèmes antimissiles et de défense aérienne.

Les armes nucléaires ont constitué la base de la dissuasion mutuelle entre l’Union soviétique et les États-Unis pendant la guerre froide. Les deux camps comprenaient qu’une première frappe de l’un entraînerait une riposte tout aussi dévastatrice de l’autre. La peur d’une destruction totale maintenait ainsi un équilibre pacifique.

Plusieurs évolutions menacent l’équilibre actuel des forces : l’amélioration des systèmes de défense antimissile, comme le Golden Dome prévu par les États-Unis, et les progrès réalisés dans les missiles hautement manœuvrables. Les systèmes de défense antimissile pourraient bloquer une frappe nucléaire, tandis que les missiles manœuvrant à basse altitude pourraient atteindre leur cible sans avertissement.

Ainsi, si une grande partie des réactions à l’annonce par la Russie de son nouveau missile à propulsion nucléaire s’est concentrée sur la difficulté de s’en défendre, la préoccupation majeure réside sans doute dans son potentiel à bouleverser complètement la stabilité stratégique mondiale.

The Conversation

Iain Boyd a reçu des financements du département américain de la Défense.

PDF

01.11.2025 à 10:04

Ce que la taille de votre signature révèle vraiment de vous

Richie Zweigenhaft, Emeritus Professor of Psychology, Guilford College

Le psychologue Richie Zweigenhaft a mis en évidence un lien entre la taille de la signature et l’estime de soi. Depuis, un nombre croissant d’études ont également établi une corrélation entre signature et narcissisme.
Texte intégral (1672 mots)

Et si la taille de votre signature trahissait votre personnalité ? Loin d’être anodines, ces quelques lettres griffonnées à la hâte sur un chèque ou sous un contrat permettent de mieux comprendre le pouvoir, l’estime de soi et les dérives narcissiques.


Depuis des années, la signature de Donald Trump – large, anguleuse et spectaculaire – attire l’attention du public. On a récemment découvert qu’elle figurait dans un livre offert à Jeffrey Epstein pour son cinquantième anniversaire, mais elle s’inscrit surtout dans la longue tradition d’autocélébration tapageuse de l’ancien président. « J’adore ma signature, vraiment », a-t-il déclaré, le 30 septembre 2025, devant des responsables militaires. « Tout le monde adore ma signature. »

Cette signature présente pour moi un intérêt particulier, en raison de ma fascination de longue date – et de mes recherches occasionnelles – sur le lien entre la taille des signatures et les traits de personnalité. Chercheur en psychologie sociale m’étant fait une spécialité des élites américaines, j’ai réalisé une découverte empirique involontaire il y a plus de cinquante ans, alors que j’étais encore étudiant. Le lien que j’avais observé à l’époque – et que de nombreuses recherches sont venues confirmer depuis – est que la taille d’une signature est liée au statut social et à la perception de soi.

Taille de la signature et estime de soi

En 1967, lors de ma dernière année d’université, je travaillais à la bibliothèque de psychologie de l’Université Wesleyan (Connecticut) dans le cadre d’un emploi étudiant. Quatre soirs par semaine, ma mission consistait à enregistrer les prêts et à ranger les livres rendus.

Quand les étudiants ou les professeurs empruntaient un livre, ils devaient inscrire leur nom sur une fiche orange, sans lignes, glissée à l’intérieur de l’ouvrage. À un moment, j’ai remarqué un schéma récurrent : les professeurs prenaient beaucoup de place pour signer, leurs lettres occupant presque toute la carte. Les étudiants, eux, écrivaient en petit, laissant largement de la place pour les lecteurs suivants. J’ai alors décidé d’étudier cette observation de façon plus systématique.

J’ai rassemblé au moins dix signatures pour chaque membre du corps enseignant, ainsi qu’un échantillon comparable de signatures d’étudiants dont les noms comptaient le même nombre de lettres. Après avoir mesuré la surface occupée – en multipliant la hauteur par la largeur de la zone utilisée –, j’ai constaté que huit professeurs sur neuf utilisaient nettement plus d’espace pour signer leur nom.

Afin de tester l’effet de l’âge autant que celui du statut, j’ai mené une autre étude : j’ai comparé les signatures de personnes occupant un emploi manuel – agents d’entretien, jardiniers, personnel technique de l’université – avec celles d’un groupe de professeurs et d’un groupe d’étudiants, toujours en égalisant le nombre de lettres et en utilisant cette fois des cartes vierges de 3 pouces sur 5 (7,6 cm sur 12,7 cm.). Le premier groupe prenait plus de place que les étudiants, mais moins que les enseignants. J’en ai conclu que l’âge jouait un rôle, mais aussi le statut social.

Quand j’ai raconté mes résultats au psychologue Karl Scheibe, mon professeur préféré, il m’a proposé de mesurer les signatures figurant dans ses propres livres – celles qu’il apposait depuis plus de dix ans, depuis sa première année d’université.

Comme on peut le voir sur le graphique, la taille de ses signatures a globalement augmenté au fil du temps. Elles ont connu un net bond entre sa troisième et sa dernière année d’études, ont légèrement diminué lorsqu’il est entré en doctorat, puis ont de nouveau grandi lorsqu’il a achevé sa thèse et rejoint le corps enseignant de Wesleyan.

J’ai ensuite mené plusieurs autres études et publié quelques articles, concluant que la taille de la signature était liée à l’estime de soi ainsi qu’à une mesure de ce que j’ai appelé la « conscience du statut ». J’ai constaté que ce schéma se vérifiait dans divers contextes, y compris en Iran, où l’écriture se lit pourtant de droite à gauche.

Le lien avec le narcissisme

Même si mes recherches ultérieures ont donné lieu à un livre sur les PDG des entreprises du classement Fortune 500, il ne m’était jamais venu à l’esprit d’étudier leurs signatures. Quarante ans plus tard, d’autres chercheurs y ont pensé. En mai 2013, j’ai reçu un appel de la rédaction du Harvard Business Review à propos de mes travaux sur la taille des signatures. Le magazine prévoyait de publier une interview de Nick Seybert, professeur associé de comptabilité à l’université du Maryland, sur le lien possible entre la taille des signatures et le narcissisme chez les PDG.

Seybert m’avait expliqué que ses recherches n’avaient pas permis d’établir de lien direct entre les deux, mais l’idée d’une possible corrélation qu’il avançait a tout de même éveillé ma curiosité. J’ai donc décidé de la tester auprès d’un échantillon de mes étudiants. Je leur ai demandé de signer une carte vierge comme s’ils rédigeaient un chèque, puis je leur ai fait passer un questionnaire de 16 questions couramment utilisé pour mesurer le narcissisme.

Et, surprise : Seybert avait raison de supposer un lien. Il existait bien une corrélation positive significative entre la taille de la signature et le narcissisme. Mon échantillon était certes modeste, mais ce résultat a incité Seybert à reproduire l’expérience auprès de deux autres groupes d’étudiants – et il a obtenu la même corrélation positive significative.

D’autres chercheurs ont rapidement commencé à utiliser la taille de la signature pour évaluer le narcissisme chez les PDG. En 2020, l’intérêt croissant pour le sujet a conduit le Journal of Management à publier un article qui recensait la taille de la signature parmi cinq indicateurs possibles du narcissisme chez les dirigeants d’entreprise.

Un champ de recherche en expansion

Aujourd’hui, près de six ans plus tard, les chercheurs utilisent la taille de la signature pour étudier le narcissisme chez les PDG et d’autres cadres dirigeants, comme les directeurs financiers. Ce lien a été observé non seulement aux États-Unis, mais aussi au Royaume-Uni, en Allemagne, en Uruguay, en Iran, en Afrique du Sud et en Chine.

Par ailleurs, certains chercheurs se sont penchés sur l’effet que produisent, sur les observateurs, des signatures plus grandes ou plus petites. Par exemple, dans un article récent du Journal of Philanthropy, des chercheurs canadiens ont rendu compte de trois expériences faisant varier systématiquement la taille de la signature d’une personne sollicitant des dons, afin d’évaluer si cela influençait le montant des contributions. Et c’était bien le cas : dans l’une de leurs études, ils ont montré qu’agrandir la signature de l’expéditeur générait plus du double de recettes.

Le retour inattendu des recherches utilisant la taille de la signature pour évaluer le narcissisme m’amène à plusieurs conclusions. D’abord, cette mesure de certains aspects de la personnalité s’avère bien plus solide que je ne l’aurais imaginé, lorsque je n’étais qu’un étudiant curieux travaillant dans une bibliothèque universitaire en 1967.

En réalité, la taille de la signature n’est pas seulement un indicateur de statut ou d’estime de soi, comme je l’avais conclu à l’époque. Elle constitue aussi, comme le suggèrent les études récentes, un signe de tendances narcissiques – du type de celles que nombre d’observateurs prêtent à la signature ample et spectaculaire de Donald Trump. Nul ne peut dire quelle direction prendra cette recherche à l’avenir – pas même celui qui, il y a tant d’années, avait simplement remarqué quelque chose d’intrigant dans la taille des signatures.

The Conversation

Richie Zweigenhaft ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

01.11.2025 à 10:03

Sécurité sociale, un compromis institutionnel bien français

Léo Rosell, Ater, Université Paris Dauphine – PSL

À sa création, en 1945, la Sécurité sociale résulte d’un compromis entre l’État et le mouvement ouvrier. Quatre-vingts ans plus tard, qu’en reste-t-il ?
Texte intégral (2825 mots)
Pour les 70 ans de la Sécurité sociale en 2015, un timbre commémoratif réunissait Pierre Laroque, premier directeur général de la « Sécu » (à gauche de l’image), et Ambroise Croizat, ministre communiste du travail et de la sécurité sociale (à droite). Wikitimbres

Créée en 1945, la Sécurité sociale répondait à un objectif ambitieux : mettre les Français à l’abri du besoin et instaurer un ordre social nouveau. Fruit d’un compromis entre l’État et le mouvement ouvrier, cette institution a profondément façonné la solidarité sociale en France. Retour sur l’histoire d’un système révolutionnaire, aujourd’hui confronté à des défis de gouvernance et de légitimité.

Cet article est publié en partenariat avec Mermoz, la revue du Cercle des économistes dont le dont le numéro 8 a pour thème « Notre modèle social, un chef-d’œuvre en péril »..


La Sécurité sociale fête ses quatre-vingts ans. Née en 1945, dans un pays où tout est à reconstruire, cette institution sociale affiche alors l’ambition de créer un « ordre social nouveau ». La Sécurité sociale vise à mettre l’ensemble de la population « à l’abri du besoin » et à la libérer de « la peur du lendemain ».

À la Libération, la solidarité en armes exprimée dans la Résistance devait, en quelque sorte, se transcrire dans une solidarité sociale. Cette idée caractérise le compromis institutionnel à l’origine de la Sécurité sociale, entre un État social émancipateur et un mouvement ouvrier puissant et organisé. Dans les décennies suivantes, la démocratie sociale originelle disparaît progressivement, d’abord au profit d’un paritarisme plus favorable au patronat, puis dans le sens d’une gouvernance reprise en main par l’État.

Une longue histoire

Commençons par rappeler que tout ne s’est pas créé en 1945. Le plan français de sécurité sociale est le fruit d’un processus qui s’inscrit dans le temps long, et l’on peut en faire remonter les origines philosophiques à la Révolution française, un moment important de « laïcisation de la charité religieuse » qui avait cours depuis le Moyen Âge et sous l’Ancien Régime. La Déclaration des droits de l’homme et du citoyen de 1793 pose ainsi pour la première fois le principe selon lequel « les secours publics sont une dette sacrée » de la nation. Après la chute des robespierristes, qui portaient cette aspiration, les expérimentations en matière de secours publics disparaissent.

Commence alors un XIXe siècle marqué par le refus de l’État d’intervenir directement dans les affaires économiques et sociales, mais aussi par le retour de la charité assistancielle. En parallèle, deux traditions se développent en matière de protection sociale : d’une part, une conception républicaine, qui revendique une solidarité nationale, et d’autre part, une tradition ouvrière, qui repose sur l’entraide collective au sein des caisses de secours mutuels et qui est attachée à une gestion par les travailleurs eux-mêmes. La fin du siècle est quant à elle marquée par le développement d’une philosophie, le solidarisme, inspirée de l’œuvre de Léon Bourgeois. Ce courant de pensée postule que la société doit être organisée autour de la solidarité nationale. Il inspire la « nébuleuse réformatrice » à l’origine de l’État social, à travers les premières lois sur les accidents du travail en 1898, sur les retraites ouvrières et paysannes en 1910 ou encore sur les assurances sociales en 1928-1930.

Mais ces anciennes législations sont imparfaites, car elles ne couvrent que les salariés les plus pauvres, elles dispensent des prestations jugées insuffisantes et on y adhère selon le principe de la « liberté d’affiliation ». Cela signifie que le système compte une multiplicité de caisses, d’origine patronale, mutualiste, confessionnelle, syndicale ou départementale, dont l’efficacité est inégale. Compte tenu de ce bilan critique, le programme du Conseil national de la résistance (CNR), adopté dans la clandestinité le 15 mars 1944, entend réformer cette ancienne législation, à travers « un plan complet de sécurité sociale ». Le Gouvernement provisoire de la République française va donc s’y atteler, une fois le territoire national libéré.

Une réforme révolutionnaire

Ce contexte a permis la réalisation d’une « réforme révolutionnaire ». La Sécurité sociale repose sur des mesures prises par le pouvoir politique : elle s’est construite à partir d’ordonnances, comme celles du 4 et du 19 octobre 1945 portant création de la Sécurité sociale, sur des lois, comme celle du 22 mai 1946 portant généralisation de la Sécurité sociale, ou encore sur de nombreux décrets. En revanche, elle n’en est pas moins révolutionnaire par sa portée, par son ambition, celle de créer un « ordre social nouveau », pour reprendre une expression du haut fonctionnaire Pierre Laroque, elle-même déjà présente chez Jean Jaurès. Le 23 mars 1945, Laroque proclame :

« C’est une révolution qu’il faut faire et c’est une révolution que nous ferons ! »


À lire aussi : Mesurer le non-recours pour éviter de dépenser « un pognon de dingue »


Si le rôle de l’institution est incarné par Pierre Laroque, premier directeur de la Sécurité sociale, celui du mouvement ouvrier l’est par Ambroise Croizat. Ancien ouvrier dès l’âge de treize ans, dirigeant de la Fédération des métaux de la Confédération générale du travail (CGT) et député communiste sous le Front populaire, Ambroise Croizat devient président de la commission du travail et des affaires sociales de l’Assemblée consultative provisoire à la Libération, puis ministre du travail et de la sécurité sociale, du 21 novembre 1945 au 4 mai 1947.

Avec Pierre Laroque, ils mettent en œuvre le régime général de la Sécurité sociale, qui repose sur quatre principes fondamentaux. Tout d’abord, il doit s’agir d’un régime universel : l’ensemble de la population, de la naissance à la mort, doit bénéficier de la Sécurité sociale. De plus, le millier de caisses qui existaient du temps des assurances sociales est remplacé par un système obligatoire reposant sur une seule caisse primaire par département, une caisse régionale et une caisse nationale, prenant en charge l’ensemble des risques sociaux.

Le financement par la cotisation sociale constitue le troisième principe. Renvoyant à la formule « de chacun selon ses moyens à chacun selon ses besoins », ce mode de financement par répartition permet au budget de la Sécurité sociale d’être autonome et donc de ne pas dépendre des arbitrages budgétaires de l’État. Enfin, le quatrième principe, sans doute le plus original, renvoie à la démocratie sociale : les caisses de la Sécurité sociale sont gérées « par les intéressés eux-mêmes ».

Des oppositions diverses

De nombreuses oppositions vont tenter de retarder, voire d’empêcher, cette réalisation. Dans les milieux patronaux d’abord, hostiles vis-à-vis de la cotisation patronale, de la caisse unique et de la gestion des caisses par les travailleurs. La Mutualité et les assurances privées craignent de perdre le rôle qu’elles avaient dans les anciennes assurances sociales. Les médecins libéraux ont peur d’être « fonctionnarisés » et de perdre leur liberté d’exercice, tandis que les cadres n’ont pas envie d’être associés au même régime que les salariés. Face à ces obstacles, Croizat et Laroque font preuve de pragmatisme, en donnant partiellement satisfaction à la Mutualité, ou encore aux cadres, avec la création d’un régime complémentaire, l’Agirc. Les artisans, commerçants, professions libérales et agriculteurs obtiennent la mise en place de régimes particuliers.

Entre 1945-1967, la gestion des caisses de la Sécurité sociale est donc organisée selon le principe de la démocratie sociale, en reconnaissant un pouvoir syndical fort. En effet, les conseils d’administration des caisses sont composés à 75 % par des représentants des salariés et à 25 % par ceux du patronat. Ces administrateurs sont d’abord désignés selon le principe de la représentativité syndicale. Le syndicat chrétien de la CFTC refuse alors de participer à la mise en œuvre du régime général car il perd la gestion de ses anciennes caisses confessionnelles, mais aussi parce qu’il craint de subir l’hégémonie de la CGT. Les militants cégétistes disposent de fait d’un quasi-monopole dans la mise en œuvre du régime général sur le terrain.

La Sécurité sociale à la française n’est donc pas un système étatique. Sur le plan juridique, les caisses primaires et régionales sont de droit privé, tandis que la caisse nationale est un établissement public à caractère administratif. L’État, à travers le ministère du travail et de la sécurité sociale – et la direction de la Sécurité sociale qui en dépend –, voit son pouvoir limité à certaines prérogatives, qui restent importantes : en plus du pouvoir normatif, qui s’exprime par la fixation du taux de cotisation et du montant des prestations, l’État dispose aussi d’une fonction de contrôle sur l’activité des caisses.

Une gestion ouvrière fragilisée

Au cours de l’année 1947, le changement de contexte politique a des conséquences directes sur la Sécurité sociale. Le 24 avril 1947, des « élections sociales » sont instaurées pour renforcer sa dimension démocratique et donnent lieu à une véritable campagne politique. La CGT obtient environ 60 % des voix, la CFTC 26 % et la Mutualité 10 %. Le 4 mai, les communistes sont exclus du gouvernement. L’entrée dans la logique de la guerre froide fragilise la gestion ouvrière de la Sécurité sociale, en particulier à la suite de la scission syndicale entre la CGT et Force ouvrière.

En 1958, l’instauration de la Ve République permet à l’État d’intervenir plus directement. Les ordonnances Debré instaurent la nomination des directeurs de caisses par l’exécutif, et non plus leur élection par les conseils d’administration. En 1960, les pouvoirs des directeurs augmentent, au détriment de ceux des conseils d’administration. Au cours de la même année, le corps de l’Inspection générale de la Sécurité sociale est créé, de même que le Centre d’études supérieures de la Sécurité sociale – devenue l’EN3S en 2004 –, participant à la professionnalisation du personnel des caisses.

À partir de 1967, la démocratie sociale disparaît, au profit d’un nouveau principe, le paritarisme. Instauré par les ordonnances Jeanneney, le paritarisme repose en théorie sur un partage du pouvoir entre partenaires sociaux, à parts égales entre syndicats de salariés et patrons. Dans les faits, ce nouveau mode de gestion renforce le pouvoir du patronat, qui joue de la division syndicale. De même, les élections sociales sont supprimées, et la caisse unique est divisée en quatre branches autonomes, chacune présidée par un haut fonctionnaire.

Tout se passe comme si le compromis de 1945 entre l’État social et les syndicats ouvriers s’était renversé au profit d’une nouvelle alliance entre la « technocratie » et le patronat. En tout cas, l’ensemble de ces mesures répond aux revendications du Conseil national du patronat français (CNPF).

La crise de l’État-providence

Les années 1980-1990 voient s’imposer un autre discours, celui sur la « crise de l’État-providence ». Un État réformateur, avec à sa tête le socialiste François Mitterrand depuis 1981, réalise certes la promesse d’une retraite à 60 ans et celle de restaurer les élections sociales. Mais l’affaiblissement des syndicats et le « tournant de la rigueur » de 1983 consacrent l’objectif de réduction des dépenses publiques, partagé par tous les gouvernements successifs.

L’instauration de la contribution sociale généralisée (CSG) en 1990-1991 participe quant à elle de la fiscalisation du financement de la Sécurité sociale, au détriment de la cotisation sociale, ce qui justifie politiquement une intervention accrue de l’État.

Une parlementarisation de la gestion de la Sécurité sociale se développe ainsi entre 1996 et 2004. Le rôle du Parlement et l’influence des directives européennes en matière budgétaire et réglementaire se traduisent par plusieurs mesures prises en 1996 : l’instauration par ordonnances d’une loi de financement de la Sécurité sociale votée chaque année, la suppression définitive des élections sociales et la création de deux outils de gouvernance budgétaire, l’objectif national des dépenses de l’Assurance maladie (Ondam) et la Caisse d’amortissement de la dette sociale (Cades). En 2000, c’est au tour du Conseil d’orientation des retraites (COR) d’être créé.

France Inter, 2025.

Néomanagement et logique comptable

Enfin, depuis 2004, s’est imposée une gouvernance managériale, fortement inspirée du « nouveau management public ». Cette évolution est symbolisée par la réforme de l’assurance-maladie et celle de l’hôpital public, avec l’instauration de la tarification à l’activité (T2A). Les différentes branches sont désormais gérées par des directeurs généraux aux pouvoirs élargis, tandis que des Conventions d’objectifs et de gestion (COG) sont contractées tous les quatre ans entre l’État et les branches, puis déclinées au niveau des caisses.

Une logique comptable de définition d’objectifs et d’évaluation des résultats s’impose donc devant l’exigence de répondre à des besoins et de garantir l’accès aux droits des bénéficiaires. Cette gouvernance managériale parvient parfois à mener des réformes impopulaires, comme la réforme des retraites de 2023 passée via l’usage de l’article 49.3 de la Constitution et le détournement d’un PLFSS rectificatif. Néanmoins, se pose dès lors la question du consentement populaire à ce mode de gestion, qui fragilise une institution centrale du pacte social républicain.

Les commémorations du 80e anniversaire de la Sécurité sociale ont ainsi été propices à la remise en cause d’une gouvernance, dénoncée comme étant antidémocratique, y compris parfois au sein même des élites de l’État social. Certains appellent à renouer avec les ambitions portées, en son temps, par Pierre Laroque, leur illustre prédécesseur, notamment en termes de démocratie sociale.


Cet article est publié en partenariat avec Mermoz, la revue du Cercle des économistes dont le numéro 8 a pour objet « Notre modèle social, un chef-d’œuvre en péril ». Vous pourrez y lire d’autres contributions.

Le titre et les intertitres sont de la rédaction de The Conversation France.

The Conversation

Léo Rosell ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

01.11.2025 à 10:02

Comment s’explique l’éternel retour du roller ?

Alexandre Chartier, Doctorant en Sciences et techniques des activités physiques et sportives, enseignant vacataire, Université de Bordeaux

Le roller peine encore à s’imposer comme un fait culturel durable et fonctionne par modes successives depuis son apparition, au XVIIᵉ siècle.
Texte intégral (2222 mots)
La randonnée Rollers et Coquillages (2013) Alexandre Chartier/FFRS

Accessoires de spectacle dès le XVIIᵉ siècle, les patins à roulettes ont vu le jour en Europe, dans l’ombre du patinage sur glace. Aux grandes modes aristocratiques et mondaines à l’aube du XXᵉ siècle, ont succédé de multiples périodes d’engouements, aux formes et aux modalités renouvelées. Pourtant, le roller n’est jamais parvenu véritablement à s’installer en France comme « fait culturel ».


La pandémie de Covid-19 et les confinements ont déclenché un regain d’intérêt pour le roller. Entre 2020 et 2022, les ventes de patins ont bondi de 300 % aux États-Unis et ont suivi les mêmes tendances en France. À travers des influenceuses, telles qu’Ana Coto ou Oumi Janta, la génération TikTok a réinvesti les rues et les places. Les marques n’ont pas tardé à relancer des modèles au look à la fois vintage et modernisé.

Cet engouement récent ne surgit cependant pas du néant. Il s’inscrit dans une longue histoire de modes successives du patinage à roulettes en France et dans le monde. C’est en les reconvoquant, en questionnant le rôles des acteurs et leurs représentations que l’on peut mieux saisir pourquoi le roller peine encore à s’imposer comme un fait culturel durable et fonctionne donc par effraction, par mode.

Une première vague : la « rinkomanie » de 1876

La première grande mode du patinage à roulettes remonte aux alentours de 1876. La vogue du skating, incarnée par les patins à essieux de James Leonard Plimpton, traverse l’Atlantique et atteint l’Europe. Henry Mouhot dépeint cet engouement sans précédent dans son ouvrage la Rinkomanie (1875).

En France, près de 70 patinoires à roulettes, les skating-rinks, ouvrent leurs portes en l’espace de trois ans. Majoritairement fréquentés par l’aristocratie, la haute bourgeoisie et « l’élite voyageuse », ils deviennent des lieux incontournables de sociabilité urbaine et cosmopolite.

Le patinage à roulettes est alors considéré comme une alternative au patinage sur glace dont il reproduit les attitudes et les techniques corporelles. A contrario de son aïeul sur lames, il permet de pratiquer toute l’année.

Pourtant, malgré les aspirations hygiénistes, l’anglomanie et le caractère de nouveauté, la mode décroît rapidement sous l’influence de plusieurs facteurs : un matériel innovant mais largement perfectible demandant une maîtrise technique importante, la fragilité des entreprises commerciales, la mauvaise fréquentation des rinks, l’absence d’institutionnalisation ou encore la concurrence d’autres pratiques, telles que la vélocipédie.

1910 : de la pratique loisir mondaine à la « sportivisation »

Une série d’innovations technologiques notables, tels que les roulements à billes, combinée à des conditions d’accès plus strictes aux patinoires, contribuent à relancer l’intérêt pour le patinage à roulettes à la veille de la Première Guerre mondiale. Sam Nieswizski (1991) avance que l’imminence du conflit a incité la bourgeoisie au divertissement. Près de 130 skating-rinks sortent de terre entre 1903 et 1914, à Paris et en province. Ils sont édifiés particulièrement sur la Côte Atlantique et dans les lieux de villégiature du tourisme britannique.

À l’instar du ping-pong, loisir mondain et élégant, le patinage à roulettes fonde ses premiers clubs de hockey sur patin à roulettes, de course et de figures. La « sportivisation » du patinage à roulettes en tant que « processus global de transformation des exercices physiques et des pratiques ludiques anciennes en sport moderne » a débuté à la fin du XIXe siècle. La Fédération des patineurs à roulettes de France voit le jour en 1910.

Dans le même temps, la pratique populaire et enfantine en extérieur se développe, non sans susciter la répression policière. À Paris, la préfecture tente de contenir le déferlement des patineurs sur la voie publique en prenant un arrêté qui interdit la pratique aux alentours du jardin du Luxembourg. Elle déclenche de vives réactions de journaux, comme le Matin ou l’Humanité, qui se mobilisent pour défendre la pratique populaire face à la conception bourgeoise du patinage en skating-rink.

La mode de 1910 s’avère pourtant structurante : elle amorce la popularisation et la sportivisation de la pratique qui se prolongent dans l’entre-deux-guerres avec la création de la fédération internationale et avec les premiers championnats d’Europe et du monde. Le déclenchement du conflit et les résistances institutionnelles pourraient pour partie expliquer qu’il n’ait pas existé en France une période d’ancrage culturel aussi profonde que celle observée durant la Roller Skate Craze américaine des années 1920-1950.

Le skating-rink de l’Alhambra à Bordeaux (Gironde), en 1903. Archives de Bordeaux Métropole

Des résurgences cycliques au cours du XXᵉ siècle

L’entre-deux-guerres voit l’émergence du roller-catch : l’ancêtre professionnel de l’actuel roller derby investit le Vélodrome d’hiver en 1939. Plus spectacle que sport, la pratique est rejetée par la fédération internationale, mue par les valeurs de l’amateurisme. Elle renaîtra sous une forme modernisée et féministe au début des années 2000.

Durant les années 1950 et jusqu’aux années 1980, clubs et compétitions se développent dans la confidentialité. En parallèle, la production à faible coût de patins à roulettes réglables en longueur favorise la pratique enfantine.

À la fin des années 1970, l’avènement des roues en uréthane rend la glisse plus confortable, fluide et ouvre de nouvelles perspectives techniques. Les roller-skates au look de chaussure sport d’un seul tenant accompagnent la vague roller-disco. Des films comme La Boum ou Subway montrent alors deux représentations antinomiques mais coexistantes du patinage à roulettes. À partir de 1981, les milliers de patineurs de Paris sur roulettes investissent dans les rues de la capitale, à tel point que les piétons demandent leur interdiction. Taxés de marginaux, ils préfigurent la conquête de la ville des années 1990-2000.

La série Stranger Things (1983-1987) convoque l’imaginaire collectif avec une scène mémorable dans un skating-rink qui montre l’importance du patinage à roulettes dans la culture américaine.

À l’aube du XXIe siècle, des marques emblématiques, comme Rollerblade, sont à l’initiative du boom du roller « inline » et rajeunissent l’image surannée du patin à essieux. Le roller devient cool, branché, écologique. Il s’inscrit dans la lignée des sports californiens et s’envisage même en tant que mode de transport : des grèves londoniennes de 1924 aux grèves de 1995, il n’y a qu’une poussée.

Il acquiert une dimension plus respectable, malgré les représentations négatives de sa dimension agressive (roller acrobatique et freestyle de rue) qui demeure incomprise, au même titre que le skateboard. Les autorités oscillent entre acceptation et répression dans un discours ambivalent. En Belgique, le roller trouve sa place dans le Code de la route, alors qu’en France, les préconisations du Livre blanc du Centre d’études sur les réseaux, les transports, l’urbanisme et les constructions publiques (Certu) restent lettre morte.

En 2010, le film Bliss/Whip it ! marque le renouveau du roller derby. Durant quelques années, les journaux scrutent avec intérêt la réappropriation de cette pratique par les femmes. Le patin à essieux y connaît une nouvelle jeunesse tout comme entre 2016 et 2018 poussé par le marketing mondial de Disney qui promeut la série adolescente Soy Luna.

Quatre ans plus tard, la même génération de pratiquantes se libère du confinement en réanimant la roller-dance, prolongement modernisé d’une roller-disco restée dans l’imaginaire collectif.

Pourquoi ces cycles se répètent-ils ?

Ainsi, lors de chaque mode, le patinage à roulettes repart avec force. À l’instar des vogues vestimentaires et dans une logique d’imitation/distinction, les pratiquants et pratiquantes se réapproprient les signes du passé pour mieux les détourner et affirmer leur singularité.

L’analyse historique et sociologique permet de dégager plusieurs ressorts d’émergence et d’alimentation des modes liés aux différents acteurs en lice dans le champ activités physiques et sportives : les innovations technologiques poussées par les fabricants (roulements, roues uréthane) et les distributeurs, le marketing et la communication (Soy Luna), les médias et les influenceurs (confinement), les aspirations des pratiquants, les techniques corporelles, des lieux de pratique adaptés ou encore l’influence des institutions étatiques et fédérales. Des facteurs inhibiteurs viennent toutefois perturber ces vogues et limiter leur ancrage sociétal durable, en particulier lorsque les objectifs des acteurs divergent.

Ainsi, l’histoire des modes du patinage à roulettes en France nous enseigne que l’enthousiasme ne suffit pas à en produire. Il faut un écosystème actif aux intérêts convergents : fabricants, médias, infrastructures, institutions. En d’autres termes : ce n’est pas seulement parce qu’on roule que l’on devient un fait culturel.

The Conversation

Je suis webmaster du site associatif rollerenligne.com.

PDF

31.10.2025 à 12:02

Higher education: why women in France are less likely to pursue science than men

Anne Boring, Associate professor, Erasmus University Rotterdam

A recent survey suggests that young women in France, who are held back by gender stereotypes, may also be eschewing scientific fields because they prioritise subject passion more often than men.
Texte intégral (1524 mots)

Girls in France are much less inclined than boys to pursue scientific fields of study, and this is partly due to persistent gender stereotypes. But other factors also come into play. These explanations are based on a survey by the Chair for Women’s Employment and Entrepreneurship at Sciences Po.


How can we attract more women in France to higher education in science and technology? For several years, public authorities have been supporting initiatives aimed at promoting gender diversity in these fields of study, the most recent being the “Girls and Maths” action plan, launched by the ministry of national education, higher education, and research in May 2025.

There are two main reasons behind these initiatives. On the one hand, the aim is to reduce gender inequalities in the labour market, particularly the pay gap. On the other hand, the objective is to support economic growth in promising fields by training more people who can contribute to innovation in strategic sectors of activity.

Different choices

The differences in orientation between women and men remain very marked at the start of higher education. This is evident from the choices made by high school seniors on Parcoursup, the French platform for accessing post-baccalaureate programmes, as can be seen in the following graph based on data made available on Datagouv. It represents the number of applications for the most popular courses of study (more than 4,000 applications).

Source: Parcoursup 2024 – applications to continue studies and change direction in higher education, and responses from institutions. The x-axis shows female candidates, and the y-axis shows male candidates. The symbols at right, from top to bottom, represent science and technology; STAPS; health; human and social sciences, literature, languages, arts; economics, management, commerce. Fourni par l'auteur

The points above the diagonal represent programmes with a predominance of male applicants, while those below represent programmes with a predominance of female applicants. Men account for approximately 70% of applicants to science and technology programmes, including STAPS (science and technology of physical education and sports).

The main exceptions concern courses in life and earth sciences, for which there are more female applicants. Programmes in economics, management, and business (in blue) tend to be more mixed. Finally, programmes in health, humanities, social sciences, literature, languages, and arts (in purple) are mainly favored by women, who account for around 75% of applicants.

Certain factors that may explain these differences in study choices, in particular the role of gender stereotypes, differences in academic performance in science subjects, and self-confidence, have already been analysed.

Passion as a determining factor

In order to better understand the current reasons for the differences between women and men in higher education choices, the Chair for Women’s Employment and Entrepreneurship at Sciences Po conducted a survey in partnership with Ipsos in February 2025 among a representative sample of the student population in France, with a total of 1,500 responses. The results of this survey were published by the Observatory of Well-Being of the Centre for Economic Research and its Applications (Cepremap).

One of the striking findings of the survey concerns the differences between women and men in the importance they attach to passion as a determining factor in their higher education choices.

Significantly more female students choose courses related to their passions, and they seem to do so fully aware that these choices may penalise them later on in the job market. In fact, 67% of women (compared to 58% of men) say they “prefer to study a subject they are passionate about, even if it does not guarantee a well-paid job”, while 33% of women (compared to 42% of men) say they “prefer to get a well-paid job, even if it doesn’t guarantee that they will study a subject they are passionate about”.

Women who prioritise passion are more likely to enrol in arts and humanities programmes, while those who prefer a well-paid job are more likely to enrol in economics, business, and commerce programmes, or in science and technology programmes.

The role of parents

Furthermore, the survey results highlight the fact that parents are more influential in determining their sons’ educational choices than their daughters’. In fact, female students receive more support from their parents, regardless of their chosen field of study, while male students are less likely to receive their parents’ approval, particularly for fields of study that lead to less lucrative careers in the job market (eg humanities, social sciences or arts) or that have become feminised (eg law or health).

Paradoxically, the lack of parental influence on girls’ choices may explain why they are more likely to follow their passion, finding themselves more constrained in the job market later on.

The results also show that preferences developed for different subjects in secondary school account for more than half of the differences between women and men in their higher education choices.

Women appear to have more diverse tastes, with a preference for mathematics accounting for only a small part (around 10%) of the difference in study choices. This partly explains why women tend to shy away from science and technology courses of study, which may be perceived as requiring them to give up other subjects they enjoy. More men than women enjoyed only science subjects in secondary school (29% of male students compared to 14% of female students).

Multidisciplinary programmes and role models

If the French economy needs more women with degrees in science and technology, how can we attract them to these fields? The main challenge lies in conveying a passion for science and technology to women.

This can be achieved through role models, such as high-achieving people who share their enthusiasm for their discipline before students make crucial choices. This can also involve the development of multidisciplinary courses that combine science, social sciences, and humanities, so as to offer young women (and young men) with varied interests the opportunity to pursue scientific studies without giving up other fields.

Finally, science programmes can adapt their educational offerings to make teaching more attractive to female students. By highlighting how science and technology can contribute to the common good and address the challenges of contemporary societies, a reformulation of course titles can, for example, highlight issues that are important to them.


Created in 2007 to help accelerate and share scientific knowledge on key societal issues, the Axa Research Fund – now part of the Axa Foundation for Human Progress – has supported over 750 projects around the world on key environment, health & socioeconomic risks. To learn more, visit the website of the AXA Research Fund or follow @ AXAResearchFund on LinkedIn.

The Conversation

The collection of data was funded by the Chair for Women's Employment and Entrepreneurship (Sciences Po, Paris).

PDF

30.10.2025 à 16:05

De Chirac à Macron, comment ont évolué les dépenses de l’État

François Langot, Professeur d'économie, Directeur adjoint de l'i-MIP (PSE-CEPREMAP), Le Mans Université

Fabien Tripier, Professeur d'économie, Université Paris Dauphine – PSL

Si les dépenses publiques ont progressé, il importe de savoir quels postes principaux sont concernés. C'est un préalable si le gouvernement veut les réduire.
Texte intégral (2115 mots)

Pour stabiliser la dette publique de la France, l’État doit réduire son déficit. Outre la hausse des prélèvements, il doit aussi de diminuer ses dépenses. Mais avant de les réduire, il importe de savoir comment ces dépenses ont évolué ces trente dernières années.


L’analyse historique des dépenses de l’État peut être utile pour prendre aujourd’hui des décisions budgétaires. Qu’ont-elles financé ? Les salaires des agents ? Des achats de biens et services ? Des transferts ? Quels types de biens publics ont-elles permis de produire (éducation, santé, défense…) ?

Le futur budget de l’État doit tenir compte de ces évolutions passées, des éventuels déséquilibres en résultant, tout en réalisant que ces choix budgétaires auront des impacts sur la croissance et les inégalités spécifiques à la dépense considérée.

Près de 30 milliards d’économies annoncées

Le projet de loi de finances actuellement discuté pour l’année 2026 prévoit 30 milliards d’euros d’économies, ce qui représente 1,03 % du PIB. Ces économies sont obtenues avec 16,7 milliards d’euros de réduction de dépenses (0,57 point de PIB), et 13,3 milliards d’euros de hausse de la fiscalité. Le déficit public, prévu à 5,6 % en 2025 (163,5 milliards d’euros pour 2025) ne serait donc réduit que de 18,35 %. Pour atteindre l’objectif de stabiliser la dette publique, il faudra amplifier cet effort les prochaines années pour économiser approximativement 120 milliards d’euros (4 points de PIB), soit quatre fois les économies prévues dans le PLF 2026.

Ces réductions à venir des dépenses s’inscrivent dans un contexte. En moyenne, dans les années 1990, les dépenses publiques représentaient 54 % du PIB. Dans les années 2020, elles avaient augmenté de 3 points, représentant alors 57 % du PIB, soit une dépense annuelle additionnelle de 87,6 milliards d’euros, ce qui représente plus de cinq fois les économies inscrites dans le PLF pour 2026. Depuis 2017, ces dépenses ont augmenté d’un point de PIB, soit une hausse annuelle de 29,2 milliards d’euros (1,75 fois plus que les économies du PLF 2026). Étant données ces fortes hausses passées, des réductions de dépenses sont possibles sans remettre en cause le modèle social français. Mais, quelles dépenses réduire ?


À lire aussi : L’endettement de l’État sous Chirac, Sarkozy, Hollande, Macron… ce que nous apprend l’histoire récente


De plus en plus de transferts sociaux

Chaque poste de dépense se compose d’achats de biens et services (B & S) utilisés par l’État (au sens large, c’est-à-dire l’ensemble des administrations publiques centrales, locales et de sécurité sociale) pour produire, de salaires versés aux agents, et de transferts versés à la population. Quel poste a fortement crû depuis 1995 ?

Le tableau 1 montre qu’en 1995, 40,2 % des dépenses étaient des transferts (soit 22,05 points de PIB), 35,5 % des achats de B & S (soit 19,45 points de PIB) et 24,3 % des salaires (soit 13,33 points de PIB). En 2023, 44,1 % étaient des transferts (+ 3,06 points de PIB), 34,5 % des achats de B & S (- 0,15 point de PIB) et 21,4 % des salaires (- 1,07 points de PIB). Le budget s’est donc fortement réorienté vers les transferts. Les dépenses consacrées aux salaires ont évolué moins vite que le PIB, le poids de ces rémunérations dans les dépenses baissant fortement.

Lecture : En 1995, les transferts représentaient 22,05 points de PIB, soient 40,2 % des dépenses totales. Le chiffre entre parenthèses indique la part de cette dépense dans les dépenses totales. Δ : différence entre 2023 et 1995 en points de PIB et le chiffre entre parenthèses l’évolution de la part.

L’État a donc contenu ces achats de B & S et réduit sa masse salariale, quand bien même les effectifs croissaient de plus de 20 % (données FIPECO). Simultanément, l’emploi salarié et non salarié du secteur privé augmentait de 27 % (données Insee). Des effectifs augmentant moins que dans le privé et une part de la production de l’État dans le PIB progressant révèlent une plus forte hausse de la productivité du travail du secteur public. Mais, ceci ne s’est pas traduit par une augmentation des rémunérations du public. Au contraire, l’écart de salaire entre le public et le privé s’est fortement réduit sur la période, passant de +11,71 % en 1996 en faveur du public (données Insee (1999) pour le public et Insee (1997) pour le privé), à 5,5 % en 2023 (données Insee (2024a) pour le privé et Insee (2024b) pour le public).

Cette première décomposition montre que l’organisation de la production de l’État (achat de B & S et salaires) n’a pas dérivé, mais que les hausses des dépenses de redistribution (+ 3,06 points de PIB en trente ans) ont fortement crû. Ces hausses de transferts correspondent aux trois quarts des économies nécessaires à la stabilisation de la dette publique.

De moins en moins d’argent pour les élèves et la défense

Les dépenses de l’État se décomposent en différents services, c'est-à-dire, en différentes fonctions (l'éducation, la défense, la protection sociale…). La figure 1 montre que les dépenses des services généraux, d’éducation et de la défense ont crû moins vite que le PIB depuis 1995 (surface rouge). En effet, leurs budgets en points de PIB ont respectivement baissé de 2,14 points, 0,78 point et 0,68 point de PIB. Si la baisse du premier poste peut s’expliquer, en partie, par la rationalisation liée au recours aux technologies de l’information, et la seconde par l’arrêt de la conscription, celle de l’éducation est plus surprenante.

Elle l’est d’autant plus que Aubert et al. (2025) ont montré que 15 % de ce budget incluait (soit 0,75 point de PIB) des dépenses de retraites qu’il « faudrait » donc réallouer vers les pensions pour davantage de transparence. La croissance constante de cette contribution aux pensions dans le budget de l’éducation indique que les dépenses consacrées aux élèves sont en forte baisse, ce qui peut être mis en lien avec la dégradation des résultats des élèves de France aux tests de type Pisa. Enfin, dans le contexte géopolitique actuel, la baisse du budget de la Défense peut aussi sembler « peu stratégique ».

Lecture : En 1995, les dépenses de protection sociale représentaient 21,41 points de PIB, dont 18,14 points de PIB en transferts, 1,16 point en salaires et 2,11 points en B&S ; en 2023, elles représentaient 23,33 points de PIB dont 20,16 points, 1,12 point en salaire et 2,0 points en B&S.

De plus en plus pour la santé et la protection sociale

La surface verte de la figure 1 regroupe les fonctions qui ont vu leurs budgets croître plus vite que le PIB, de la plus faible hausse (ordre public/sécurité, avec + 0,24 point de PIB) aux plus élevées (santé, + 1,72 point de PIB, et protection sociale, + 1,92 point de PIB). Ces deux postes de dépenses représentent 65,3 % des hausses. Viennent ensuite les budgets sport/culture/culte, environnement et logement qui se partagent à égalité 24 % de la hausse totale des dépenses (donc approximativement 8 % chacun). Enfin, les budgets des affaires économiques et de l’ordre public/sécurité expliquent les 10,7 % restant de hausse des dépenses, à hauteur de 6,4 % pour le premier et 4,3 % pour le second.

Si l’on se focalise sur les plus fortes hausses, c’est-à-dire, la santé et la protection sociale, les raisons les expliquant sont différentes. Pour la protection sociale, les dépenses de fonctionnement sont quasiment stables (B&S et salaires) alors que les prestations sont en forte hausses (+ 2 points de PIB). Les dépenses de santé voient aussi les prestations offertes croître (+ 1 point de PIB), mais se caractérisent par des coûts croissants de fonctionnement : + 0,6 point pour les B&S, et + 0,12 point de PIB pour les salaires des personnels de santé, alors que les rémunérations baissent dans le public, ceux des agents de l’éducation, par exemple, passant de 4,28 à 3,47 points de PIB (-0,81 points de PIB).

Dans la protection sociale, de plus en plus pour la maladie et les retraites

La protection sociale, premier poste de dépense (23,33 % du PIB), regroupe différentes sous-fonctions représentées dans la figure 2. À l’exception des sous-fonctions maladie/invalidité (+ 0,07 point de PIB), exclusion sociale (+ 0,43 point du PIB) et pensions (+ 2,41 points de PIB), les budgets de toutes les sous-fonctions de la protection sociale ont vu leur part baisser (surface en rouge). Les réformes des retraites ont donc été insuffisantes pour éviter que les pensions soient la dépense en plus forte hausse.

Enfin, si on ajoute aux dépenses de santé la partie des dépenses de protection sociale liée à la maladie et à l'invalidité (voir la figure 2), alors ces dépenses globales de santé ont crû de 1,79 point de PIB entre 1995 et 2023.

Quels enseignements tirer ?

Ces évolutions suggèrent que les budgets à venir pourraient cibler les économies sur les dépenses de santé et les pensions, ces deux postes ayant déjà fortement crû dans le passé. Évidemment, une partie de ces hausses est liée à l’inévitable vieillissement de la population. Mais une autre vient de l’augmentation des prestations versées à chaque bénéficiaire. Par exemple, la pension de retraite moyenne est passée de 50 % du salaire moyen dans les années 1990 à 52,3 % en 2023. Le coût de la prise en charge d’un infarctus du myocarde est passé de 4,5 Smic dans les années 1990 à 5,6 Smic dans les années 2020

France 24, octobre 2025.

En revanche, un rattrapage portant sur l’éducation et la Défense semble nécessaire au vu du sous-investissement passé et des défis à venir. Les rémunérations des agents du public doivent aussi être reconsidérées. Le tableau 2 montre que le PLF 2026 propose des mesures répondant en partie a ce rééquilibrage en réduisant les dépenses de protection sociale et en particulier les pensions. Enfin, le PLF 2026 prévoit une hausse du budget de la défense, alors que la réduction de 8,6 milliards d’euros des budgets des fonctions hors défense et ordre public épargne l’éducation.

Au-delà de ces arguments de rééquilibrage, les choix budgétaires doivent aussi reposer sur une évaluation d’impact sur l’activité (croissance et emploi). Les analyses de Langot et al. (2024) indiquent que les baisses de transferts indexés sur les gains passés (comme les retraites) peuvent avoir un effet positif sur la croissance, facilitant alors la stabilisation de la dette publique, au contraire des hausses des prélèvements.

Privilégier la production des biens publics aux dépens des transferts se justifie aussi au regard des enjeux géopolitiques et climatiques, et permet également de réduire les inégalités (voir André et al. (2023)).

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

30.10.2025 à 15:56

Bad Bunny au Super Bowl : une polémique emblématique des États-Unis de Donald Trump

Ediberto Román, Professor of Law, Florida International University

Ernesto Sagás, Professor of Ethnic Studies, Colorado State University

Détracteur de Donald Trump, le rappeur portoricain se produira à la mi-temps du Super Bowl 2026, au grand dam de nombreux représentants du camp républicain.
Texte intégral (1887 mots)

La présence de Bad Bunny à la mi-temps du Super Bowl 2026 suscite une levée de boucliers dans les rangs trumpistes. L’artiste, né à Porto Rico – territoire disposant d’un statut spécifique, dont les habitants sont citoyens des États-Unis mais ne peuvent pas voter à l’élection présidentielle et ne disposent pas de représentants au Congrès –, devient malgré lui le symbole d’un système qui célèbre la culture latino tout en la réprimant à ses marges. Au moment où les abus de la police de l’immigration (ICE) alimentent la peur parmi les Hispaniques, l’apparition du rappeur sur la scène la plus médiatisée du pays met en évidence les contradictions du rapport des États-Unis à cette large communauté.


La désignation du rappeur portoricain Bad Bunny par la National Football League (NFL) pour effectuer un court concert lors de la mi-temps du Super Bowl 2026, le 8 février prochain, a déclenché les foudres des médias conservateurs et de plusieurs membres de l’administration Trump.

Alors que le président a qualifié ce choix d’« absolument ridicule », la secrétaire à la sécurité intérieure, Kristi Noem, a promis que des agents de la police de l’immigration (ICE) « seraient présents partout au Super Bowl ». Le célèbre commentateur de droite Benny Johnson a déploré dans un tweet posté sur X que le répertoire du rappeur ne contienne « aucune chanson en anglais », tandis que la polémiste Tomi Lahren a déclaré que Bad Bunny n’était pas états-unien.

Bad Bunny, né Benito Antonio Martínez Ocasio, est une superstar et l’un des artistes les plus écoutés au monde. Et comme il est portoricain, il est également citoyen des États-Unis.

Il est certain que Bad Bunny coche de nombreuses cases qui irritent les conservateurs. Il a apporté son soutien à Kamala Harris pour la présidence en 2024. Il a critiqué les politiques anti-immigration de l’administration Trump. Il a refusé d’effectuer une tournée sur le continent américain, craignant que certains de ses fans ne soient pris pour cible et expulsés par l’ICE. Et ses paroles explicites – dont la plupart sont en espagnol – feraient frémir même les plus ardents défenseurs de la liberté d’expression. Sans même parler de sa garde-robe androgyne.

Et pourtant, en tant qu’experts des questions d’identité nationale et des politiques d’immigration des États-Unis, nous pensons que les attaques de Lahren et Johnson touchent au cœur même de la raison pour laquelle le rappeur a déclenché une telle tempête dans les rangs de la droite. Le spectacle d’un rappeur hispanophone se produisant lors de l’événement sportif le plus regardé à la télévision états-unienne constitue en soi une remise en cause directe des efforts déployés par l’administration Trump pour masquer la diversité du pays.

La colonie portoricaine

Bad Bunny est né en 1994 à Porto Rico, un « État libre associé » aux États-Unis, rattaché à ces derniers après la guerre hispano-américaine de 1898.

Cette terre est le foyer de 3,2 millions de citoyens états-uniens de naissance. Si le territoire était un État fédéré des États-Unis, il serait le 30e le plus peuplé par sa population, d’après le recensement de 2020.

Mais Porto Rico n’est pas un État ; c’est une colonie issue de l’époque révolue de l’expansion impériale américaine outre-mer. Les Portoricains n’ont pas de représentants votant au Congrès et ne peuvent pas participer à l’élection du président des États-Unis. Ils sont également divisés sur l’avenir de l’île. Une grande majorité souhaite soit que Porto Rico devienne un État états-unien, ou obtienne un statut amélioré par rapport à l’actuel, tandis qu’une minorité plus réduite aspire à l’indépendance.

Mais une chose est claire pour tous les Portoricains : ils viennent d’un territoire non souverain, avec une culture latino-américaine clairement définie – l’une des plus anciennes des Amériques. Porto Rico appartient peut-être aux États-Unis ; et de nombreux Portoricains apprécient cette relation privilégiée, mais l’île elle-même ne ressemble en rien aux États-Unis, ni dans son apparence ni dans son atmosphère.

Les plus de 5,8 millions de Portoricains qui résident dans les 50 États compliquent encore davantage le tableau. Bien qu’ils soient légalement citoyens des États-Unis, les autres États-Uniens ne les considèrent souvent pas comme tels. En effet, un sondage réalisé en 2017 a révélé que seuls 54 % des États-Uniens savaient que les Portoricains étaient citoyens du même pays qu’eux.

Le paradoxe des citoyens étrangers

Les Portoricains vivent dans ce que nous appelons le « paradoxe des citoyens étrangers » : ils sont citoyens des États-Unis, mais seuls ceux qui résident sur le continent jouissent de tous les droits liés à la citoyenneté.

Un rapport récent du Congrès américain a conclu que la citoyenneté états-unienne des Portoricains « n’est pas une citoyenneté égale, permanente et irrévocable protégée par le 14e amendement […] et le Congrès conserve le droit de déterminer le statut du territoire. » Tout citoyen états-unien qui s’installe à Porto Rico ne jouit plus des mêmes droits que les citoyens états-uniens du continent.

La désignation de Bad Bunny pour le spectacle de la mi-temps du Super Bowl illustre bien ce paradoxe. Outre les critiques émanant de personnalités publiques, il y a eu de nombreux appels parmi les influenceurs pro-Trump à expulser le rappeur.

Ce n’est là qu’un exemple parmi d’autres qui rappelle aux Portoricains, ainsi qu’aux autres citoyens latino-américains, leur statut d’« autres ».

Les arrestations par l’ICE de personnes semblant être des immigrants – une tactique qui a récemment reçu l’aval de la Cour suprême – illustre bien leur statut d’étrangers.

La plupart des raids de l’ICE ont eu lieu dans des communautés majoritairement latino-américaines à Los Angeles, Chicago et New York. Cela a contraint de nombreuses communautés latino-américaines à annuler les célébrations du Mois du patrimoine hispanique.

Clip du titre « NUEVAYoL » issu du dernier album de Bad Bunny. Sorti en ligne le 4 juillet 2025, jour de la fête nationale des États-Unis, il enregistre plus de 43 millions de vues.

L’impact mondial de Bad Bunny

La vague de xénophobie contre Bad Bunny a poussé des responsables politiques comme le président de la Chambre des représentants Mike Johnson à réclamer son remplacement par une personnalité « plus appropriée » pour le Super Bowl, comme l’artiste de musique country Lee Greenwood, 83 ans, supporter de Donald Trump. À propos de Bad Bunny, Johnson a déclaré : « Il semble qu’il ne soit pas quelqu’un qui plaise à un large public. »

Mais les faits contredisent cette affirmation. L’artiste portoricain occupe la première place des classements musicaux mondiaux. Il compte plus de 80 millions d’auditeurs mensuels sur Spotify. Et il a vendu près de cinq fois plus d’albums que Greenwood.

Cet engouement mondial a impressionné la NFL, qui organise sept de ses rencontres à l’étranger cette saison et souhaite encore accroître ce nombre à l’avenir. De plus, les Latino-Américains représentent la base de fans qui connaît la plus forte croissance au sein de la ligue, et le Mexique est son plus grand marché international, avec 39,5 millions de fans selon les chiffres publiés.

La saga « Bad Bunny au Super Bowl » pourrait bien devenir un moment politique important. Les conservateurs, dans leurs efforts pour mettre en avant « l’altérité » de Bad Bunny – alors que les États-Unis sont l’un des premiers pays hispanophones au monde – ont peut-être involontairement sensibilisé les États-Uniens au fait que les Portoricains étaient leurs concitoyens.

Pour l’heure, les Portoricains et le reste de la communauté latino-américaine des États-Unis continuent de se demander quand ils seront acceptés comme des égaux sur le plan social.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

30.10.2025 à 15:52

Le cinéma d’horreur, miroir de nos angoisses contemporaines

Jean-Baptiste Carobolante, Professeur d'histoire et théorie de l'art, ESA / École Supérieure d'Art / Dunkerque - Tourcoing

Alors que le cinéma d’horreur des décennies précédentes était encore un cinéma globalement centré sur le monstre, celui du XXIᵉ siècle met en scène une puissance abstraite de destruction.
Texte intégral (1976 mots)
Dakota Fanning dans _Vicious_ (2025), de Bryan Bertino. Allociné

Alors que nous traversons une époque de plus en plus troublée, un constat s’impose : le cinéma d’horreur, lui, se porte à merveille. Ce succès n’a rien d’anodin : il reflète la manière dont les inquiétudes sociétales, toujours plus prégnantes, trouvent dans l’horreur un terrain d’expression privilégié, un miroir révélateur de nos angoisses collectives.


Ces dernières années ont vu émerger nombre de films et de séries rencontrant un véritable engouement, tandis que certains réalisateurs – comme Jordan Peele, Ari Aster ou Jennifer Kent – sont devenus des auteurs plébiscités, voire des figures incontournables du genre.

Les racines du cinéma d’horreur actuel se trouvent dans les productions hollywoodiennes des années 1970. À ce sujet, le critique Jean-Baptiste Thoret relevait que le cinéma de l’époque fut déterminé par la généralisation de la télévision dans les foyers, et de son nouveau registre d’images. Les horreurs du monde extérieur étaient ainsi présentées tous les soirs dans les salons familiaux.

La guerre du Vietnam, les émeutes réprimées de manière sanglante – notamment les sept « émeutes de Watts » aux États-Unis en août 1965 –, les faits divers lugubres s’introduisaient dans le quotidien de tous les Américains, puis de tous les Occidentaux. Le cinéma de possession, l’Exorciste (William Friedkin, 1973), mais aussi les slashers et leurs tueurs barbares arpentant les paisibles zones pavillonnaires (la Dernière Maison sur la gauche, Wes Craven, 1972) en sont des exemples probants : les peurs de la destruction du soi intime et de l’espace domestique furent liées à cette obsession pour un « mal intérieur » que diffusait, incarnait et répandait l’écran de télévision.

Mais c’est aussi, bien sûr, le cinéma de zombies (la Nuit des morts-vivants, George A. Romero, 1968) au postulat très simple : les morts viennent harceler les vivants ; ou, en termes cinématographiques, le hors-champ vient déborder dans le champ. De fait, la décennie posa des bases horrifiques qui sont toujours valides aujourd’hui.

Le cinéma d’horreur est un registre qui tourne toujours autour d’un même sujet : les frontières (d’un monde, d’un pays, d’une maison, d’un corps) sont mises à mal par une puissance insidieuse, puissante, voire surnaturelle.

Le XXIᵉ siècle et la peur des images

Notre siècle se situe de fait dans la continuité des années 1970 qui ont posé les bases du genre. Nous pouvons définir quatre grandes peurs qui traversent toutes les productions horrifiques actuelles : la question du contrôle politique, de son efficience et de ses abus ; la question de l’identité et de la différence ; celle de la violence, de l’agression, voire de la torture ; et, enfin, la peur des médias et de la technologie.

La peur politique est au cœur de nombreuses productions horrifiques. C’est notamment le cas de la saga American Nightmare (James DeMonaco, 2013–2021) qui nous présente une société américaine fondamentalement dysfonctionnelle en raison de ses orientations politiques : une nuit par an, afin de « purger » la société, toutes les lois sont suspendues. Le troisième volet, The Purge : Election Year (James DeMonaco, 2016), ne s’y trompait pas en détournant la casquette du mouvement MAGA sur son affiche promotionnelle.

Mais l’horreur des choix politiques se trouve également au cœur des films apocalyptiques et postapocalyptiques. Qu’ils mettent en scène des zombies, des épidémies ou des extra-terrestres, l’horreur provient bien souvent de l’incapacité institutionnelle à répondre au mal, puis de la violence fondamentale avec laquelle les sociétés se reconstituent ensuite. C’est notamment le cas dans la série The Walking Dead (Frank Darabont, 2010–2022), qui nous présente tout un répertoire de modes de vie collective, en majorité profondément inégalitaires, voire cruelles.

Les questions identitaires, elles, relèvent de l’horreur politique lorsque les films prennent le racisme comme sujet. On retrouve cet aspect dans Get Out (Jordan Peele, 2017), dans lequel de riches Blancs s’approprient les corps d’Afro-Américains afin de s’offrir une seconde jeunesse. Mais c’est aussi le cas, de façon plus générale, du cinéma de possession, qui est toujours un cinéma traitant de problèmes identitaires, du rapport à soi, voire de folie ou de dépression. Possédée (Ole Bornedal, 2012), Mister Babadook (Jennifer Kent, 2014), ou encore Heredité (Ari Aster, 2018) mettent tous en scène des individus combattant un démon – ou une entité maléfique – pour retrouver un sens à leur vie et une stabilité identitaire.

La peur de la violence est peut-être la réponse cinématographique la plus directe aux faits divers qui ont envahi les médias depuis plusieurs décennies. Faits divers ayant même donné naissance à des sous-genres cinématographiques autonomes. Le « torture porn » – illustré par les sagas Saw (depuis 2004), Hostel (2005–2011) et The Human Centipede (Tom Six, 2009–2016), par exemple – est un type de film dont l’objet est la représentation de tortures physiques et/ou psychologiques infligées par un maniaque (ou un groupuscule puissant) à des individus malchanceux. Le « rape and revenge » (« viol et vengeance »), quant à lui, représente, comme son nom l’indique, de jeunes femmes violentées qui prennent leur revanche sur leurs agresseurs, souvent de manière sadique. C’est le cas de films comme Revenge (Coralie Fargeat, 2017) ou la saga I Spit on Your Grave (2010–2015).

Enfin, le dernier territoire que nous mentionnons a fini, selon nous, par englober tous les autres. À notre époque, toute peur est liée à la manière dont nous nous représentons le monde, l’Autre et nous-mêmes, sous la forme d’un simulacre ou via un dispositif technologique intercesseur.

Le réel s’offre à nous à travers des filtres technologiques. Ainsi, c’est toujours à l’écran – télévision, ordinateur ou smartphone – de « rendre réel », de définir ce qui est vrai, et de nous offrir des expériences. Or, nous courons toujours le risque que ces systèmes de représentation abusent de nous et deviennent, à leur tour, oppressants. C’est le postulat même du registre horrifique du « found footage », depuis le Projet Blair Witch (Daniel Myrick et Eduardo Sánchez, 1999), en passant par les sagas Paranormal Activity (2007–2021), REC (2007–2014), ou encore Unfriended (Levan Gabriadze, 2014). Ces films, prenant l’aspect et la forme d’archive retrouvée – bien souvent domestique ou policière –, peuvent centrer leurs récits aussi bien autour de spectres, de tueurs en série ou d’extra-terrestres, car c’est le dispositif d’image lui-même, plus que le monstre, qui crée la matière horrifique.

L’inéluctabilité du mal

Deux phénomènes nouveaux semblent, toutefois, se dégager depuis quelques années. Le premier, par son absence relative dans le cinéma d’horreur, et le second, par son omniprésence.

Il s’agit tout d’abord du cataclysme écologique, que l’on retrouve de façon prégnante dans le cinéma de science-fiction, mais très peu dans les films d’horreur. Cette absence, plutôt que de témoigner d’une incapacité de représentation, relève peut-être d’un enjeu trop mondial pour être abordé par un genre finalement plus attaché à des parcours intimes, à des trajectoires d’individus confrontés à l’horreur, plutôt qu’à des horreurs sociétales.

Bien sûr, le cinéma de zombies ou d’apocalypse traite déjà en substance de cet effondrement civilisationnel, mais il faut que ce soit l’humain qui meure, et non le vivant, la nature ou l’environnement, pour que l’horreur devienne manifeste.

Quelques films, comme le long métrage français la Nuée (Just Philippot, 2020), tentent toutefois de poser la question d’une horreur humaine à partir d’une bascule environnementale. Notons également que la pandémie de Covid-19 n’a pas laissé de trace significative dans le genre horrifique. L’horreur pandémique est déjà présente au cinéma depuis les zombies de la fin des années 1960, lorsque la peur et la paranoïa suscitée par le confinement sont déjà figurées au cinéma à travers le motif de la maison hantée qui nous présente toujours des individus prisonniers d’un espace domestique devenu oppressant, voire létal.

Enfin, l’omniprésence actuelle que nous évoquions est certainement celle de l’inéluctabilité du mal. Alors que le cinéma d’horreur des décennies précédentes était encore un cinéma globalement centré sur le monstre (tueur, démon, alien, spectre, etc.), tangible et donc affrontable, notre époque contemporaine présente des antagonistes qui ne sont rien d’autre qu’une puissance abstraite de destruction.

Des films sortis cette année, comme les Maudites (El Llanto, Pedro Martin-Galero, 2024) ou Vicious (Bryan Bertino, 2025), représentent le mal comme une volonté omniprésente, omnipotente, qui dépasse et qui détruit tous les cadres de protection. La société, la famille, le réel volent en éclats ; et nous, spectatrices et spectateurs, ne pouvons que contempler la longue descente aux enfers d’individus voués au néant.

Ce motif horrifique ne nous semble pas anecdotique, tant il dit quelque chose de notre époque, de ses peurs, voire de son désespoir. Comme dans le cinéma expressionniste allemand des années 1930, une puissance a pris le contrôle de la société, et le cinéma d’horreur actuel semble se résigner à le laisser dramatiquement triompher.


Cet article est publié dans le cadre de la série « Regards croisés : culture, recherche et société », publiée avec le soutien de la Délégation générale à la transmission, aux territoires et à la démocratie culturelle du ministère de la culture.

The Conversation

Jean-Baptiste Carobolante ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

30.10.2025 à 15:52

Cinéma : le « slasher » chez Wes Craven, ou le retour du refoulé

Maxime Parola, Doctorant en Art, Université Côte d’Azur

Dans le « slasher », les victimes s’enchaînent dans une série de meurtres violents liés à des transgressions adolescentes.
Texte intégral (1507 mots)
Un détail de l’affiche des _Griffes de la nuit_ (_A Nightmare on Elm Street_, 1984), signée de Joseph Peak. Allociné

Apparu dans les années 1970, le « slasher » est une catégorie de film d’horreur répondant à une typologie très stricte et particulièrement codifiée. Si le réalisateur Wes Craven n’est pas à proprement parler à l’origine du genre, il y a contribué de façon significative au travers de plusieurs films dont les plus marquants sont sans conteste « les Griffes de la nuit » (1984), où apparaît la figure de Freddy Krueger, et « Scream » (1996) qui lancera la vague des « neo-slashers ».


Le slasher se définit par un certain nombre de figures imposées tant dans le type de personnages mis en scène que par l’histoire qu’il raconte. C’est toujours le récit d’un groupe d’adolescents ayant commis une faute, ou dont les parents ont commis une faute. Ils sont poursuivis par un tueur, systématiquement masqué et qui les tuera avec une arme blanche, toujours la même. Les victimes s’enchaînent alors dans une série de meurtres violents liés à des transgressions adolescentes (consommation de drogues, alcool, relation sexuelle, etc.).

L’héroïne du film, toujours une femme, qui elle n’a commis aucune transgression, affronte le tueur dans un dernier face à face dont elle sortira victorieuse. C’est l’iconique « final girl ». Le tueur, vaincu, laisse généralement entendre qu’il pourrait revenir par une ultime déclaration, un effet de surprise, voir une déclaration humoristique… À titre d’exemple la scène de fin de la Fiancée de Chucky (1998), quatrième volet de la saga, où la poupée tueuse déclare d’un air dépité à celle qui la menace d’une arme : « Vas-y tue moi, je reviens toujours… C’est juste que c’est chiant de mourir. »

Aux origines d’un sous-genre du film d’horreur

Le premier film à porter tous les codes du slasher est Halloween, la nuit des masques (1978), de John Carpenter. La célèbre scène de la douche dans Psychose (1960) en est peut-être la matrice : tous les codes du slasher y sont déjà réunis (une victime féminine poignardée à répétition par un ennemi sans visage). L’autre branche historique du slasher est celle du giallo italien et notamment le célèbre film la Baie sanglante (1971), de Mario Bava, qui porte déjà certains codes, comme les morts violentes et la sexualité.

Si Wes Craven ne rejoint formellement le genre qu’en 1984, son tout premier film, que certains qualifie de « proto-slasher », la Dernière Maison sur la gauche (1972) – lui même un remake du méconnu Jungfrukällan (la Source), d’Ingmar Bergman (1960) – avait posé certains éléments du genre parmi lesquels la violence exacerbée, le rapport entre meurtre et transgression sexuelle, et l’idée d’une héroïne féminine plus forte que ses agresseurs.

En 1984, Wes Craven sort les Griffes de la nuit. Si ce film respecte scrupuleusement tous les codes du genre, on peut voir aussi comment il les tord pour mieux les affirmer. Ainsi le tueur incarné par Freddy Krueger utilise une arme improbable, puisqu’il s’est fabriqué un gant en métal garni de lames de rasoir. Il ne porte pas non plus de masque, mais il a le visage gravement brûlé. La sexualité est présente chez toutes les victimes mais aussi dans le discours de Freddy, et dans son passé de tueur pédophile. C’est d’ailleurs la vengeance des habitants du quartier qui constitue la transgression originelle que les enfants doivent expier.

Il y a quelque chose de pourri au royaume du « slasher »

Dans Scream (1996) et dans les Griffes de la nuit, on retrouve l’idée d’un secret porté par les parents dont les conséquences retombent sur les enfants. Derrière le pavillon idéal d’Elm Street se cachent des meurtriers qui ont brûlé vif un homme et le dissimulent à leurs enfants, même après les premiers meurtres dans le quartier. Dans Scream, c’est plus prosaïquement les mœurs légères d’une mère de famille assassinée et le déni de sa fille vis-à-vis de ces transgressions qui font apparaître le tueur.

On voit qu’il y a dans ces deux cas l’idée d’une société des apparences qui serait en réalité pourrie, et on retrouve la critique du mode de vie américain déjà visible chez Stephen King, par exemple. Derrière un puritanisme d’apparence, se cachent les crimes que l’on dissimule à nos enfants.

Cette thématique récurrente dans le cinéma américain (dans un registre comique, il s’agit d’ailleurs du pitch de Retour vers le futur où un adolescent élevé par une mère stricte se retrouve renvoyé dans le passé pour découvrir qu’elle-même fut une adolescente très libérée) est un point structurant dans les films d’horreur américains et encore plus dans le slasher.

Cette interprétation politique du slasher se voie complétée par une autre interprétation plus universelle et psychanalytique. Par delà la question de l’hypocrisie parentale, c’est celle du refoulement du sexuel dans les sociétés issues des trois monothéismes qui est en jeu. Si la question de la sexualité, en tant qu’elle transforme le corps, peut être perçue universellement comme un sujet d’angoisse, elle ne devient une question morale que quand elle est associée à la notion d’interdit.

Le tueur masqué et sans visage est plus facilement reconnu à son arme qu’à sa tête. Or, l’arme blanche qu’il porte et qui le caractérise n’est-elle pas justement une métaphore phallique ? Le tueur sans visage est alors une allégorie du sexuel, masculin et intrusif, s’opposant à la figure de la jeune femme vertueuse. L’angoisse du spectateur devant l’antagoniste se conçoit alors comme la matérialisation d’une angoisse adolescente, celle de l’entrée dans la sexualité.

Un genre féministe ou conservateur ?

Entre la figure forte de la « final girl » et les transgressions sexuelles à l’origine des meurtres se pose la question récurrente du message porté par les slashers. Ambivalent par nature, il est difficile de dire du slasher s’il est féministe ou conservateur. En nous plaçant régulièrement derrière le masque du tueur, nous nous retrouvons dans la position de celui qui punit, prenant de fait le parti d’une morale conservatrice. Mais, d’un autre côté, on y découvre que la société présentée aux autres personnages comme vertueuse est le plus souvent pourrie par le secret et par le mensonge.

L’héroïne adolescente du film se voit alors prise entre deux mondes d’adultes aussi peu enviables l’un que l’autre et nous rappelle une autre figure culte du cinéma adolescent, dans un tout autre genre, celle de Pauline à la plage (1983), d’Éric Rohmer, où les tartufferies des adultes les décrédibilisent et font comprendre à Pauline qu’elle devra trouver son propre chemin loin des modèles et des figures imposées. Une « final girl » à la française pour ainsi dire…

The Conversation

Maxime Parola ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

30.10.2025 à 15:50

Gouvernement Lecornu : les enjeux d’une nouvelle décentralisation

Tommaso Germain, Chercheur en science politique, Sciences Po

Sébastien Lecornu souhaite relancer la décentralisation en redéfinissant les compétences des acteurs (État, régions, départements, métropoles, communes, intercommunalités…).
Texte intégral (2010 mots)

Sébastien Lecornu a donné jusqu’à ce 31 octobre aux élus locaux pour lui remettre des propositions relatives à la décentralisation. Alors qu’Emmanuel Macron a plutôt « recentralisé » depuis 2017, son nouveau premier ministre promet un « grand acte de décentralisation » visant à redéfinir le partage – souvent confus – des compétences entre les acteurs (État, régions, départements, métropoles, communes, intercommunalités…). Une telle ambition est-elle crédible alors que le gouvernement envisage un budget d’austérité impactant lourdement les collectivités territoriales ?


La décentralisation est l’un des principaux chantiers annoncés par le premier ministre Sébastien Lecornu avant sa démission du 6 octobre et qui a été réaffirmé dès la constitution de son second gouvernement. Depuis l’élection d’Emmanuel Macron à la présidence de la République en 2017, aucune loi n’a poursuivi les trois premiers actes de décentralisation (1982, 2004, 2015). Des formes d’organisation locales et hétérogènes se sont multipliées.

Dans sa déclaration de politique générale, le chef du gouvernement entend mettre fin à cette hétérogénéité en clarifiant le partage des compétences entre l’État et les collectivités. Mais une « rupture » avec la décentralisation telle qu’observée aujourd’hui est-elle possible ?

Décentraliser le pouvoir en France, une histoire longue

On sait que la France est un pays historiquement centralisé, des Capétiens à la monarchie absolue, de la révolution jacobine à la Ve République. L’État hérité de la féodalité est d’abord demeuré centré sur des fonctions dites « régaliennes » : l’armée, la fiscalité, la diplomatie, la police ou la justice, avec, en son cœur, un appareil administratif professionnalisé. À l’ère moderne, l’État s’adosse à la nation, et poursuit sa croissance indépendamment du régime politique (monarchie, république, empire). Il faut pourtant signaler que ce qu’on appelle « l’État-providence » s’est en grande partie développé localement, les initiatives territoriales étant parfois reprises et généralisées par le centre, dès le Second Empire et la IIIᵉ République, dans le domaine de l’assistance et de l’action sociale.

Pourtant, depuis plus de quarante ans, une politique de décentralisation est à l’œuvre. Les trois premières étapes ou premiers moments, que l’on appelle « actes » pour leur donner la puissance de l’action, ont profondément modifié le système de pouvoir et d’action publique. D’abord, au début des années 1980, des régions autonomes ont été créées et les échelons communaux et départementaux renforcés, ces trois collectivités disposant de conseils élus. La fonction publique territoriale est également créée.

En 2003-2004, le second acte a renforcé l’autonomie des collectivités tout en transférant certaines compétences, telle la politique sociale, transférée au département, pleinement responsable. D’aucuns y ont vu l’apparition d’un « département-providence ».

Quant au dernier acte en date, il remonte au quinquennat du socialiste François Hollande : regroupement des régions pour atteindre une taille critique, affirmation des métropoles, clarification du partage de compétences.

Parallèlement à ce processus, l’État n’a cessé de revoir son ancrage territorial, depuis les années 1990. La réforme de l’administration territoriale de l’État (dite RéATE), en 2007, a régionalisé l’action de l’État. À la suite de la crise des gilets jaunes (2018-2019), le gouvernement a déployé une réorganisation territoriale discrète, renforçant l’articulation interministérielle et le rôle du préfet.

En revanche, depuis 2017, la décentralisation n’a plus bougé. Emmanuel Macron n’en a pas fait un axe structurant de ses mandats – lesquels sont même perçus comme recentralisateurs.

Des formes locales très différentes ont finalement proliféré, questionnant le principe initial d’une République « une et indivisible ». Que l’on pense au sinueux bâtissage de la métropole du Grand Paris, aux spécificités des métropoles d’Aix-Marseille ou de Lyon, à la communauté européenne d’Alsace qui a uni, en 2021, deux départements historiques, aux intercommunalités rurales souvent indispensables, au regroupement de communes, au statut spécifique de la Corse intégrée depuis 1768 ou encore à Mayotte refondée en 2025 et à la Nouvelle-Calédonie, dont le statut est actuellement négocié.

Sébastien Lecornu a choisi de remettre en ordre cette nature proliférante, résultant à la fois de la réorganisation de l’État localement et de la décentralisation.

Une « rupture » dans le modèle de partage des compétences ?

Dans sa déclaration de politique générale, le premier ministre a assumé sa volonté de « rupture », clé de la légitimité de son gouvernement et des réformes nécessaires au redressement de la France. S’agit-il également d’une rupture avec l’arrêt de la décentralisation sous Emmanuel Macron ? Pour Sébastien Lecornu, la décentralisation ne doit plus suivre l’ancienne logique de rationalisation et de délégation. Il déclare ainsi :

« Je proposerai un principe simple, celui de l’identification d’un seul responsable par politique publique. Il s’agira soit d’un ministre, soit d’un préfet, soit d’un élu. Il ne faut pas décentraliser des compétences. Il faut décentraliser des responsabilités, avec des moyens budgétaires et fiscaux et des libertés, y compris normatives. »

Si le gouvernement semble tout adéquat pour les politiques régaliennes et les préfets pour leur déploiement, quels élus locaux seront responsables ? Le principe d’un décideur par politique publique imposerait de repenser l’ensemble de l’action publique – c’est un chantier pharaonique.

Car malgré les trois actes de décentralisation, les compétences ne sont pas à ce jour clairement réparties : quel citoyen pourrait clairement savoir à quel niveau de gouvernement s’adresser selon sa demande ? Le rapport Ravignon (2024) évoque une « grande confusion » des citoyens devant cette complexité. Il montre aussi que de nombreuses politiques publiques sont éclatées et dépendent parfois de trois acteurs ou plus, comme le tourisme, la culture ou le développement économique. Cela est également visible dans l’aménagement du territoire, où les évolutions dépendent de l’État, de la stratégie régionale et des départements, voire des intercommunalités et des communes.

Pour certaines politiques, on assiste même à une concurrence entre autorités publiques. Les communes (ainsi que certaines métropoles) disposent de la clause générale de compétences, qui leur permet de toucher à tout sujet dont elles souhaitent s’emparer. On les retrouve ainsi intervenant là où le font déjà l’État (logement, transition écologique…), les régions (développement économique, tourisme…) ou les départements (culture, insertion…).

Notons, par ailleurs, la montée en puissance des métropoles qui s’est faite de manière discrète, notamment par le biais des politiques d’aménagement. Créées en 2010 et généralisées en 2014, désormais au nombre de 21, elles tendent à devenir la nouvelle frontière de l’État-providence, c’est-à-dire l’espace où la modernisation du système social se réalise en regroupant un large éventail de compétences. C’est encore plus vrai lorsque les compétences sociales du département sont intégrées à cet éventail, comme dans le cas de Lyon ou de Paris.

On comprend mieux pourquoi le rapport Woerth de 2024 proposait de recentrer l’action des métropoles. Les compétences sociales, qui représentent une lourde charge, restent principalement à la charge des départements, expliquant souvent leurs problèmes financiers, comme dans le cas emblématique de la Seine-Saint-Denis, soutenue directement par l’État. Une clarification sur ce sujet deviendrait nécessaire, d’autant plus que les départements continuent d’investir le développement économique (pourtant responsabilité de la région depuis l’acte III de la décentralisation, en 2015).

Le regroupement de communes et d’intercommunalités mériterait également de se poursuivre, notamment en zone rurale. Si Matignon souhaite un recentrage de l’État sur les fonctions régaliennes, la question du retrait de l’État de politiques qu’il tend à réinvestir, comme l’urbanisme ou la lutte contre la pauvreté, se pose également. Cela supposera également de penser une nouvelle étape de déconcentration.

Enfin, certaines compétences méritent d’être mieux organisées pour faire face à des défis qui ne feront qu’augmenter dans les années et décennies à venir, à l’instar du grand âge. Mais une telle clarification ne saurait se faire sans base financière durable.

La décentralisation en contexte de crise budgétaire

Pour la première fois, le chantier de la décentralisation revient avec grande ambition, à l’heure de la crise budgétaire. Devant le Sénat, Sébastien Lecornu a affirmé que « le grand acte de décentralisation » s’inscrivait pleinement dans cette problématique financière, qui vient en justifier l’urgence également.

S’il y a « rupture », ce serait dans l’idée que seul un transfert massif « des responsabilités » aux collectivités pourra garantir la hausse des moyens des fonctions régaliennes de l’État, alors que l’effort financier demandé aux collectivités représente au moins 4,6 milliards d’euros selon le gouvernement, mais jusque 8 milliards d’euros selon les élus locaux. Face à cet impératif budgétaire, une décentralisation poussée, de « rupture » est-elle envisageable ? Le projet de loi à venir, vraisemblablement début 2026, saura éclairer ces aspects.

The Conversation

Tommaso Germain ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

30.10.2025 à 15:49

L’intelligence peut-elle être expliquée par la génétique et l’épigénétique ?

Corinne Augé, Professeur en génétique moléculaire et biotechnologie, Université de Tours

Stéphane Mortaud, Professeur neurosciences, CNRS, Université d’Orléans

Quelle est la part de l’environnement, en particulier social, de l’épigénétique et de la génétique dans les manifestations de l’intelligence (ou des intelligences) chez l’enfant et chez l’adulte ?
Texte intégral (2210 mots)

Quelle est la part de l’environnement, en particulier social, de l’épigénétique et de la génétique dans les manifestations de l’intelligence (ou des intelligences) chez l’enfant et chez l’adulte ?


Le cerveau humain est un organe fascinant, complexe et remanié en permanence. Au cours du développement de l’embryon, il se développe selon un programme génétique précis. Les cellules souches se divisent, migrent et se différencient en différents types de neurones pour former les réseaux neuronaux qui sous-tendront toutes nos fonctions cognitives, émotionnelles, comportementales et motrices.

Les mécanismes épigénétiques, c’est-à-dire les mécanismes par lesquels une cellule contrôle le niveau d’activité de ses gènes, jouent ici un rôle majeur : méthylation de l’ADN, modification des histones (protéines) et ARN non codants vont soit activer soit réprimer, à la fois dans l’espace et au cours du temps, les gènes nécessaires à la formation et à la migration des neurones, puis à la formation des synapses.

Tandis que le cerveau se construit, chaque neurone reçoit ainsi un ensemble de marques épigénétiques qui déterminent son identité, son activité et sa connectivité aux autres neurones. Ce profil épigénétique, spécifique à chaque type de neurone, se met en place en fonction de signaux environnementaux : contexte hormonal, présence de facteurs morphogéniques (les protéines qui contrôlent la place et la forme des organes), activité électrique naissante. La moindre perturbation peut altérer, cette programmation fine, très sensible non seulement à l’environnement intra-utérin, mais aussi à l’alimentation, voire aux émotions de la future maman.

Des substances comme l’alcool, les drogues, certains médicaments, tout comme les carences alimentaires, peuvent avoir des conséquences durables sur le développement cognitif et émotionnel de l’enfant à naître. Pourquoi ? Parce que les neurones, contrairement à toutes les autres cellules de l’organisme, ne se renouvellent pas. Nous « fonctionnerons » toute notre vie avec les neurones fabriqués in utero.

Le cerveau adulte conserve en réalité une certaine capacité à produire de nouveaux neurones, mais celle-ci est en fait très limitée : jusqu’à 700 neurones par jour. Une goutte d’eau à côté des quelque 86 milliards de neurones qui forment notre cerveau ! Pourtant, cette goutte d’eau joue un rôle crucial. Ces nouveaux neurones vont s’intégrer dans des circuits déjà existants, notamment de l’hippocampe, une structure impliquée dans l’apprentissage et la mémoire. Ce processus participe à la plasticité cérébrale, à la capacité du cerveau à s’adapter aux expériences et à l’environnement.

Pour peu qu’on le fasse travailler, le cerveau continue donc de se construire et surtout de se modifier après la naissance, et ce, durant toute la vie de l’individu… Les mécanismes épigénétiques jouent un rôle important dans ces processus.

L’intelligence, un construit théorique multidimensionnel

Quand on évoque le fonctionnement du cerveau, la première chose qui nous vient à l’esprit est l’intelligence. Dans l’acception populaire, un cerveau performant est un cerveau intelligent. Mais qu’entend-on par là ?

Malgré plus d’un siècle de recherches, l’intelligence reste un concept difficile à définir de manière consensuelle. En 1986, les psychologues américains Sternberg et Detterman demandent à une vingtaine d’experts en psychologie et en sciences cognitives de proposer leur propre définition de l’intelligence. Résultat : aucune définition ne fait consensus, bien que des points de convergence se dessinent autour de l’idée d’adaptation, de résolution de problèmes et d’apprentissage. La tradition psychométrique (l’ensemble des tests et mesures pratiqués en psychologie), dominante au XXe siècle, a réduit l’intelligence à un facteur unique (g) mesuré par différents tests, dont celui de quotient intellectuel (QI).

Bien que ces tests aient une valeur prédictive pour certaines performances scolaires ou professionnelles, ils négligent des dimensions que sont la créativité, les compétences sociales ou émotionnelles. Face à ces limites, des modèles alternatifs ont été proposés.

Ainsi, Gardner a introduit la notion d’intelligences multiples, suggérant l’existence de formes distinctes d’intelligence (logico-mathématique, musicale, interpersonnelle), ou encore Sternberg, qui a développé une théorie triarchique, distinguant intelligences analytiques, créatives et pratiques. Enfin, Goleman a popularisé l’idée d’intelligence émotionnelle, aujourd’hui largement reconnue pour son rôle dans la réussite sociale et professionnelle.

En somme, l’intelligence est un construit théorique multidimensionnel, dont les définitions varient selon les cultures, les disciplines et les objectifs de mesure, mais elles partagent toutes l’idée d’une acquisition ou amélioration de capacités cognitives, spécifiques à chaque type d’intelligence. Les neurosciences cognitives ont aidé à mieux localiser certaines fonctions associées à l’intelligence, mais elles n’ont identifié aucun « centre de l’intelligence » unique dans le cerveau. Les capacités cognitives reposent sur des réseaux distribués, complexes et encore imparfaitement compris.

D’un point de vue scientifique, il semble utile de poser certaines questions : l’intelligence a-t-elle des bases génétiques ? Quelle est la part de l’environnement, en particulier social, de l’épigénétique, dans ses manifestations chez l’enfant et chez l’adulte ? Selon leur discipline, les chercheurs sont enclins à défendre soit une théorie environnementale (pour les sociologues) soit une théorie génétique de l’intelligence, que parfois ils opposent.

Les travaux en la matière ne sont pas neutres, puisqu’ils influencent les politiques publiques en matière d’éducation, après être passés par la moulinette des idéaux politiques de leurs instigateurs.

Que nous apprend la littérature scientifique ?

En tant que phénotype, l’intelligence est définie par les généticiens (de façon assez restrictive) comme une capacité mentale très générale qui inclut le raisonnement, la planification, la résolution de problèmes, la pensée abstraite, l’apprentissage rapide et la capacité à tirer des leçons de l’expérience. Afin d’évaluer cette capacité, on utilise le concept statistique d’intelligence générale (ou facteur g). Le facteur g représente la capacité cognitive commune à toutes les tâches mentales. Cela signifie qu’une personne performante dans un domaine cognitif (mémoire ou raisonnement) tend à l’être aussi dans d’autres. Le facteur g résume, ou mesure, cette covariation des performances.

Les études sur les jumeaux et sur les familles montrent que l’intelligence présente un taux d’héritabilité d’environ 50 %. Ce taux ne dit pas que l’intelligence est héritée à 50 %, mais que 50 % de ce qui fait varier l’intelligence est dû au génotype. Il soutient l’idée selon laquelle l’intelligence est en partie due à des effets génétiques. Un autre résultat complète ce propos, puisque le taux d’héritabilité de l’éducation passe de 29 % à 17 % lorsque les effets génétiques indirects (pour résumer, l’environnement créé par les parents) sont retirés du calcul, ou que l’on compare le taux d’héritabilité de l’éducation entre enfants adoptés et non adoptés. Cela soutient l’idée que l’environnement contribue aussi à la structure phénotypique de l’intelligence. En réalité, ces calculs devraient réconcilier sociologues et généticiens puisqu’ils disent que l’intelligence est à la fois génétique et environnementale, ce dont les généticiens que nous sommes sont absolument convaincus !

L’intelligence étant en partie déterminée par la génétique, la quête des gènes impliqués a commencé. Trois études génomiques (GWAS) ont identifié respectivement 187, 148 et 205 loci (des emplacements de gènes sur les chromosomes) potentiellement impliqués dans ce phénotype. Il est donc clair qu’il n’existe pas un gène de l’intelligence. Il existe un grand nombre de variantes génétiques indépendantes, chacune d’entre elles représentant une infime proportion de la variation de l’intelligence. Sans surprise, les variants génétiques associés aux résultats des tests d’intelligence sont des gènes liés à la neurogenèse, la différenciation des neurones et des oligodendrocytes (qui fabriquent la myéline) et surtout, la synapse.

La recherche sur les déficiences intellectuelles (DI), et la mise en évidence de gènes associés, est d’une grande aide dans cette quête génétique de compréhension de l’intelligence.

Les généticiens ont répertorié au moins 1 700 formes de déficience intellectuelle qui impliquent un gène majeur. Ces DI peuvent être associées ou non à d’autres syndromes (comme l’autisme). Or, l’épigénétique joue un rôle central dans la régulation de nombreux gènes impliqués dans la DI. Dans le syndrome de l’X fragile, le gène FMR1, qui code une protéine régulant la traduction locale d’ARNm au niveau des synapses – fonction essentielle à la communication neuronale – est éteint par hyperméthylation de son promoteur (le segment d’ADN qui contrôle l’expression du gène). Aucune mutation dans la partie codante du gène n’est observée, mais la protéine n’est plus produite. Les syndromes de Rett ou d’Angelman sont des modèles majeurs de DI épigénétiquement déterminée.

Enfin, il a été récemment montré que des ARN non codants (ne conduisant pas à la production d’une protéine) sont aussi responsables de cas de DI. Il s’agit de petits ARN impliqués dans la machinerie moléculaire qui permet la maturation des ARNm, afin qu’ils puissent, eux, être traduits en protéine. L’existence et l’importance de ces variants non codants ouvrent de nouvelles perspectives pour tous les malades dont la DI n’est pas expliquée par des mutations génétiques, soit environ 50 % des cas.

Le cerveau reste « plastique » tout au long de la vie, et les mécanismes épigénétiques sont des contributeurs forts de cette plasticité. Ils modulent l’expression des gènes impliqués dans la structuration et dans la réorganisation des circuits neuronaux.

Ainsi, nos connexions synaptiques évoluent constamment en fonction de ce que nous vivons, ressentons ou apprenons, permettant au cerveau de s’ajuster continuellement à son environnement. Cependant cette précieuse capacité d’adaptation peut être altérée. Lorsque les mécanismes épigénétiques sont déréglés (par l’âge, par le stress chronique, par l’inflammation…), la plasticité cérébrale s’affaiblit voire disparaît. Cette dégradation est impliquée dans le développement de maladies neurodégénératives (Alzheimer ou Parkinson), de troubles du neurodéveloppement (spectre autistique) et de certains cancers cérébraux. Les recherches récentes soulignent à quel point épigénétique et santé mentale sont étroitement intriquées.


Cet article est publié dans le cadre de la Fête de la science (qui a eu lieu du 3 au 13 octobre 2025), dont The Conversation France est partenaire. Cette nouvelle édition porte sur la thématique « Intelligence(s) ». Retrouvez tous les événements de votre région sur le site Fetedelascience.fr.

The Conversation

Corinne Augé a reçu des financements de l'INCa et La Ligue

Stéphane Mortaud ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

30.10.2025 à 15:44

Stabilité affichée, risques cachés : le paradoxe des (cryptoactifs) « stablecoins »

Céline Antonin, Chercheur à Sciences Po (OFCE) et chercheur associé au Collège de France, Sciences Po

Présentés comme des ponts entre la finance traditionnelle et l’univers des cryptoactifs, les stablecoins portent en germe la fragilisation de l’ordre monétaire et de l’ordre financier.
Texte intégral (2108 mots)
Les _stablecoins_ apparaissent comme un instrument de dollarisation et une menace pour la souveraineté monétaire des États, notamment ceux de la zone euro. Funtap/Shutterstock

Présentés comme des ponts entre la finance traditionnelle et l’univers des cryptoactifs, les « stablecoins » (jetons indexés) prétendent révolutionner la monnaie et la finance. Pourtant, ils portent en germe une double menace : la fragilisation de l’ordre monétaire, fondé sur la confiance, et de l’ordre financier, en créant de nouveaux canaux de risque.


Les « stablecoins » sont des « jetons qui ont pour objectif de pallier la forte volatilité des cryptoactifs traditionnels grâce à l’indexation de leur valeur sur celle d’une devise ou d’un panier de devises (dollar, euro, yen) dans un rapport de 1 : 1, ou encore sur une matière première (or, pétrole) » ainsi que nous l’expliquons dans notre ouvrage avec Nadia Antonin. Pour chaque unité de stablecoin émise, la société émettrice conserve en réserve une valeur équivalente, sous forme de monnaie fiduciaire ou d’actifs tangibles servant de garantie.

On peut distinguer trois types de stablecoins en fonction du type d’ancrage :

  • Les stablecoins centralisés, où l’ancrage est assuré par un fonds de réserve stocké en dehors de la chaîne de blocs (off chain).

  • Les stablecoins décentralisés garantis par d’autres cryptoactifs, où le collatéral est stocké sur la chaîne de blocs (on chain).

  • Les stablecoins décentralisés algorithmiques.

Fin octobre 2025, la capitalisation de marché des stablecoins atteint 312 milliards de dollars (plus de 269 milliards d’euros), dont 95 % pour les stablecoins centralisés. Nous nous concentrons sur ces derniers.

Genius Act vs MiCA

Concernant la composition des réserves, les réglementations diffèrent selon les pays. La loi Genius, adoptée par le Congrès des États-Unis en juillet 2025, dispose que chaque stablecoins de paiement doit être garanti à 100 % par des actifs liquides, principalement des dollars américains, des bons du Trésor ou des dépôts bancaires. Il prévoit également des rapports mensuels détaillés et un audit annuel obligatoire pour les grands émetteurs.

Dans l’Union européenne (UE), le règlement MiCA impose des conditions beaucoup plus strictes. Il exige que les actifs soient entièrement garantis par des réserves conservées dans des banques européennes et soumis à des audits indépendants au moins deux fois par an.

Stabilité du système monétaire fragilisée

Crypto-actifs. Une menace pour l’ordre monétaire et financier, par Céline et Nadia Antonin. Economica, Fourni par l'auteur

Bien que plus « stables » en apparence que d’autres cryptoactifs, les stablecoins échouent à satisfaire les trois principes qui, selon la littérature monétaire institutionnelle, définissent la stabilité d’un système monétaire : l’unicité, l’élasticité et l’intégrité.

Historiquement, le principe d’unicité garantit que toutes les formes de monnaie
– billets, dépôts, réserves… – sont convertibles à parité, assurant ainsi une unité de compte stable. Les stablecoins, émis par des acteurs privés et non adossés à la monnaie centrale, mettent fin à cette parité : leur valeur peut s’écarter de celle de la monnaie légale, introduisant un risque de fragmentation de l’unité monétaire.

Le principe d’élasticité renvoie à la capacité du système monétaire à ajuster l’offre de liquidités aux besoins de l’économie réelle. Contrairement aux banques commerciales, qui créent de la monnaie par le crédit sous la supervision de la banque centrale, les émetteurs de stablecoins ne font que transformer des dépôts collatéralisés : ils ne peuvent ajuster la liquidité aux besoins de l’économie.

Le principe d’intégrité suppose un cadre institutionnel garantissant la sécurité, la transparence et la légalité des opérations monétaires. Les stablecoins échappent à la supervision prudentielle, exposant le système à des risques de blanchiment, de fraude et de perte de confiance.

La question des réserves

L’existence et la qualité des réserves sont fragiles. Il faut garder à l’esprit que les actifs mis en réserve ne sont pas équivalents à la monnaie banque centrale : ils sont exposés aux risques de marché, de liquidité et de contrepartie.

Aux États-Unis, les émetteurs (comme Tether ou Circle) publient des attestations périodiques, mais ne produisent pas d’audit en temps réel. Rappelons qu’en 2021, Tether s’était vu infliger une amende de 41 millions de dollars (plus de 35 millions d’euros) par la Commodity Futures Trading Commission des États-Unis, pour avoir fait de fausses déclarations sur la composition de ses réserves. Les réserves sont souvent fragmentées entre plusieurs juridictions et déposées dans des institutions non réglementées.


À lire aussi : Où placer les stablecoins parmi les cryptoactifs ?


Le modèle économique des émetteurs de stablecoins repose sur la rémunération de leurs réserves. Il va de soi qu’ils n’ont aucun intérêt à détenir des actifs sûrs et à faible rendement. Imaginons que survienne une annonce qui sèmerait le doute sur la qualité des réserves. En l’absence d’accès aux facilités de la banque centrale ou à une assurance-dépôts, une perte de confiance se traduirait mécaniquement par une panique et un risque de perte d’ancrage.

Cette fragilité mine l’une des fonctions essentielles de la monnaie : la réserve de valeur.

Instrument de dollarisation et de colonisation monétaire

Les stablecoins apparaissent comme un instrument de dollarisation et une menace pour la souveraineté monétaire des États. En 2025, 99,0 % des stablecoins sont adossés au dollar en termes de capitalisation de marché. En diffusant des stablecoins adossés au dollar dans les économies émergentes ou faiblement bancarisées, les stablecoins favorisent une dollarisation numérique qui érode la souveraineté monétaire des banques centrales.

Pour l’UE, le risque est celui d’une colonisation monétaire numérique : des systèmes de paiement, d’épargne et de règlement opérés par des acteurs privés extra-européens. Les stablecoins conduisent également à une privatisation du seigneuriage – la perception de revenus liés à l’émission de monnaie, normalement perçus par la Banque centrale européenne (BCE). Les émetteurs de stablecoins captent la rémunération des actifs de réserve sans redistribuer ce rendement aux porteurs. Ce modèle détourne la fonction monétaire : la liquidité publique devient une source de profit privé, sans contribution à la création de crédit ou à l’investissement productif.

Risque de crise financière systémique

L’interconnexion entre stablecoins et finance traditionnelle accroît le risque systémique. En cas de perte de confiance, un mouvement de panique pourrait pousser de nombreux détenteurs à échanger leurs stablecoins, mettant en péril la capacité des émetteurs à rembourser. Or, les détenteurs ne sont pas protégés en cas de faillite, ce qui renforce le risque de crise systémique.

Le marché des stablecoins est très lié au marché de la dette souveraine états-unienne. La demande supplémentaire de stablecoins a directement contribué à l’augmentation des émissions de bons du Trésor à court terme (T-bills) aux États-Unis et à la baisse de leur rendement. La liquidation forcée de dizaines de milliards de T-bills perturberait le marché états-unien de la dette à court terme.

Risque de crédit et de fraude

Les stablecoins accroissent le risque de crédit, car comme les autres cryptoactifs, ils offrent un accès facilité à la finance décentralisée. Or, les possibilités d’effets de levier – autrement dit d’amplification des gains et des pertes – sont plus forts dans la finance décentralisée que dans la finance traditionnelle.

Mentionnons le risque de fraude : selon le Groupe d’action financière (Gafi), les stablecoins représentent désormais la majeure partie des activités illicites sur la chaîne de blocs, soit environ 51 milliards de dollars (44 milliards d’euros) en 2024.

Les stablecoins fragilisent la souveraineté des États, introduisent une fragmentation monétaire et ouvrent la voie à de nouvelles vulnérabilités financières. Pour l’Europe, l’alternative réside dans le développement d’une monnaie numérique de banque centrale, où l’innovation se conjugue avec la souveraineté. La vraie innovation ne réside pas dans la privatisation de la monnaie, mais dans l’appropriation par les autorités monétaires des outils numériques.


Cette contribution est publiée en partenariat avec les Journées de l’économie, cycle de conférences-débats qui se tiendront du 4 au 6 novembre 2025, au Lyon (Rhône). Retrouvez ici le programme complet de l’édition 2025, « Vieux démons et nouveaux mondes ».

The Conversation

Céline Antonin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

30.10.2025 à 15:41

« Shutdown » aux États-Unis : quel impact sur la natalité ?

Allane Madanamoothoo, Associate Professor of Law, EDC Paris Business School

Les fonctionnaires fédéraux au chômage technique et privés de salaire, les ménages bénéficiant d’aides sociales et les immigrés : autant de catégories qui pourraient voir leur natalité nettement baisser.
Texte intégral (2343 mots)

Le gel du fonctionnement du gouvernement fédéral des États-Unis, depuis le 1er octobre, se traduit notamment par la réduction de différentes aides sociales et par la suspension du versement des salaires de nombreux fonctionnaires. Alors que la natalité est déjà nettement inférieure au seuil de renouvellement des générations, ce contexte pesant pourrait pousser de nombreuses personnes à remettre à plus tard leur projet parental, voire à y renoncer purement et simplement. En outre, la situation actuelle accroît les risques en matière de santé maternelle et néonatale.


C’est un fait : la natalité aux États-Unis est en berne depuis plusieurs années, avec un taux de 1,6 enfant par femme, alors que le seuil de renouvellement des générations est estimé à environ 2,05 enfants par femme, hors immigration. Cette dénatalité s’explique dans une large mesure par les difficultés économiques : augmentation du coût de la vie et de l’éducation des enfants, prix excessifs des logements, des garderies et des assurances privées, remboursement des prêts d’études pendant plusieurs années, etc.

Donald Trump espère inverser la tendance grâce aux mesures financières incitatives contenues dans sa « grande et belle loi budgétaire » promulguée en juillet dernier, mais il faut rappeler que des mesures plus ou moins similaires n’ont pas eu l’effet escompté dans d’autres pays du monde. La politique nataliste de Trump a d’ailleurs fait l’objet de certaines critiques : elle favoriserait la reproduction des riches et des Blancs, au détriment des pauvres et des Noirs, avec un risque d’eugénisme, et creuserait les inégalités raciales en matière de richesse.

Le shutdown qui perdure depuis le 1er octobre aux États-Unis faute d’accord entre les républicains et les démocrates sur le budget fédéral pourrait accroître le déclin de la natalité dans le pays, conduisant certains à renoncer à leur projet parental ; plus grave encore, la mortalité maternelle et néonatale pourrait augmenter.

Chez les fonctionnaires fédéraux

Dans un contexte de shutdown, certains fonctionnaires fédéraux dont les activités sont jugées « non essentielles » sont mis au chômage technique avec leur salaire gelé, pendant que d’autres continuent de travailler. Les uns comme les autres sont rétroactivement rémunérés après le déblocage du shutdown.

En 2013, sous la présidence de Barack Obama, le shutdown avait duré 16 jours. Près de 800 000 fonctionnaires fédéraux avaient été placés au chômage technique. Neuf mois plus tard, la capitale américaine avait connu un pic de natalité, avec une hausse de 30 % des naissances par rapport à la normale à l’époque. Le taux de natalité resta toutefois en berne au niveau national.

Le shutdown qui se poursuit actuellement va-t-il générer un baby-boom, du moins chez les fonctionnaires fédéraux placés au chômage technique ?

Si près de 700 000 fonctionnaires fédéraux sont au chômage technique depuis le 1er octobre, la situation est plus tendue qu’en 2013 et qu'en décembre 2018-janvier 2019, quand le shutdown avait duré 35 jours.

La paralysie budgétaire qui s’étire depuis le 1er octobre est déjà plus longue que celle de 2013, et risque de durer plus longtemps que celle de 2018-2019, car chaque partie semble déterminée à camper sur ses positions. Faute de salaire, certains employés fédéraux sont déjà en situation de précarité et font appel à des banques alimentaires ou à des prêts pour payer leur loyer. Plus de 4 000 fonctionnaires fédéraux ont aussi reçu un avis de licenciement.

« “Shutdown” aux États-Unis : l’aide alimentaire suspendue à partir du mois de novembre », Euronews, 27 octobre 2025.

Pis : la Maison Blanche a annoncé qu’elle comptait en licencier plus de 10 000 si le shutdown se poursuivait. Bien qu’une juge fédérale ait temporairement bloqué ces licenciements, dans un tel climat d’inquiétude économique de nombreux fonctionnaires fédéraux pourraient différer leur projet parental, voire y renoncer.

Chez les bénéficiaires du programme « Women, Infants and Children »

WIC (Women, Infants and Children) est un programme fédéral d’aide alimentaire et d’éducation à la nutrition et à l’allaitement destiné aux ménages à faibles revenus, quelle que soit la nationalité des bénéficiaires. Il s’adresse aux femmes enceintes ou allaitantes, aux mères en période post-partum ainsi qu’aux enfants de moins de cinq ans présentant un risque de carence nutritionnelle, c’est-à-dire un risque lié à un déséquilibre alimentaire susceptible d’entraîner des problèmes de santé et des maladies.

Durant l’année fiscale 2024, près de 6,7 millions de femmes et d’enfants ont pu bénéficier, chaque mois, des services de ce programme.


À lire aussi : 2 in 5 US babies benefit from the WIC nutrition program


Mi-octobre, l’administration Trump a alloué au programme WIC 300 millions de dollars, en provenance des recettes douanières, afin d’assurer la continuité de son fonctionnement durant le shutdown. Selon la National WIC Association (NWA), ces fonds ne seront plus suffisants au 1ᵉʳ novembre. La NWA réclame 300 millions de dollars (soit, environ 259 millions d’euros) supplémentaires pour garantir la pérennité des différents services de WIC durant les deux premières semaines de novembre.

Et si le shutdown se prolongeait et WIC se retrouvait à court de fonds ?

Le département de la santé du New Jersey a déjà exprimé ses craintes.

Dans le Michigan, une mère célibataire bénéficiaire de WIC, comme beaucoup d’autres, a fait part de son inquiétude :

« Les gens dépendent de WIC pour leurs besoins essentiels : lait, œufs, pain. Ne pas savoir si l’on pourra bénéficier de cette aide le mois prochain… est très angoissant. »

Dans certains États fédérés, les bureaux de WIC sont déjà impactés par la paralysie budgétaire. Au Kansas, un bureau de WIC a dû fermer ses portes, tandis que le département de la santé du Mississippi a été contraint de mettre de nombreuses demandes d’inscription à WIC sur liste d’attente.

Une telle situation met en péril la santé de nombreuses femmes enceintes. En effet, selon un rapport de l’Unicef publié en 2023 et intitulé « Dénutries et oubliées : Une crise nutritionnelle mondiale pour les adolescentes et les femmes », les femmes enceintes ayant une mauvaise alimentation sont plus susceptibles de contracter des infections et de connaître des complications mortelles pendant la grossesse.

De surcroît, les complications résultant du shutdown pourraient avoir une prévalence plus élevée chez les femmes noires bénéficiaires de WIC par rapport aux femmes blanches. Cette hypothèse peut être déduite des données du Centre pour le contrôle et la prévention des maladies, selon lesquelles les femmes noires aux États-Unis présentent un risque de mortalité lié aux complications de la grossesse ou de l’accouchement trois fois supérieur à celui des femmes blanches. Comme le souligne Ebony Hilton, anesthésiste à l’Université de Virginie et experte des disparités dans l’accès aux soins de santé, « Il a été maintes fois démontré que les femmes noires ne reçoivent pas le même niveau de soins. »

« Les femmes noires, premières victimes de la mortalité maternelle aux États-Unis », France 24, 4 décembre 2019.

En l’absence de financement pour assurer la continuité du programme WIC, les carences nutritionnelles dont seraient victimes les femmes enceintes pourraient également avoir un impact négatif sur la santé de leur enfant à naître : naissance prématurée, faible poids, vulnérabilité aux maladies, augmentation du risque de mortalité néonatale, etc.


À lire aussi : Malnutrition à Gaza : son impact sur les 1 000 premiers jours de vie des bébés


Chez les immigrés

Une politique d’accueil favorable aux immigrés pourrait permettre aux États-Unis de faire face au déclin de la natalité dans le pays. Mais Donald Trump est connu pour son hostilité envers les immigrés, qu’ils soient en situation régulière ou non, à l’exception notable de certains, comme les Afrikaners, les Blancs (descendants de colons néerlandais ou français) d’Afrique du Sud. Depuis son retour au pouvoir, Trump mène une politique anti-immigration agressive, avec des arrestations et des expulsions massives d’immigrants illégaux ou présumés l’être.


À lire aussi : Rafles, expulsions… la gestion de l’immigration, illustration du tournant autoritaire de Donald Trump ?


L’un des principaux points de désaccord ayant conduit au shutdown concerne précisément la couverture médicale de certains immigrés. Les démocrates souhaitent que les immigrés présents légalement (les réfugiés, les demandeurs d’asile, etc.) aux revenus modestes puissent continuer à percevoir des subventions pour souscrire à l’assurance santé dite « Obamacare », officiellement connue sous le nom d’Affordable Care Act (ACA), afin de pouvoir accéder à des soins de base. Ce dispositif a été supprimé pour cette population par la loi budgétaire de juillet dernier. Or, les républicains refusent d’accéder à la requête des démocrates, au faux motif que ces derniers réclameraient une couverture santé gratuite pour les immigrés en situation irrégulière.


À lire aussi : How the government shutdown is hitting the health care system – and what the battle over ACA subsidies means


Sans la couverture médicale de l’ACA, le coût de l’éducation d’un enfant, ajouté à celui de la souscription à une assurance santé privée, pourrait constituer un facteur déterminant pour les immigrés légalement présents à faibles revenus dans le cadre de leur projet parental. Il est donc à craindre que certains des 1,4 million de migrants présents légalement, qui ne seront plus couverts par l’ACA, ainsi que les femmes immigrées qui ne remplissent pas les conditions de revenu pour bénéficier du programme WIC, renoncent à avoir des enfants, ou en aient moins.

In fine, dans le contexte actuel du shutdown ou après son déblocage, des inégalités économiques et raciales risquent, de nouveau, de se creuser en matière de procréation aux États-Unis.

The Conversation

Allane Madanamoothoo ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

30.10.2025 à 15:39

Demain, des virus au service de la médecine pour traiter des cancers, comme alternatives aux antibiotiques notamment

María Teresa Tejedor Junco, Catedrática de Microbiología, Universidad de Las Palmas de Gran Canaria

Des recherches sont menées pour, à terme, utiliser des virus modifiés contre des cancers ou pour recourir à des virus bactériophages contre des infections résistantes aux bactéries.
Texte intégral (3351 mots)

Nous associons les virus à des maladies infectieuses. Mais des recherches sont menées pour, à terme, utiliser des virus modifiés contre des cancers ou pour recourir à des virus bactériophages contre des infections résistantes aux bactéries.


Nous ne devons pas analyser la nature d’un point de vue anthropocentrique. De plus, dans de nombreuses occasions, nous ne disposons pas des connaissances suffisantes pour évaluer le rôle que jouent certains éléments (vivants ou inanimés) dans un écosystème donné.

Mais il est certain que les virus ont « mauvaise réputation ». En général, lorsque nous pensons aux microorganismes, la première chose qui nous vient à l’esprit, ce sont les maladies. Puis, petit à petit, nous nous souvenons d’aspects bénéfiques. Par exemple, la production d’antibiotiques (certaines moisissures et bactéries), des aliments comme le yaourt (bactéries) ou des boissons comme la bière (levures).

Et les virus, à quoi servent-ils ? On pourrait penser qu’ils ne servent qu’à causer des maladies… Ou alors, pas seulement ? Avons-nous des virus dans notre organisme même quand nous ne sommes pas malades ?


À lire aussi : Les virus, ces messagers invisibles de la conversation du vivant


Impossible de résumer dans un seul article tout ce que les virus apportent à notre existence. Mais nous pouvons passer en revue quelques exemples.

Traitement de cancers et d’autres pathologies

Aspect d’un rétinoblastome. I. Aerts, L. Lumbroso-Le Rouic, M. Gauthier-Villars, H. Brisse, F. Doz, L. Desjardins, « Retinoblastoma » in Orphanet Journal of Rare Diseases, 1, 31, 2006. Wikimedia, CC BY

Le rétinoblastome est un type de cancer de l’œil qui touche principalement les enfants. Il peut entraîner la cécité et, s’il ne répond pas au traitement, il faut alors retirer les yeux pour éviter qu’il ne se propage à l’ensemble du corps.

Un adénovirus génétiquement modifié a été utilisé avec succès pour traiter cette maladie. Il attaque et élimine les cellules cancéreuses sans affecter les cellules saines.

Il existe également des essais visant à utiliser des virus modifiés dans le traitement d’autres types de tumeurs : mélanomes, glioblastomes. Et même pour traiter le cancer du col de l’utérus, causé par un autre virus.

Parmi les maladies chroniques, l’utilisation de bactériophages (virus qui attaquent les bactéries) est à l’étude pour le traitement de la mucoviscidose et de la colite ulcéreuse.

Quelques études montrent que les personnes en bonne santé ont une composition en phages dans leur intestin différente de celle des personnes atteintes de colite ulcéreuse (appelée également rectocolite hémorragique, ndlr) ou de la maladie de Crohn, deux troubles intestinaux graves.

Cela pourrait également être lié à l’efficacité de la transplantation fécale. Chez la souris, la présence d’un virus entérique semble compenser la fonction bénéfique du microbiome intestinal.

Il existe même un virus, appelé GBV-C, qui contribue à améliorer le pronostic des malades atteints du sida. Les personnes porteuses de ce virus, apparenté à celui de l’hépatite mais qui ne provoque aucune maladie, ne sont pas à l’abri du sida. Cependant, elles présentent moins de symptômes et la mortalité dans ce groupe est plus faible.

Une alternative aux antibiotiques pour traiter les infections

Bactériophage infectant une bactérie. Dr Graham Beards/Wikimedia, CC BY-SA

La phagothérapie consiste à utiliser des bactériophages pour traiter des infections graves. Elle constitue une alternative à l’utilisation d’antibiotiques, en particulier dans le cas d’infections où les bactéries sont résistantes à la plupart des antibiotiques disponibles.

Ces virus sont très spécifiques. Ils peuvent attaquer les bactéries pathogènes sans avoir aucun effet sur notre microbiome « bénéfique ».

En 1919, D’Herelle avait déjà recours à des phages pour traiter les infections. Actuellement, il s’agit d’un type de traitement très contrôlé, qui n’est utilisé que dans les cas d’infections très graves et lorsqu’il n’existe aucune autre option.

D’autre part, les phages pourraient constituer une alternative à l’utilisation d’antibiotiques, ce qui réduirait ainsi la pression sélective et l’apparition de résistances.

Contribuer à la sécurité alimentaire

Plusieurs entreprises travaillent au développement de « cocktails de phages » destinés à être administrés aux animaux d’élevage. Efficaces contre les bactéries pathogènes les plus courantes chez chaque espèce, ils améliorent la santé des animaux. Ils contribuent également à réduire le recours aux antibiotiques.

Les industries alimentaires sont particulièrement intéressées par l’utilisation des phages contre les principales bactéries pathogènes d’origine alimentaire. Ils pourraient même être utilisés pour désinfecter les installations de production.

Leur utilisation est également proposée pour lutter contre les microorganismes qui altèrent les aliments.

Les virus comme bioinsecticides

Aspect des baculovirus au microscope électronique. J. R. Adams/Wikimedia

Les insecticides chimiques présentent plusieurs inconvénients. D’une part, ils génèrent des résistances. D’autre part, ils peuvent affecter des espèces d’insectes utiles et être toxiques pour l’être humain et d’autres vertébrés.

Les baculovirus présentent le grand avantage d’être hautement spécifiques à certaines espèces d’insectes. Ils ne sont pas pathogènes pour les plantes ni pour les vertébrés. De plus, ils n’affectent pas les autres espèces d’insectes.

Ils forment une capsule protéique qui les protège de l’environnement. Ils infectent les cellules de l’intestin moyen de l’organisme parasite et passent directement dans l’hémolymphe, ce qui provoque la mort de l’insecte responsable du ravage.

Fabriquer des vaccins

Micrographie électronique de transmission d’adénovirus. CDC/Dr William Gary Jr./Wikimedia

Outre leur utilisation comme bioinsecticides, les baculovirus sont également utilisés pour fabriquer des vaccins (à usages vétérinaires, ndlr). Pour ce faire, le gène d’intérêt est introduit dans le virus, puis l’insecte est infecté, ce qui le transforme en une petite « bio-usine » qui produit les protéines d’intérêt.

Certains vaccins mis au point contre le SARS-CoV-2 utilisent des adénovirus (les vaccins AstraZeneca et Janssen, notamment, reposent sur cette technologie mais il ne s’agit pas des vaccins recommandés aujourd’hui par le ministère de la santé français contre le Covid-19, ndlr). Des adenovirus ont également été utilisés pour fabriquer un vaccin contre Ebola et des recherches sont menées chez l’animal pour développer des vaccins contre Zika.

Un vaccin polyvalent contre la grippe aviaire et la maladie de Newcastle a été créé à partir d’un virus recombinant.

Virus marins

On estime qu’il existe entre 1028 et 1030 virus dans les océans. Ils constituent des éléments clés des écosystèmes marins. Ils peuvent infecter les animaux, les algues et les plantes marines ou d’autres microorganismes.

La grande majorité de ces virus sont des bactériophages. Certains auteurs ont calculé que les virus libèrent 145 gigatonnes de carbone par an dans les océans tropicaux et subtropicaux. Ils constituent donc un élément fondamental du cycle du carbone dans les écosystèmes.

De plus, ils sont responsables du transfert horizontal de gènes dans les océans.

D’autres bénéfices des virus

En 2017, une thérapie génique à base d’adénovirus a été approuvée aux États-Unis pour traiter une maladie héréditaire rare causant la cécité.

Les patients présentent une mutation au niveau des deux copies d’un gène. Cela les empêche de synthétiser une enzyme essentielle au développement normal de l’œil. À l’aide d’un adénovirus modifié, une copie normale du gène est ajoutée directement dans la rétine. Une seule injection suffit pour leur redonner la vue.

Les virus en général, et pas seulement les virus marins, sont de grands générateurs de diversité génétique. Ils ont généralement un taux de mutation élevé, ont tendance à se mélanger entre eux et peuvent s’intégrer (et se désintégrer) dans le génome de leur hôte.

Ils confèrent aux bactéries la capacité de résister à certains antibiotiques ou de produire des toxines, ce qui est bon pour elles, mais pas pour nous. Il existe également des virus insérés dans le génome des vertébrés, y compris des humains. Ils semblent être impliqués dans la régulation génétique et peuvent contribuer à l’apparition de nouvelles fonctions.

Le plus surprenant chez les virus est peut-être leur rôle dans le développement de la vie humaine. Le génome humain contient 8 % d’ADN viral. Il s’agit de restes de rétrovirus qui se sont insérés dans notre ADN au cours de l’histoire de l’humanité. Jusqu’à récemment, on les considérait comme de l’« ADN poubelle ». Cependant, plusieurs études ont démontré leur importance.

Cet ADN viral code une protéine, la syncytine, qui est essentielle à la formation du placenta, l’organe qui permet l’échange de substances entre le sang de la mère et celui du fœtus.

Il existe de nombreux autres aspects dans lesquels les virus contribuent à améliorer notre existence. N’oublions pas que seul un faible pourcentage d’entre eux peut l’aggraver… mais de manière drastique.

The Conversation

María Teresa Tejedor Junco ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

30.10.2025 à 11:55

Les fantômes des pesticides hantent nos environnements pour longtemps

Gaspard Conseil, Docteur en écotoxicologie, attaché temporaire d’enseignement et de recherche à l’Université de Lorraine (UL, ENSAIA, L2A), Université de Lorraine

Damien Banas, Professeur en Agronomie/Hydrobiologie, Université de Lorraine

Sous la surface des étangs, des « fantômes » de pesticides persistants racontent l’histoire des pollutions passées.
Texte intégral (2979 mots)
« Les étangs ne sont pas de simples plans d’eau, mais de véritables archives vivantes de l’activité humaine environnante. » Gaspard Conseil, Fourni par l'auteur

De l’autre côté du miroir d’eau paisible des étangs, on rencontre en réalité de véritables « fantômes moléculaires » laissés par les pesticides utilisés pour l’agriculture. Même lorsque la substance originelle a été depuis interdite, ses produits de transformation – parfois plus toxiques – peuvent persister longtemps. Et si l’on envisageait les étangs différemment ? Les considérer comme des archives biochimiques des pollutions passées pourrait nous aider à améliorer la surveillance sanitaire et à prendre de meilleurs décisions réglementaires aujourd’hui.


Sous la surface calme des étangs (et, en particulier, des étangs agricoles) se cache une contamination invisible mais omniprésente. Sur l’ensemble des substances chimiques surveillées en milieu aquatique, 86 % sont des produits de transformation de pesticides plutôt que des pesticides eux-mêmes. Ce paysage est dominé par des dérivés du chlorothalonil, pesticide pourtant interdit en Europe et en Suisse depuis 2019, qui ont depuis été détectés d’abord en Suisse, puis signalés au sein d’unités françaises de traitement de l’eau potable.

Ces « fantômes moléculaires », souvent ignorés des suivis classiques, sont pourtant impliqués dans la dégradation silencieuse de la qualité des eaux. Dans une recherche scientifique publiée en 2025, nous avons mis en évidence qu’ils modifient le comportement et le métabolisme de petits crustacés d’eau douce (ici, Gammarus roeseli) utilisés comme sentinelles biologiques.

À la fois témoins et victimes des pollutions chimiques successives de l’environnement, ces organismes livrent une histoire préoccupante, inscrite dans le vivant, que les simples mesures chimiques ne permettent pas de lire.

La mémoire chimique des étangs

Les étangs ne sont pas de simples plans d’eau, mais des archives vivantes de l’activité humaine environnante. Souvent connectés aux rivières, ils s’imprègnent de l’héritage chimique des pratiques agricoles, à travers les métabolites de produits phytopharmaceutiques, ou produits de transformation (PT), qui en résultent.

Il ne suffit pas de retirer un pesticide du marché pour résoudre tous les problèmes de pollution : son empreinte chimique peut persister très longtemps dans l’environnement. Gapard Conseil, Fourni par l'auteur

Quand bien même un pesticide est amené à être retiré du marché, son empreinte chimique demeure. Des PT issus de la dégradation d’une molécule mère peuvent ainsi persister longtemps dans l’eau, dans les sédiments ou dans les organismes vivants. Longtemps invisibles, car peu connus et peu étudiés, ils rappellent que la contamination environnementale n’est pas qu’une affaire du présent, mais aussi une mémoire du passé.

Nous vivons ainsi avec les cicatrices laissées par des produits chimiques utilisés à d’autres époques, lorsque leurs effets étaient encore mal connus. Et pourtant, nous continuons de répéter la même erreur : autoriser la commercialisation de produits aux effets mal compris. Nous déléguons alors de nouveaux problèmes à nos enfants.

Même lorsqu’on interdit un pesticide, ses descendants sont toujours là

L’herbicide atrazine, interdit depuis 2003, illustre très bien le problème. Ses métabolites sont encore détectés vingt ans après son interdiction dans de nombreuses masses d’eau françaises.

Les progrès de la recherche et les nouvelles connaissances acquises ont conduit à des réglementations plus strictes, comme le Règlement européen (CE) no 1107/2009, qui exclut l’autorisation de mise sur le marché de substances persistantes ou qui s’accumulent dans les organismes.

La relation entre l’humain et son environnement reste complexe. L’histoire que nous commençons à lire grâce aux outils analytiques mobilisés en écotoxicologie, qui intègrent à la fois des approches chimiques et biologiques, devrait éclairer nos choix présents et nous permettre d’éviter de les regretter demain.

Le fongicide chlorothalonil, interdit en 2019, fournit un exemple récent de ce décalage entre décision réglementaire et réalité environnementale. Son métabolite R471811 est aujourd’hui retrouvé dans de nombreuses eaux de surface et souterraines européennes. Il n’existe a priori pas de preuves qu’il présente un risque avéré, mais cela pourrait être réévalué dans cinq, dix ou trente ans.

Ces reliquats chimiques révèlent l’inertie propre des cycles environnementaux, souvent difficiles à cerner ou à mesurer. Ils soulignent aussi les limites de nos politiques de retrait, capables de réagir vite, mais impuissantes face à la persistance du passé et à la multiplicité des substances chimiques encore autorisées (422 en Europe en octobre 2025.

Expositions chimiques invisibles, ou difficiles à cerner ?

Les milieux aquatiques sont exposés à une mosaïque de contaminants que les scientifiques appellent exposome chimique, c’est-à-dire l’ensemble des substances auxquelles un organisme ou un écosystème est exposé au cours de sa vie.

Si les substances actives sont surveillées via la réglementation européenne, les PT passent souvent sous le radar. Un seul pesticide peut engendrer plusieurs molécules filles, parfois plus durables et plus mobiles que la molécule mère. Les connaissances sur leur toxicité sont encore très lacunaires, avec peu de tests de toxicité, peu de standards analytiques et très peu de données sur leurs effets cumulés. Ainsi, une part importante du risque nous échappe encore.

Dans un travail antérieur, mené en 2024, sur les étangs agricoles du nord-est de la France, nous avions déjà montré que plus d’une molécule détectée sur deux était un PT encore dépourvu de profil écotoxicologique connu. En d’autres termes, une partie du risque reste littéralement dans l’ombre.


À lire aussi : « L’envers des mots » : Exposome


Des crevettes pour sonder l’eau des étangs

Les grands cours d’eau font l’objet de suivis réguliers. Les étangs, eux, sont les parents pauvres de la limnologie (c’est-à-dire la science des lacs) et restent peu étudiés. Pourtant, ils ponctuent nos paysages et abritent souvent une large biodiversité constituée de poissons, d’oiseaux, de batraciens, de reptiles, d’insectes et de végétaux divers. Ils jouent aussi un rôle d’interface entre terres agricoles et nappes souterraines. Exposés aux polluants au fil du temps, ils jouent un rôle de « mémoire tampon » entre terres cultivées et milieux naturels, entre les eaux de surface et les nappes souterraines.

Pour explorer cette mémoire chimique, notre équipe a eu recours à une approche de biosurveillance active, où l’on utilise le vivant pour évaluer la qualité de l’eau. Cette méthode consiste à confronter des organismes sentinelles à l’environnement étudié afin d’observer leurs réactions biologiques, en parallèle de l’analyse chimique dite de l’exposome, décrit précédemment (l’ensemble des substances auxquelles le milieu est exposé, et de facto, nous aussi).

Gammarus roeseli est un petit crustacé utilisé en tant que sentinelle biochimique des étangs. Gaspard Conseil, Fourni par l'auteur

Croiser ces deux lectures, chimique et biologique, permet d’obtenir un indicateur global de l’état de santé d’une masse d’eau bien plus représentatif que la simple mesure de concentrations d’une liste de contaminants strictement définis.

Concrètement, nous avons placé dans sept étangs lorrains implantés le long d’un gradient de terres agricoles aux pratiques diversifiées (sans activité agricole, en agriculture biologique ou en agriculture conventionnelle) de petits crustacés d’eau douce, Gammarus roeseli, enfermés dans de fines cages perméables.

Ces gammares, discrets habitants des rivières, sont de véritables sentinelles biologiques. Leur respiration, leurs mouvements et leurs activités enzymatiques reflètent fidèlement la qualité du milieu où ils vivent. Pendant une semaine, ces organismes ont été exposés à l’eau et leur état de santé a été suivi. En parallèle, dans chaque étang, 136 substances (herbicides, insecticides, fongicides, et leurs PT) ont été recherchées.

Les résultats montrent une prédominance écrasante des produits de transformation, qui représentaient 86 % des contaminants détectés, dominés par les dérivés du chlorothalonil et du métazachlore.

Les gammares ont survécu, mais leur comportement et leur métabolisme ont changé. Ralentissement des déplacements, troubles de la respiration et activation des mécanismes de détoxification traduisent le signal précoce d’un potentiel stress toxique. Ces réactions biologiques confirment que la contamination, bien qu’étant une affaire de chimie, s’inscrit profondément dans le vivant. En d’autres termes, les organismes racontent ce que les analyses chimiques ne suffisent pas toujours à voir.

De la science au terrain : comment gouverner l’invisible ?

Reste à savoir comment intégrer au mieux ces signaux biologiques et cette mémoire chimique dans les décisions publiques et réglementaires.

Aujourd’hui, la surveillance réglementaire reste essentiellement centrée sur les substances actives autorisées. Pourtant, le risque dépasse largement ces molécules. Il s’étend dans le temps, change de forme, interagit avec d’autres contaminants et varie selon les conditions environnementales. L’environnement et sa biodiversité sont aussi le siège d’une diversité de voies de transformation et de transfert des contaminants.

La surveillance doit donc évoluer, élargir les listes de substances suivies, développer les outils biologiques, et, surtout, agir avec précaution dans un contexte où tout ne peut être mesuré ni anticipé : il serait illusoire de vouloir tout tester et suivre toutes les substances possibles et imaginables. L’enjeu est donc surtout de prioriser les composés les plus à risque et de protéger les milieux les plus vulnérables.

Il existe ainsi trois leviers pour mieux protéger les milieux aquatiques :

  • élargir la couverture analytique, c'est-à-dire les méthodes et techniques utilisées pour identifier et quantifier les PT issus de la dégradation des pesticides dans les suivis de routine,

  • renforcer les outils biologiques capables de traduire la complexité chimique en signaux écologiques mesurables, par exemple, le recours à des organismes sentinelles,

  • enfin, prioriser localement les actions de gestion (par exemple, rotation des cultures, zones tampons sans traitement, meilleure gestion des effluents et du ruissellement, ou encore l'aménagement de réseaux de drainage) adaptées aux usages et aux vulnérabilités des territoires.

De récentes observations nous montrent que les dynamiques observées en Lorraine ressemblent à celles de sites agricoles en Suisse, dans le canton de Genève. Nous menons depuis l’été 2025 des recherches avec la Haute école du paysage, d’ingénierie et d’architecture de Genève (Hépia) à ce sujet.

Ces enjeux de pollution franchissent donc les frontières, mais les solutions doivent émerger localement, en combinant restauration de zones tampons (qui permettent d’atténuer les transferts de contaminants d’origine agricole vers les milieux aquatiques), diversification des pratiques et surveillance chimique et biologique intégrée.

Une écologie de la mémoire

Les étangs sont les miroirs de nos paysages agricoles, mais en constituent surtout des archives. Ils accumulent, filtrent et témoignent des usages passés. Reconnaître cette mémoire chimique, c’est accepter que certaines traces mettent des décennies à s’effacer.

Les produits de transformation des pesticides ne sont ni marginaux ni nouveaux. Ils incarnent une génération de micropolluants qui s’ancre dans la mémoire chimique de nos agroécosystèmes. Les inclure, les considérer, c’est comprendre qu’un étang, aussi petit soit-il, peut raconter une histoire de pollutions passées, mais aussi celle d’une vigilance à retrouver.

À l’heure où les politiques de transition agricole s’accélèrent, prendre en compte ces produits de transformation est essentiel pour éviter que ces fantômes chimiques ne pèsent sur les générations futures. Ce que nous faisons aujourd’hui s’inscrira dans la mémoire environnementale de demain. À nous de choisir l’histoire que ces étangs raconteront aux générations futures.

The Conversation

Gaspard Conseil a reçu des financements de l'Office français de la biodiversité (OFB).

Damien Banas a coordonné le projet CABARETox (ContAmination des matrices Biotiques et Abiotiques par les Résidus phytopharmaceutiques en Étangs : volet écotoxicologie), financé par l’Office Français de la Biodiversité (OFB), dont sont issus les résultats présentés dans le présent article.

PDF

30.10.2025 à 11:10

Pourquoi l’écologie est d’abord une science

Sébastien Barot, Chercheur en écologie, IEES-Paris, vice-président du conseil scientifique de la Fondation pour la recherche sur la biodiversité (FRB), Institut de recherche pour le développement (IRD)

Souvent assimilée à un courant politique ou à des combats militants, l’écologie est d’abord une science. Son rôle est essentiel pour comprendre la crise environnementale.
Texte intégral (2977 mots)

Souvent assimilée à un courant politique, l’écologie est avant tout une science à part entière, qui étudie les interactions du vivant avec son environnement. Pourtant, en France, ce terme est devenu symbole de militantisme au risque d’invisibiliser le travail précieux des écologues, alors même que leurs connaissances sont indispensables pour affronter la crise environnementale en cours.

Dans « l’Écologie est une science », publié par les éditions Belin, Sébastien Barrot, directeur de recherche à l’IRD, présente son domaine de recherche, encore trop méconnu du grand public. Nous reproduisons ci-dessous un extrait de son avant-propos.


À 10 ans, quand on me demandait quel métier je souhaitais faire plus tard, je répondais  « Un -logue quelconque. » Je disais par là que je voulais devenir archéologue ou paléontologue. J’ai mal tourné, je suis devenu écologue, chercheur en écologie, et j’ai commencé à écrire ce livre parce que personne ne sait ce que ça veut dire. Si tout le monde a une idée, juste ou non, de ce qu’est un chercheur, quasiment personne ne sait en France, en dehors du cadre académique, que l’écologie est une science.

Même aujourd’hui, en pleine crise environnementale, je dois expliquer les études que j’ai faites (un master et une thèse en écologie), et on me le fait répéter au moins trois fois car ça ne paraît pas possible. Les gens pensent souvent que j’ai étudié la biologie. Cela paraît beaucoup plus sérieux, mais ce n’est pas le cas. D’autres personnes imaginent que la seule préoccupation d’un écologue est de protéger les petits oiseaux, ou que je développe de nouveaux moyens pour recycler les déchets.

Ce sont deux thématiques importantes, cependant l’écologie scientifique n’a pas uniquement pour but la protection de la nature, et seul le recyclage des déchets organiques entre, en fait, dans le champ des compétences de l’écologie puisqu’il fait intervenir des organismes décomposeurs, comme des bactéries ou des vers de terre.


À lire aussi : L’écologie expliquée aux enfants et aux ados


Un seul terme pour de nombreuses réalités

La méconnaissance de l’écologie scientifique vient de trois facteurs complémentaires.

Tout d’abord, l’écologie est une science relativement jeune. Le mot a été inventé par Ernst Haeckel en 1866, mais les sciences écologiques ne se sont vraiment développées dans le monde académique qu’après la Seconde Guerre mondiale pour les Anglo-Saxons et durant les années 1970 en France. C’est donc un développement très récent, ce qui signifie que les bases de cette science doivent encore être consolidées, et sa structure affinée. Le système académique étant très conservateur, l’écologie scientifique a parfois du mal à trouver sa place parmi les disciplines plus anciennes. Malgré la gravité des problèmes environnementaux actuels, et contrairement à ce qu’on pourrait penser, il est souvent difficile d’augmenter le volume des enseignements d’écologie du primaire à l’université, et la recherche en écologie n’est pas particulièrement bien financée.

De plus, en France, le terme « écologie » est utilisé aussi bien pour désigner une science que des mouvements politiques environnementalistes ou verts, entraînant de fait une confusion entre le travail de recherche et l’action politique, ou même le militantisme. Il est important de souligner que, la plupart du temps, lorsque quelqu’un intervient dans les médias pour parler de protection de la nature, il s’agit d’un militant ou d’une militante (ou parfois même d’un chercheur d’une autre discipline !). Si ces derniers utilisent souvent les connaissances développées par l’écologie scientifique, ils ne sont pas chercheurs en écologie pour autant.

On pense facilement à de grandes figures, comme Hubert Reeves, qui ont joué et jouent un rôle important et utile dans la dissémination des savoirs et idées écologiques. Ces grandes figures médiatiques mêlent toujours dans leurs discours des messages environnementalistes et d’autres plus fondamentaux et proches des sciences écologiques. Tout cela entraîne des conséquences globalement positives, mais contribue à invisibiliser la science écologique et le travail des chercheuses et chercheurs qui la pratique. D’autant que dans les autres sciences (biologie, physique, chimie…), quand les médias ont besoin d’éclairages, c’est bien à un spécialiste du domaine que l’on fait appel en général.

Enfin, l’écologie est une science intégrative. C’est-à-dire qu’elle utilise les autres sciences (biologie, géologie, climatologie, chimie…) et qu’il est donc difficile de l’identifier en elle-même. Ce fonctionnement fait sa force, mais il rend son positionnement plus difficile. En effet, les systèmes académique et médiatique fonctionnent beaucoup « par boîtes » et la mauvaise identification d’une science et de ses spécialistes complique la prise en compte des connaissances qu’elle développe.

Cela explique en partie que les sociétés humaines soient si lentes à prendre des mesures pour atténuer la crise de la biodiversité et qu’elle reste moins bien prise en compte que la crise climatique par les pouvoirs publics (même si de ce côté-là, cela avance, bien que beaucoup trop lentement).


À lire aussi : La biodiversité : pas qu’une affaire d’écologistes, un impératif économique et financier


Mais alors l’écologie, c’est quoi ?

Ma définition préférée de l’écologie est la suivante : c’est la science qui étudie les interactions entre les êtres vivants (par exemple, entre les espèces de plantes d’une prairie) et leur environnement physico-chimique (par exemple, entre les plantes de cette prairie et les caractéristiques du sol comme son pH ou sa teneur en azote) et les conséquences de ces interactions à toutes les échelles temporelles (de la seconde à des millions d’années) et spatiales (de l’agrégat de sol d’un millimètre à la biosphère) possibles. Cette définition peut paraître un peu abstraite mais elle prendra tout son sens au cours du livre.

Il est important de retenir que l’écologie traite bien d’organismes vivants, tout en étant distincte de la biologie. Cette dernière a tendance à étudier le fonctionnement interne des êtres vivants. Historiquement, à l’aide de moyens techniques de plus en plus sophistiqués, la biologie les a découpés en parties de plus en plus petites (l’organe, la cellule, la molécule, le gène) pour analyser la manière dont le fonctionnement interne d’un organisme et de nombreux mécanismes de régulation permet aux organismes de grandir, de survivre et de se reproduire. C’est aussi grâce à la biologie que l’on comprend les mécanismes de développement d’un organisme à partir de ses gènes.

À l’inverse, les sciences de l’univers (géochimie, climatologie, hydrologie…) s’intéressent essentiellement au fonctionnement physico-chimique, aux éléments abiotiques, de l’environnement et de la planète Terre. Par exemple, ces sciences permettent de quantifier les flux d’eau (évaporation, précipitation, ruissellement…) à des échelles variées depuis le mètre carré jusqu’à la planète entière ou encore les flux d’azote, composante chimique essentielle de toute la matière vivante.

L’écologie se trouve exactement à mi-chemin entre la biologie et les sciences de l’univers : elle traite à la fois des organismes vivants et de leur environnement physico-chimique. Elle fait le lien entre les deux et étudie leurs interactions qui sont bidirectionnelles. Les organismes dépendent de leur environnement (température, humidité…) et des ressources qu’ils y puisent. Si les conditions physico-chimiques sont bonnes (ni trop chaud ni trop froid, suffisamment humide…), ils pourront grandir et se reproduire ; si les conditions sont un peu moins bonnes, cela devient plus difficile ; si elles empirent, les organismes ont de grandes chances de mourir. D’une manière peut-être moins évidente, mais tout aussi importante, les organismes modifient leur environnement physico-chimique en y puisant des ressources (CO2, eau et nutriments minéraux pour une plante), par des activités variées (galeries des vers de terre) ou simplement par leur présence (un arbre fait de l’ombre).

L’écologie est une science à part entière qui a développé son propre cadre conceptuel, ses écoles de pensée et ses outils. Elle fonctionne au quotidien comme les autres sciences : il y a des formations (masters, écoles doctorales), des chercheuses et des chercheurs, des laboratoires et des journaux internationaux en anglais spécialisés.

Elle s’appuie cependant, nous l’avons vu, sur de nombreuses sciences, de la biologie à la climatologie, en passant par la physique ou la chimie. Les résultats de ces différents domaines servent d’éléments de contexte et leurs méthodes et outils sont utilisés comme des couteaux suisses modulables pour répondre à des questions propres à l’écologie. Par exemple, l’étude des interactions entre un ver de terre et le sol peut nécessiter de connaître le fonctionnement interne du ver de terre, tel son mode de digestion (biologie), mais aussi l’impact de l’espèce sur la chimie du sol (chimie).

L’écologie peut aussi étudier comment le climat influence la croissance des plantes en prenant en compte la quantité d’énergie apportée par la lumière solaire et utilisable pour la photosynthèse, ou la température et l’humidité de l’air qui influencent la quantité d’eau transpirée par les plantes. Ou encore la manière dont les plantes influencent le climat en fixant plus ou moins de carbone par la photosynthèse ou en renvoyant plus ou moins de vapeur d’eau dans l’atmosphère. Ces résultats peuvent alors servir aux climatologues pour améliorer les prédictions climatiques.

Par ailleurs, l’écologie est indissociable de l’évolution des organismes vivants au sens darwinien, car ils présentent tous une histoire évolutive : ils ont été façonnés par une succession de pressions de sélection et de processus évolutifs qui ont conduit aux caractéristiques actuelles des organismes et ont contribué à leur diversité. De ce fait, les interactions écologiques entre eux ou avec leur milieu physico-chimique ont été façonnées par l’évolution. Il est important de le prendre en compte pour mieux comprendre et interpréter les fonctionnements écologiques actuels.

Ainsi, les plantes ont construit au cours de l’évolution des mutualismes avec leurs pollinisateurs. Étudier cette évolution peut aider à comprendre la pollinisation et ses conséquences. À l’inverse, les interactions écologiques, elles-mêmes, constituent un des principaux moteurs de l’évolution : la sélection naturelle est fondée sur le fait que les organismes les mieux adaptés à une situation écologique donnée (caractéristiques de l’environnement, existence d’un prédateur…) ont plus de descendants si bien que leurs caractéristiques deviennent dominantes au sein de l’espèce du fait de leur transmission génétique.

Dans ce contexte, les mécanismes conférant à certains individus un avantage sont liés à des interactions écologiques : certaines caractéristiques leur permettent de mieux interagir avec les autres organismes ou leur environnement physico-chimique, acquérant ainsi plus de ressources, augmentant leur survie ou leur fécondité. Tous ces mécanismes sont étudiés en écologie. On sait maintenant que l’évolution peut être suffisamment rapide pour interférer avec les processus écologiques à des échelles de temps communes. Cela signifie qu’il ne s’agit pas simplement d’un phénomène ancien qu’il faut étudier pour comprendre les organismes ayant disparu depuis longtemps, mais que les organismes continuent actuellement à évoluer.

De domaines en sous-domaines

Plus généralement, l’écologie aborde des sujets si variés qu’il est nécessaire de la diviser en sous-domaines.

L’écologie se compose de plusieurs sous-domaines. Sébastien Barrot/Belin, Fourni par l'auteur

Bien sûr, on peut en classer les différents champs selon le milieu étudié (écologie forestière, écologie aquatique, écologie des sols…), mais il est important de différencier également certaines approches. En effet, une partie importante de l’écologie, l’écologie des populations, se focalise sur les groupes d’individus d’une même espèce qui interagissent entre eux au sein d’un milieu donné (ce qu’on appelle une « population »). Elle se concentre donc sur les individus, sur ce qu’ils font et sur leur démographie (comme on le ferait pour des populations humaines), s’appuyant notamment pour cela sur leur recensement (on peut, par exemple, compter le nombre d’arbres dans une forêt). L’écologie des populations est fortement liée à l’écologie évolutive, qui étudie l’évolution darwinienne des organismes, puisque l’individu est l’unité de base dans tous les processus évolutifs.

Proche de l’écologie des populations, on trouve aussi celle du comportement qui cherche à analyser le comportement des individus au sein d’une population en fonction de leur environnement, avec souvent des interprétations liées à l’évolution darwinienne des organismes. On distingue ensuite l’écologie des communautés qui étudie les interactions entre populations (d’espèces différentes) dans un même milieu. Cela permet d’aborder, par exemple, les relations proie-prédateur, les symbioses, ou de décrire des communautés d’organismes (le nombre d’espèces, leur abondance relative, leurs caractéristiques, et les facteurs qui déterminent tout ça). On arrive alors à l’écologie fonctionnelle qui étudie la manière dont les organismes arrivent à puiser des ressources dans leur milieu et à les transformer en biomasse, ainsi que la quantité de matière et d’énergie qu’ils échangent avec leur milieu…

Enfin, l’écologie des écosystèmes est proche de l’écologie fonctionnelle puisqu’elle étudie la manière dont ils fonctionnent. Un écosystème comprend à la fois l’ensemble des populations en interaction dans un lieu donné et leur milieu physico-chimique (sol, climat…). Il s’agit donc d’intégrer tous les types d’interactions écologiques entre populations ainsi qu’entre elles et leur milieu physico-chimique, et de comprendre comment cela détermine les propriétés émergentes des écosystèmes, telle que leur production primaire. Là où l’écologie des populations est focalisée sur les individus, l’écologie fonctionnelle et celle des écosystèmes étudient plutôt les flux de matière (carbone, azote, eau…) et d’énergie entre les organismes et avec leur milieu. Ce type d’approche permet souvent d’aller vers des échelles spatiales de plus en plus grandes. On peut, par exemple, mesurer la biomasse de la végétation ou la quantité de carbone dans la matière organique du sol à l’échelle du mètre carré, mais aussi d’une prairie, d’une région, d’un continent…

The Conversation

Sébastien Barot ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

29.10.2025 à 15:49

Avec les restrictions d’âge sur les réseaux sociaux, Internet entre-t-il dans une nouvelle ère de contrôle moral ?

Alex Beattie, Lecturer, Media and Communication, Te Herenga Waka — Victoria University of Wellington

À mesure que les interdictions d’accès des jeunes aux réseaux sociaux se multiplient, une question surgit : Internet est-il en train de basculer dans une nouvelle ère de contrôle moral ?
Texte intégral (1593 mots)
L’époque victorienne se caractérisait par des codes sociaux rigides, une morale stricte et un contrôle serré des comportements. Getty Images

De l’Australie au Danemark, les projets d’interdire TikTok ou Instagram aux adolescents se multiplient. Derrière les arguments de protection des mineurs, ces restrictions d’âge sur les réseaux sociaux traduisent un tournant culturel et moral.


Une vague de projets d’interdictions des réseaux sociaux aux plus jeunes déferle à travers le monde, nourrie par l’inquiétude croissante face aux effets supposés de TikTok, Instagram ou Snapchat sur des esprits jugés vulnérables.

L’Australie a été la première à annoncer des restrictions visant les moins de 16 ans. La Nouvelle-Zélande pourrait bientôt emboîter le pas et au Danemark, la première ministre a déclaré vouloir interdire les réseaux sociaux aux moins de 15 ans, accusant téléphones et plateformes de « voler l’enfance de nos enfants ».

Le Royaume-Uni, la France (le rapport parlementaire, publié en septembre 2025, préconise d’interdire les réseaux sociaux aux moins de 15 ans ainsi qu’un couvre-feu numérique pour les 15-18 ans, de 22 heures à 8 heures, ndlt), la Norvège, mais aussi le Pakistan et les États-Unis envisagent ou mettent en place des mesures similaires, souvent conditionnées à un consentement parental ou à une vérification d’identité numérique.

À première vue, ces politiques visent à protéger la jeunesse des risques, pour la santé mentale, d’exposition à des contenus explicites ou de ceux de mécanismes addictifs. Mais derrière le vocabulaire de la sécurité se dessine autre chose : un basculement des valeurs culturelles.

Ces interdictions traduisent une inflexion morale, au risque de ressusciter des conceptions conservatrices qui précèdent Internet. Sommes-nous en train d’entrer dans une nouvelle ère victorienne du numérique, où la vie en ligne des jeunes serait remodelée non seulement par la régulation, mais aussi par un regain de contrôle moral ?

Un discours sur le déclin moral

L’époque victorienne se caractérisait par des codes sociaux rigides, une morale stricte et un contrôle serré des comportements, l’école jouant un rôle central dans la transmission des hiérarchies sociales et genrées. On en retrouve aujourd’hui des échos dans le discours sur le « bien-être numérique ». Applications de suivi du temps d’écran, cures de « détox digitale » ou téléphones simplifiés sont présentés comme des moyens de cultiver une vie connectée « saine » – souvent sur fond de morale implicite. L’utilisateur idéal est calme, concentré, mesuré ; l’utilisateur impulsif ou expressif est pathologisé.

Cette vision est notamment popularisée par le psychologue Jonathan Haidt, auteur de The Anxious Generation (2024), devenu une référence du mouvement en faveur des restrictions d’âge. Selon lui, les réseaux sociaux accentuent les comportements performatifs et la dysrégulation émotionnelle chez les jeunes. La vie numérique des adolescents est ainsi décrite comme un terrain de fragilisation psychologique, de polarisation accrue et d’effritement des valeurs civiques communes.

Vu sous cet angle, la vie numérique des jeunes se traduit par une résilience psychologique en déclin, par une polarisation croissante et par l’érosion des valeurs civiques communes, plutôt que par un symptôme de mutations complexes. Cela a contribué à populariser l’idée que les réseaux sociaux ne sont pas seulement nocifs mais corrupteurs.

Mais ces thèses font débat. De nombreux chercheurs soulignent qu’elles reposent sur des corrélations fragiles et sur des interprétations sélectives. Certaines études établissent un lien entre usage intensif des réseaux sociaux et troubles anxieux ou dépressifs, mais d’autres montrent des effets modestes, variables selon les contextes, les plateformes et les individus. Surtout, ces analyses négligent la marge de manœuvre des jeunes eux-mêmes, leur capacité à naviguer dans les espaces numériques de façon créative, critique et sociale.

En réalité, la vie numérique des jeunes ne se résume pas à une consommation passive. C’est un espace de littératie, d’expression et de connexion. Des plateformes, comme TikTok et YouTube, ont favorisé une véritable renaissance de la communication orale et visuelle.

Les jeunes assemblent des mèmes, remixent des vidéos et pratiquent un montage effréné pour inventer de nouvelles formes de récit. Il ne s’agit pas de signes de déclin, mais de narrations en évolution. Réglementer leur accès sans reconnaître ces compétences, c’est risquer d’étouffer la nouveauté au profit du déjà-connu.

Réguler les plateformes, pas les jeunes

C’est ici que la comparaison avec l’ère victorienne a toute son utilité. De la même façon que les normes victoriennes visaient à maintenir un ordre social particulier, les restrictions d’âge actuelles risquent d’imposer une vision étroite de ce que devrait être la vie numérique.

En apparence, des termes comme celui de « brain rot » (pourrissement du cerveau) semblent désigner les effets nocifs d’un usage excessif d’Internet. Mais en pratique, les adolescents les emploient souvent pour en rire et pour résister aux pressions de la culture de la performance permanente.

Les inquiétudes autour des habitudes numériques des jeunes semblent surtout enracinées dans la peur d’une différence cognitive – l’idée que certains usagers seraient trop impulsifs, trop irrationnels, trop déviants. Les jeunes sont fréquemment décrits comme incapables de communiquer correctement, se cachant derrière leurs écrans et évitant les appels téléphoniques. Pourtant, ces changements reflètent des mutations plus larges dans notre rapport à la technologie. L’attente d’une disponibilité et d’une réactivité constantes nous attache à nos appareils d’une manière qui rend la déconnexion véritablement difficile.

Les restrictions d’âge peuvent atténuer certains symptômes, mais elles ne s’attaquent pas au problème de fond : la conception même des plateformes, construites pour nous faire défiler, partager et générer toujours plus de données.

Si la société et les gouvernements veulent vraiment protéger les jeunes, la meilleure stratégie serait sans doute de réguler les plateformes numériques elles-mêmes. Le juriste Eric Goldman qualifie l’approche fondée sur les restrictions d’âge de « stratégie de ségrégation et de répression » – une politique qui punit la jeunesse plutôt que de responsabiliser les plateformes.

On n’interdit pas aux enfants d’aller dans les aires de jeux, mais on attend de ces espaces qu’ils soient sûrs. Où sont les barrières de sécurité pour les espaces numériques ? Où est le devoir de vigilance des plateformes ?

La popularité croissante des interdictions de réseaux sociaux traduit un retour en force de valeurs conservatrices dans nos vies numériques. Mais la protection ne doit pas se faire au prix de l’autonomie, de la créativité ou de l’expression.

Pour beaucoup, Internet est devenu un champ de bataille moral, où s’affrontent des conceptions opposées de l’attention, de la communication et de l’identité. Mais c’est aussi une infrastructure sociale que les jeunes façonnent déjà par de nouvelles formes de narration et d’expression. Les en protéger reviendrait à étouffer les compétences et les voix mêmes qui pourraient nous aider à construire un futur numérique plus riche et plus sûr.

The Conversation

Alex Beattie reçoit des financements de la Royal Society Te Apārangi. Il est lauréat d’une bourse Marsden Fast Start.

PDF

29.10.2025 à 15:35

Océans : les poissons, un puits de carbone invisible menacé par la pêche et le changement climatique

Gaël Mariani, Docteur en écologie marine, World Maritime University

Anaëlle Durfort, Doctorante en écologie marine, Université de Montpellier

David Mouillot, Professeur en écologie, laboratoire MARBEC, Université de Montpellier

Jérôme Guiet, Researcher in marine ecosystem modeling, University of California, Los Angeles

La pêche industrielle réduit la capacité des océans à stocker le CO₂. Protéger la haute mer pourrait renforcer ce puits de carbone vital sans menacer la sécurité alimentaire.
Texte intégral (3275 mots)

Les océans jouent un rôle majeur dans le stockage du carbone, notamment à travers la biomasse qu’ils abritent. Le cycle de vie des poissons contribue ainsi à piéger durablement le CO2 dans les abysses, mais la pêche industrielle a affaibli ce mécanisme essentiel, également menacé par le changement climatique. Restaurer les populations marines en haute mer pourrait renforcer ce puits de carbone naturel tout en limitant les conflits avec la sécurité alimentaire.


Lorsqu’on parle des puits de carbone naturels, ces systèmes naturels qui piègent plus de carbone qu’ils n’en émettent, on pense plus volontiers aux forêts et aux sols qu’aux océans. Pourtant, les océans représentent le second puits de carbone naturel.

L’impact des activités humaines (et en particulier la pêche) sur le stockage de carbone océanique n’avait été jusque-là que peu étudié, et cela alors que la macrofaune marine (notamment les poissons) représente environ un tiers du carbone organique stocké par les océans. Nos recherches, récemment publiées dans les revues Nature Communications et One Earth, ont voulu y remédier.

Nos résultats montrent que la pêche a d’ores et déjà réduit la séquestration de carbone par les poissons de près de moitié depuis 1950. D’ici la fin du siècle, cette baisse devrait atteindre 56 % sous l’effet combiné de la pêche et du changement climatique. De quoi plaider pour une gestion plus durable de l’océan, qui prendrait en compte l’impact de la pêche sur la séquestration de carbone.

Pourquoi s’intéresser à la séquestration de carbone dans les océans ?

Le Groupe d’experts intergouvernemental sur l’évolution du climat (Giec) le dit explicitement dans ses rapports : pour atteindre les objectifs climatiques, il faut d’abord réduire drastiquement et immédiatement nos émissions de gaz à effet de serre (chaque année, les activités humaines émettent environ 40 milliards de tonnes équivalent CO₂), puis développer les solutions climatiques fondées sur la nature.

Celles-ci intègrent l’ensemble des mesures de restauration, de protection et de meilleure gestion des écosystèmes qui piègent du carbone, comme les forêts. Ces mesures pourraient capturer 10 milliards de tonnes équivalent CO₂ par an, et doivent être mises en œuvre de façon complémentaire à des politiques de réduction des émissions.

Cependant, le carbone stocké par ces écosystèmes est de plus en plus menacé par le changement climatique. Par exemple, les feux de forêt au Canada ont émis 2,5 milliards de tonnes équivalent CO₂ en 2023 : la forêt n’est alors plus un puits de carbone, mais devient une source d’émissions.


À lire aussi : Comment une forêt peut-elle émettre plus de CO₂ qu’elle n’en capture ?


Face à ce constat, la communauté scientifique se tourne aujourd’hui vers les océans, à la recherche de nouvelles solutions qui permettraient d’y séquestrer davantage de carbone.

Mais, pour que cela soit possible, il faut d’abord comprendre comment la vie abritée par les océans interagit avec le cycle du carbone ainsi que l’influence du changement climatique, d’une part, et de la pêche, d’autre part.

Quel est le rôle joué par les poissons dans ce processus ?

La vaste majorité des 38 000 milliards de tonne de carbone stocké par l’océan l’est à travers des phénomènes physiques. Mais la biomasse des océans y contribue également, à hauteur d’environ 1 300 milliards de tonnes de carbone organique. Les poissons représentent environ 30 % de ce stock de carbone.

Ceci est rendu possible via leur contribution à ce qu’on appelle la pompe biologique du carbone, c’est-à-dire, la série de processus biologiques qui permettent de transporter le carbone des eaux de surface vers les fonds marins. C’est un élément majeur du cycle du carbone.

Cette pompe biologique commence par le phytoplancton, capable de transformer du CO2 en matière organique carbonée. À sa mort, une partie de ce carbone va couler dans les profondeurs de l’océan où il sera séquestré durablement, tandis que le reste sera ingéré par des prédateurs. À nouveau, c’est lorsque ce carbone va couler dans les profondeurs (pelotes fécales, carcasses des prédateurs morts…) qu’il sera durablement séquestré.

Les poissons jouent un rôle clé dans ce processus : leurs carcasses et pelotes fécales, plus denses, coulent bien plus rapidement que celles du plancton. Or, plus le carbone coule rapidement vers les profondeurs – et s’éloigne de l’atmosphère –, plus le temps qu’il mettra avant de retourner à l’atmosphère sera important : le carbone sera ainsi stocké de façon plus durable.

La pompe biologique du carbone et la contribution des différents organismes sont le fruit d’une combinaison de processus : (1) La conversion du CO₂ en carbone organique par le phytoplancton qui réalise la photosynthèse ; (2) le phytoplancton contribue à la séquestration de carbone via la chute gravitationnelle des cellules phytoplanctoniques mortes ; (3) le phytoplancton et le carbone qu’il contient sont mangés par le zooplancton. Le zooplancton contribue à la séquestration de carbone via (4) la chute gravitationnelle de leurs pelotes fécales, ou (5) de leurs carcasses, les deux contenant le carbone ingéré. (6) Le zooplancton et le carbone qu’il contient sont mangés par des poissons. Les poissons contribuent à la séquestration de carbone via (4) la chute gravitationnelle de leurs pelotes fécales, ou (5) de leurs carcasses, les deux contenant le carbone ingéré. Fourni par l'auteur

Notre étude, qui s’est spécifiquement intéressée aux espèces de poissons d’intérêt commercial (c’est-à-dire ciblées par la pêche), estime que ces derniers étaient en mesure de séquestrer 0,23 milliard de tonnes de carbone par an en 1950 (soit 0,85 tonne de CO2 par an).


À lire aussi : Éliminer le CO₂ grâce au puits de carbone océanique, une bonne idée ?


Un cercle vicieux du fait du changement climatique

Mais depuis 1950, les choses ont changé. D’abord du fait du changement climatique : à cause de la raréfaction des ressources alimentaires (moins de phytoplancton) et des changements de conditions environnementales (température, oxygène…), plus le changement climatique sera fort, plus la biomasse des espèces d’intérêt commercial – et par extension, leur capacité à piéger du carbone – vont diminuer.

  • Dans un scénario où l’augmentation moyenne des températures serait limitée à 1,5 °C (scénario de respect de l’accord de Paris), la biomasse baisserait d’environ 9 % d’ici la fin du siècle, soit une diminution de piégeage de carbone d’environ 4 %.

  • Dans le cas d’un scénario de statu quo où les températures augmenteraient de 4,3 °C, cette baisse atteindrait environ 24 % pour la biomasse, et près de 14 % pour le piégeage de carbone.

Nous avons donc à faire à ce que l’on appelle une boucle de rétroaction positive – autrement dit, un cercle vicieux : plus le changement climatique est important, moins les poissons séquestreront de carbone, ce qui va renforcer le changement climatique lui-même. C’est le serpent qui se mord la queue.

Une séquestration carbone déjà réduite de moitié par la pêche

L’impact du changement climatique dans le scénario d’un réchauffement à 1,5 °C (que nous sommes en passe de dépasser) reste donc faible, mais les effets de la pêche, eux, sont déjà visibles.

Aujourd’hui, les espèces de poissons commerciales ne piègent déjà plus que 0,12 milliard de tonnes de CO2 par an (contre 0,23 milliard de tonnes de carbone par an en 1950), soit une diminution de près de moitié.

D’autant plus que les effets de la pêche ne sont pas les mêmes selon la voie de séquestration considérée. Depuis 1950, la pêche a réduit la séquestration de carbone via les pelotes fécales d’environ 47 %. Pour la voie passant par les carcasses, cette diminution est d’environ 63 %.

Ceci est lié au fait que la pêche cible les plus gros organismes, soit ceux qui ont le moins de prédateurs – et donc ceux le plus susceptibles de mourir de vieillesse et de voir leur carcasse couler dans les abysses.

Cette diminution est aussi synonyme d’une réduction de l’arrivée de nourriture dans les abysses, les carcasses étant une ressource particulièrement nutritive pour les organismes qui y vivent.

Or, nous connaissons très peu de choses sur ces écosystèmes abyssaux, avec des millions d’espèces qui restent à découvrir. Nous n’avons pour l’instant observé que 0,001 % de la surface totale de ces écosystèmes. Nous sommes donc peut-être en train d’affamer une multitude d’organismes abyssaux que nous connaissons à peine.

Pour préserver le climat, restaurer les populations de poissons ?

Notre étude montre que si les populations de poissons étaient restaurées à leur niveau historique de 1950, cela permettrait de séquestrer 0,4 milliard de tonnes de CO2 supplémentaires par an, soit un potentiel comparable à celui des mangroves. Avec un atout : ce carbone serait séquestré pour environ six cents ans, soit plus longtemps que dans les mangroves, où seuls 9 % du carbone piégé l’est encore après cent ans.

Cependant, malgré ce potentiel notable, les solutions climatiques basées sur la restauration de la macrofaune marine, si elles étaient mises en œuvre seules, n’auraient qu’un impact mineur sur le climat, au regard des 40 milliards de tonnes de CO₂ émis chaque année.

D’autant plus que, ce domaine de recherche étant récent, plusieurs incertitudes subsistent. Par exemple, nos études ne tiennent pas compte des relations trophiques (c’est-à-dire, liées à la chaîne alimentaire) entre les prédateurs et leurs proies, lesquelles contribuent aussi à la séquestration de carbone. Or, si on augmente la biomasse des prédateurs, la biomasse des proies va mécaniquement diminuer. Ainsi, si la séquestration de carbone par les prédateurs augmente, celle des proies diminue, ce qui peut neutraliser l'impact des mesures visant à restaurer les populations de poissons pour séquestrer du carbone.

Ainsi, nos résultats ne doivent pas être vus comme une preuve suffisante pour considérer de telles mesures comme une solution viable. Ils illustrent néanmoins l’importance d’étudier l’impact de la pêche sur la séquestration de carbone et la nécessité de protéger l’océan pour limiter les risques d’épuisement de ce puits de carbone, tout en tenant compte des services rendus par l’océan à nos sociétés (sécurité alimentaire, emplois…).

Des conflits entre pêche et séquestration de carbone surtout en haute mer

En effet, les organismes marins participent directement à la séquestration de carbone, tout en bénéficiant aussi au secteur de la pêche. Or, ce secteur est une source d’emplois et de revenus économiques majeurs pour les populations côtières, contribuant directement au maintien et à l’atteinte de la sécurité alimentaire dans certaines régions.

Des conflits entre la séquestration de carbone et les bénéfices socio-économiques de la pêche peuvent donc théoriquement apparaître. Si la pêche augmente, les populations de poissons et leur capacité à séquestrer du carbone vont diminuer, et inversement.

Toutefois, nous avons montré que seulement 11 % de la surface de l’océan est potentiellement exposée à de tels conflits. Il s’agit des zones où l’effort de pêche et la séquestration de carbone sont tous deux élevés.

Les zones potentiellement conflictuelles entre la pêche et la séquestration de carbone par les poissons correspondent aux zones où (1) l’effort de pêche est fort et (2) les poissons contribuent fortement à la séquestration de carbone. La majorité de ces zones (environ 60 %) sont situées en haute mer, c’est-à-dire à plus de 370 kilomètres des côtes, au-delà de toute juridiction nationale. Fourni par l'auteur

De plus, une majorité (environ 60 %) de ces zones potentiellement conflictuelles sont situées en haute mer, là où les captures contribuent de façon négligeable à la sécurité alimentaire globale. Aussi, la pêche en haute mer est connue pour sa faible rentabilité et son subventionnement massif par les gouvernements (à hauteur de 1,5 milliard de dollars, soit plus de 1,2 milliard d’euros, en 2018).

Ces subventions gouvernementales sont vivement critiquées, car elles menacent la viabilité des pêcheries côtières artisanales, favorisent la consommation de carburant et augmentent les inégalités entre les pays à faibles et hauts revenus.

Ainsi, nos résultats apportent un argument supplémentaire en faveur de la protection de la haute mer. En plus d’éviter de multiples effets socio-économiques négatifs, cela permettrait également de protéger la biodiversité et, par la même occasion, de préserver la capacité des océans à séquestrer du carbone organique.

The Conversation

Le financement a été assuré par la bourse de doctorat de l'Université de Montpellier à G.M. et la bourse de la Fondation de la Mer. de Montpellier à G.M. Le travail de G.M. a été partiellement financé par l'Union européenne dans le cadre de l'accord de subvention n°101083922 (OceanICU). Les points de vue et les opinions exprimés sont ceux des auteurs et ne reflètent pas nécessairement ceux de l'Union européenne ou de l'Agence exécutive pour la recherche européenne. L'Union européenne et l'autorité qui a octroyé la subvention ne peuvent en être tenues pour responsables.

Anaëlle Durfort a participé à ce travail dans le cadre de son doctorat, financé par une bourse de thèse (publique) à l'université de Montpellier.

David Mouillot et Jérôme Guiet ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.

PDF

29.10.2025 à 15:34

Redirection du commerce chinois vers l’Europe : petits colis, grand détour

Charlotte Emlinger, Économiste, CEPII

Kevin Lefebvre, Économiste, CEPII

Vincent Vicard, Économiste, adjoint au directeur, CEPII

À la suite des droits de douane mis en place par Donald Trump, on observe une réorientation significative du commerce chinois des États-Unis vers l’Union européenne à travers les… petits colis.
Texte intégral (1389 mots)

À la suite des droits de douane mis en place par Donald Trump, on observe une réorientation significative du commerce chinois des États-Unis vers l’Union européenne à travers les… petits colis. Explication en chiffres et en graphiques.


La hausse spectaculaire des droits de douane imposée par les États-Unis aux importations en provenance de Chine (57,6 % fin août, après un pic à 135,3 % en avril d’après les calculs du Peterson Institute for International Economics) ferme largement le marché états-unien aux exportateurs chinois. La chute massive des exportations chinoises vers les États-Unis qui s’en est suivie, en recul de près de 25 % sur la période juin-août 2025 par rapport aux mêmes mois de 2024, témoigne de l’ampleur du choc.

Le risque est que, confrontés à la fermeture de l’un de leurs deux principaux marchés, les exportateurs chinois cherchent à réorienter leurs exportations, laissant planer le doute d’une redirection massive vers l’Union européenne (UE). Dans cette perspective, la Commission européenne a mis en place une surveillance du détournement des flux commerciaux pour identifier les produits faisant l’objet d’une hausse rapide des quantités importées et d’une baisse de prix, toutes origines confondues.

Dynamiques saisonnières

Le premier graphique montre que, depuis février, la baisse des exportations chinoises s’est accompagnée d’une hausse de celles vers l’Union européenne. Une analyse des évolutions passées révèle toutefois que la hausse observée au deuxième trimestre 2025 correspond en partie à un rebond saisonnier observé à la même époque les années précédentes et lié au Nouvel An chinois, que cela soit pour l’Union européenne, les États-Unis, le Vietnam, le Japon ou la Corée du Sud. Il est essentiel d’interpréter les évolutions récentes au regard des dynamiques saisonnières des années antérieures.

Observer une hausse des importations ne suffit pas à conclure à une redirection du commerce chinois des États-Unis vers l’Union européenne (UE).

Pour qu’un tel phénomène soit avéré, il faut que les mêmes produits soient simultanément concernés par une hausse des volumes d’exportations de la Chine vers l’UE et une baisse vers les États-Unis. Par exemple, une hausse des exportations de véhicules électriques chinois vers l’UE ne peut pas être considérée comme une réorientation du commerce puisque ces produits n’étaient pas exportés auparavant vers les États-Unis.

De la même manière, les produits faisant l’objet d’exceptions dans les droits mis en place par Donald Trump, comme certains produits électroniques, certains combustibles minéraux ou certains produits chimiques, ne sont pas susceptibles d’être réorientés. Cela ne signifie pas qu’une augmentation des flux d’importations de ces produits ne soulève pas des enjeux de compétitivité et de concurrence pour les acteurs français ou européens. Mais ces enjeux sont d’une autre nature que ceux liés à une pure redirection du commerce chinois consécutive à la fermeture du marché des États-Unis.

Deux critères complémentaires

Pour identifier les produits pour lesquels la fermeture du marché états-unien a entraîné une redirection du commerce chinois vers l’Union européenne (UE), nous combinons deux critères :

  • Si, d’une année sur l’autre, le volume des exportations d’un produit vers l’UE augmente plus vite que celui des trois quarts des autres produits chinois exportés vers l’UE en 2024.

  • Si, d’une année sur l’autre, le volume des exportations d’un produit vers les États-Unis diminue plus vite que celui des trois quarts des autres produits chinois exportés vers les États-Unis en 2024.

Seuls les produits pour lesquels les exportations chinoises vers les États-Unis étaient suffisamment importantes avant la fermeture du marché états-unien sont retenus. Soit les 2 499 produits pour lesquels la part des États-Unis dans les exportations chinoises dépassait 5 % en 2024. Pour 402 de ces produits, le volume des exportations chinoises a enregistré une forte baisse entre juin-août 2024 et juin-août 2025.

Près de 176 produits concernés

En combinant les deux critères, 176 produits sont concernés en juin-août 2025 (graphique 2), soit 44 % des produits dont les ventes ont nettement chuté sur le marché états-unien. Parmi eux, 105 concernent des produits pour lesquels l’Union européenne a un avantage comparatif révélé, c’est-à-dire pour lesquels la hausse des importations se fait sur une spécialisation européenne.

Moins de la moitié des 176 produits connaît simultanément une forte baisse de leur prix, suggérant qu’une partie de la redirection du commerce chinois entraîne une concurrence par les prix sur le marché européen.

En valeur, les 176 produits identifiés représentent 7,2 % des exportations chinoises vers l’Union européenne sur la dernière période disponible, et la tendance est clairement à la hausse (graphique 3). Cette progression s’explique pour beaucoup par la hausse des flux de petits colis redirigés vers l’UE depuis qu’en avril 2025, les États-Unis ont supprimé l’exemption de droits de douane sur les colis en provenance de Chine.

Secteurs des machines, chimie et métaux

Les produits sujets à redirection vers le marché européen sont très inégalement répartis entre secteurs (graphique 4). En nombre, on les retrouve concentrés dans les secteurs des machines et appareils (42 produits), de la chimie (31) et des métaux (22). En valeur cependant, les secteurs les plus concernés sont de très loin les petits colis (qui représentent 5,4 % du commerce bilatéral en juin-août 2025) et, dans une moindre mesure, les équipements de transport, les huiles et machines et appareils.

En comparaison, le Japon subit davantage la réorientation du commerce chinois puisque 298 produits sont identifiés en juin-août 2025 (graphique 5). Ces produits représentent une part beaucoup plus importante des exportations chinoises vers le Japon (16,2 % en juin-août 2025). Des dynamiques similaires sont observées en Corée du Sud (196 produits, représentant 2,7 % de son commerce bilatéral avec la Chine) et le Vietnam (230 produits, 6,5 % de son commerce bilatéral avec la Chine).

Fin du régime douanier simplifié

Consciente de la menace qu’ils représentent, la Commission européenne prévoit, dans le cadre de la prochaine réforme du Code des douanes, de mettre fin au régime douanier simplifié dont ces petits colis bénéficient actuellement. Cette réforme ne devrait pas entrer en vigueur avant 2027. D’ici là, certains États membres tentent d’aller plus vite.

En France, le gouvernement a récemment proposé, dans le cadre de son projet de loi de finance, d’instaurer une taxe forfaitaire par colis. Mais, sans coordination européenne, la mesure risque d’être contournée : les colis pourraient simplement transiter par un pays de l’UE à la taxation plus clémente.

Au-delà des petits colis, un certain nombre d’autres produits sont également soumis à des hausses rapides des quantités importées, susceptibles de fragiliser les producteurs européens, mais ils représentent une part limitée des importations européennes en provenance de Chine. Des tendances qui devront être confirmées dans les prochains mois par un suivi régulier.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

29.10.2025 à 15:33

Cancer du sein : l’allaitement maternel diminue le risque

Isabelle Romieu, Professeur d’épidémiologie, National Institute of Public Health of Mexico

Allaiter son enfant est un facteur protecteur contre le cancer du sein, y compris pour les périodes d’allaitement les plus courtes.
Texte intégral (2326 mots)

Le cancer du sein demeure la première cause de mortalité par cancer chez les femmes. Outre le dépistage, la lutte contre la maladie passe également par la prise en compte des facteurs de risque modifiables sur lesquels il est possible d’agir. Si l’alcool, le tabac, le surpoids ou la sédentarité sont fréquemment mentionnés, on sait peut-être moins que le fait de ne pas avoir allaité en constitue aussi un.


En 2025, « Octobre rose » a fêté son 32ᵉ anniversaire. Chaque année, cette campagne mondiale de communication vise un double objectif : sensibiliser au dépistage du cancer du sein et récolter des fonds pour la recherche.

Cet événement, symbolisé par le ruban rose, est plus que jamais d’actualité. En effet, en France, le cancer du sein continue malheureusement à progresser. Il représente aujourd’hui à lui seul le tiers de l’ensemble des nouveaux cas de cancer chez la femme.

Si la survie des patients s’est améliorée, grâce à une détection plus précoce et à la mise au point de traitements plus efficaces, chaque année, plusieurs milliers d’entre elles décèdent encore de la maladie. Dans un tel contexte, la connaissance des facteurs de risque et, en particulier, de ceux sur lesquels il est possible d’agir, est extrêmement importante.

On sait aujourd’hui que la consommation d’alcool, le surpoids et l’obésité ou encore la sédentarité accroissent le risque de développer la maladie. Mais un autre facteur de risque est peut-être moins connu du public : le fait de ne pas avoir allaité au cours de sa vie. L’allaitement confère, en effet, un certain niveau de protection contre le cancer du sein.

Les scientifiques ont commencé à élucider les mécanismes qui en sont à l’origine. Voici ce qu’il faut en savoir.

Le cancer du sein, une incidence élevée en France

En France, le nombre de nouveaux cas de cancer du sein diagnostiqués chaque année a progressé de 0,3 % par an entre 2010 et 2023.

En 2023, 61 214 femmes se sont vues annoncer le triste diagnostic, tandis que 12 600 ont été emportées par la maladie. L’incidence de la maladie est particulièrement élevée dans notre pays, où l’on compte 99,2 cas pour 100 000 femmes. Selon les dernières données de Globocan (Global Cancer Observatory/Organisation mondiale de la santé), la France se situe en quatrième position en Europe derrière la Belgique, les Pays-Bas et le Luxembourg, et devant le Royaume-Uni, l’Italie, l’Allemagne et l’Espagne.

Point positif : entre 2011 et 2021, la mortalité due au cancer du sein a reculé de 1,3 % par an. Bien que la survie des patientes ait progressé au fil des ans, grâce à une détection plus précoce et à la mise au point de traitements plus efficaces, le cancer du sein reste le cancer féminin le plus fréquent ainsi que la première cause de mortalité par cancer chez la femme.

Le cancer du sein est néanmoins un cancer de bon pronostic. Entre 2005 et 2010, la survie nette à cinq ans était de 88 % (et de 76 % à dix ans). Afin de détecter précocement la maladie et d’en réduire la mortalité, un programme national de dépistage est organisé depuis 2004.

Comment est dépisté le cancer du sein en France ?

  • À partir de l’âge de 50 ans et tous les deux ans (en l’absence de symptômes et de risque élevé), un courrier de l’Assurance maladie est adressé à chaque femme éligible l’invitant à réaliser un dépistage du cancer du sein.
  • Le dépistage consiste en un examen clinique des seins (examen réalisé directement sur la patiente) et d’une mammographie (examen radiologique). Dans certaines situations, une échographie des seins est également nécessaire pour compléter la mammographie.
  • À partir de l’âge de 25 ans, un examen clinique (observation et palpation) des seins est recommandé au moins une fois par an, quel que soit votre niveau de risque. Il peut être réalisé par un médecin généraliste, un gynécologue ou une sage-femme.

Dans ce cadre, toutes les femmes âgées de 50 ans à 74 ans se voient proposer un dépistage pris en charge à 100 %, tous les deux ans. Cependant, en 2023, seuls 48,2 % des femmes éligibles à ce programme avaient été dépistées. Seuls 60 % des cancers du sein étaient détectés à un stade précoce.

En parallèle du dépistage, il est donc également important d’agir sur les facteurs de risque de cancer du sein susceptible d’être modifiés. Selon le Centre international de recherche sur le cancer (CIRC), 37 % de l’ensemble des nouveaux cas de cancers seraient attribuables à des facteurs de risque modifiables, qu’ils soient comportementaux ou environnementaux. Parmi ceux-ci figurent non seulement la consommation d’alcool, le surpoids et l’obésité, la sédentarité ou le fait de fumer, mais aussi, dans le cas du cancer du sein, le fait de ne pas avoir allaité.

Effet protecteur de l’allaitement

L’effet protecteur de l’allaitement augmente avec la durée cumulée de l’allaitement, qui correspond à la durée d’allaitement d’une femme pour tous ses enfants.

Pour chaque douze mois cumulés d’allaitement, la réduction du risque de cancer du sein est estimée à 4,3 %. Cet effet protecteur s’ajoute à la protection associée à la parité (c’est-à-dire la réduction du risque de cancer du sein directement liée au fait d’avoir eu un enfant).

Dans ce contexte, une femme qui a deux enfants et qui nourrit chaque enfant au sein pendant douze mois aura une diminution de risque de cancer du sein de 8,6 %. Une femme qui a eu trois enfants et les a allaités chacun pendant cinq mois, soit un l’allaitement total de quinze mois, verra le risque de développer un cancer du sein diminuer de 6 %.

Recommandations sur l’allaitement

En France, les données de l’Agence nationale de santé publique montre que le taux d’allaitement diminue avec le temps. Si, en 2021, le taux d’initiation à l’allaitement maternel était de 77 %, à l’âge de 2 mois seuls 54,2 % des enfants étaient encore allaités. À 6 mois, cette proportion tombe à 34 % des enfants encore allaités (dont 29 % tout en ayant commencé une diversification alimentaire). À 12 mois, seuls 18 % des enfants étaient encore allaités.

Cette situation contraste avec certains pays d’Europe, où le taux d’allaitement est nettement plus élevé. Ainsi, en Norvège, 98 % des enfants sont allaités à la naissance, 71 % des enfants sont encore allaités à l’âge de 6 mois et 35 % à 12 mois. En Suisse, 95 % des enfants sont allaités à la naissance, 52 % des enfants sont encore allaités à 6 mois et 20 % à 12 mois.

Comment l’allaitement peut-il diminuer le risque de cancer du sein ?

Divers travaux de recherche ont tenté d’éclaircir les mécanismes de protection. En l’état actuel des connaissances, il semblerait que l’allaitement joue un rôle protecteur contre le cancer du sein de plusieurs façons.

Lors de l’allaitement, la structure du sein se modifie, ce qui augmente la différenciation de l’épithélium mammaire et rend les cellules moins sensibles à la transformation maligne. Par ailleurs, l’allaitement retarde la reprise des cycles ovulaires après la grossesse et réduit le taux d’œstrogènes dans le sein, ce qui se traduit par une plus faible exposition du tissu mammaire aux hormones. Or, les hormones jouent un rôle important dans le risque de cancer du sein, car elles modulent la structure et la croissance des cellules épithéliales tumorales.

Enfin, au cours de la lactation, on constate une exfoliation plus importante du tissu mammaire (décrochage de cellules), ce qui pourrait entraîner une élimination de cellules du tissu canalaire mammaire potentiellement porteuses de lésions de l’ADN risquant de dégénérer en cancer.

Soulignons que le fait de tirer son lait confère également un certain niveau de protection, similaire à l’allaitement direct.

De multiples bénéfices pour la mère et l’enfant

Au-delà de la diminution du risque de cancer du sein, l’allaitement maternel présente également d’autres avantages majeurs pour la mère et l’enfant.

Pour la mère, l’allaitement maternel permettra de retrouver le poids d’avant la grossesse et de réduire la prise de poids à long terme. Les femmes d’âge moyen qui ont allaité sont moins susceptibles d’être en surpoids ou obèses.

Pour l’enfant, le lait maternel est le meilleur aliment pendant les six premiers mois de la vie. Il protège contre maladies infectieuses dès le plus jeune âge, principalement la diarrhée et les infections des voies respiratoires inférieures. Cette protection est due à la présence dans le lait maternel de plusieurs composés antimicrobiens, anti-inflammatoires et modulateurs de l’immunité ainsi que de modulateurs de croissance.

Enfin, des effets sur le développement cognitif de l’enfant ainsi que sur la croissance et la protection contre les maladies chroniques telles que l’asthme et l’obésité ont aussi été évoqués par certains travaux de recherche.

En cas de difficulté d’allaitement, que faire ?

De nombreuses mères rencontrent des difficultés d’allaitement, en général temporaires. Il s’agit principalement de crevasses, d’une perception de lait insuffisant, d’engorgements ou de douleurs.

Si ces difficultés persistent, un soutien professionnel adéquat peut être proposé. Il inclut la consultation d’une sage-femme ou d’une consultante en lactation, et peut être fourni par des maternités, des centres de protection maternelle et infantile (PMI), ou par l’intermédiaire d’associations comme l’Association française de consultants en lactation.

Dans certains cas, lorsque les difficultés pour allaiter persistent ou que des causes médicales sont impliquées, il est possible de recourir à des laits infantiles de qualité, sous la supervision d’un professionnel de santé, ou encore à des dons de lait maternel.

La protection conférée par l’allaitement est d’autant plus importante que les mois d’allaitement cumulés sont nombreux, mais soulignons que toute durée d’allaitement aura un effet protecteur.


Pour aller plus loin :

The Conversation

Isabelle Romieu a reçu des subventions de l’Institut national du cancer (INCA) et du « World cancer research fund » (WCRF) pour des travaux de recherche épidémiologique sur les facteurs de risques de cancer du sein.

PDF

29.10.2025 à 14:00

Le crime organisé est la première entreprise du Brésil et la menace la plus grave qui pèse sur le pays

Robert Muggah, Richard von Weizsäcker Fellow na Bosch Academy e Co-fundador, Instituto Igarapé

Le 28 octobre 2025, Rio a vécu l’opération policière la plus sanglante de son histoire contre les narcotrafiquants. Mais alors que le crime organisé s’est imposé comme une puissance économique au Brésil, les démonstrations de force ne règlent rien.
Texte intégral (1692 mots)

Le raid policier, mené le 28 octobre 2025, contre des narcotrafiquants dans les favelas de Rio de Janeiro est le plus meurtrier qu’ait connu la ville. Mais face à l’empire que le crime organisé a constitué au Brésil, les interventions spectaculaires ne suffisent plus : l’État doit inventer une réponse nationale.


Le 28 octobre, à Rio de Janeiro, des véhicules blindés de la police ont pénétré dans les complexes d’Alemão et de Penha pour interpeller des chefs de gangs. Des fusillades ont éclaté, des routes ont été bloquées, des bus ont été détournés, des écoles et des campus ont été fermés, et des drones ont largué des explosifs sur les forces de l’ordre. Le soir venu, l’État confirmait que « l’opération Contenção » s’était soldée par 124 morts, dont quatre policiers. Ce fut la confrontation la plus sanglante jamais enregistrée dans l’histoire de la ville.

L’économie criminelle du Brésil est sortie des ruelles pour investir désormais les salles de réunion, figurer dans les bilans financiers et s’infiltrer dans des chaînes d’approvisionnement essentielles. Au cours de la dernière décennie, le crime organisé brésilien s’est étendu à l’ensemble du pays et même à d’autres continents. Les plus grandes organisations de trafic de drogue, comme le Primeiro Comando da Capital (PCC) et le Comando Vermelho (CV), se trouvent au cœur de véritables réseaux franchisés. Les « milices » de Rio – groupes paramilitaires principalement composés de policiers et de pompiers ayant quitté leurs anciennes fonctions ou, pour certains, les exerçant toujours – monétisent le contrôle qu’elles exercent sur le territoire en se faisant payer pour des « services » de protection, de transport, de construction et autres services essentiels.

À mesure que ces groupes se sont professionnalisés, ils ont diversifié leurs activités, qui vont aujourd’hui du trafic de cocaïne à la contrebande d’or, aux paiements numériques et aux services publics. Lorsque les groupes armés du Brésil se disputent les marchés illicites, la violence peut atteindre des niveaux comparables à ceux de zones de guerre.

Rien n’illustre mieux le nouveau modèle économique que le commerce illégal de carburants. Comme je l’ai écrit dans The Conversation fin août, les autorités ont effectué environ 350 perquisitions dans huit États dans le cadre de l’opération Carbone Caché, qui visait à faire la lumière sur le blanchiment présumé de sommes colossales à travers des importations de dérivés du pétrole et un réseau de plus d’un millier de stations-service. Entre 2020 et 2024, environ 52 milliards de réaux (8,3 milliards d’euros) de flux suspects ont transité par des fintechs, dont l’une fonctionnait en tant que banque parallèle. Des fonds fermés auraient investi dans des usines d’éthanol, des flottes de camions et un terminal portuaire, donnant aux profits illicites un vernis de respectabilité.

Sur les marchés financiers, les investisseurs sont à présent conscients des dangers. Ces derniers mois, les fonds d’investissement ont enfin commencé à considérer l’infiltration criminelle comme un risque matériel, et les analystes cherchent plus qu’auparavant à déterminer quelles chaînes logistiques, quelles institutions de paiement et quels fournisseurs régionaux pourraient être exposés.

Gouvernance criminelle

Les équipes de sécurité des entreprises cartographient l’extorsion et le contrôle des milices avec la même attention que celle qu’elles accordent aux menaces cyber.

La réaction du marché aux opérations menées en août par la police dans le cadre de l’opération « Carbone Caché » a rappelé que le crime organisé ne génère pas seulement de la violence : il fausse la concurrence, pénalise les entreprises respectueuses des règles et impose une taxe cachée aux consommateurs. Il n’est donc pas surprenant qu’en septembre, le ministre des finances Fernando Haddad ait annoncé la création d’une nouvelle unité policière dédiée à la lutte contre les crimes financiers.

La « gouvernance criminelle » s’est propagée des prisons aux centres financiers. Dans leurs fiefs de Rio, les gangs et les milices opèrent comme des bandits traditionnels, contrôlant le territoire et les chaînes d’approvisionnement logistique. Pendant ce temps, des franchises du PCC et du CV sont apparues à l’intérieur des terres et en Amazonie, cherchant à engranger des profits plus élevés grâce à la contrebande d’or et de bois, ainsi qu’au transport fluvial illégal de marchandises.

Ces factions opèrent désormais au-delà des frontières, du pays en lien avec des organisations criminelles de Colombie, du Pérou et du Venezuela.

Les outils de contrôle n’ont pas suivi l’évolution du crime

Le bilan humain reste accablant, même si les chiffres nationaux agrégés se sont améliorés. En 2024, le Brésil a enregistré 44 127 morts violentes intentionnelles, son niveau le plus bas depuis 2012, mais cela représente encore plus de 120 homicides par jour. La géographie de l’intimidation s’est étendue : une enquête commandée par le Forum brésilien de la sécurité publique a révélé que 19 % des Brésiliens – soit environ 28,5 millions de personnes – vivent aujourd’hui dans des quartiers où la présence de gangs ou de milices est manifeste, soit une hausse de cinq points en un an.

Les outils de contrôle de l’État n’ont pas suivi l’évolution du modèle économique du crime organisé. Les incursions spectaculaires et les occupations temporaires font les gros titres et entraînent de nombreuses morts, mais perturbent peu le marché. Les polices des États, depuis longtemps considérées comme les plus létales du monde, démantèlent rarement les groupes criminels.

Les politiques étatiques et municipales sont elles aussi devenues de plus en plus vulnérables : le financement des campagnes, les contrats de travaux publics et les licences sont désormais des canaux investis par le pouvoir criminel. L’opération fédérale d’août a constitué une rare exception et a apporté la preuve de l’efficacité d’une répression visant l’argent du crime, et non seulement les porte-flingues.

Si les législateurs brésiliens sont sérieux, ils doivent traiter le crime organisé comme une défaillance du marché national et réagir à l’échelle nationale. Cela commence par placer le gouvernement fédéral à la tête de forces spéciales interinstitutionnelles permanentes réunissant police fédérale, procureur général, administration fiscale, cellules de renseignement financier, régulateurs du carburant et du marché, ainsi que Banque centrale.

Il faut davantage de condamnations

Ces équipes devront disposer d’un mandat clair pour agir au-delà des frontières des États et accomplir quatre tâches simples : suivre en temps réel les paiements à risque ; publier une liste fiable des propriétaires réels des entreprises qui contrôlent le carburant, les ports et d’autres actifs stratégiques ; connecter les données fiscales, douanières, de concurrence et de marchés afin qu’un signal d’alerte dans un domaine déclenche des vérifications dans les autres ; et se tourner vers des tribunaux au fonctionnement accéléré pour rapidement geler et saisir l’argent sale.

Les incitations doivent être modifiées afin que la police et les procureurs soient récompensés pour les condamnations et les saisies d’actifs, et non pour le nombre de morts. Et là où des groupes criminels ont pris le contrôle de services essentiels, comme les transports ou les services publics, ceux-ci doivent être placés sous contrôle fédéral temporaire et faire l’objet d’appels d’offres transparents et étroitement surveillés afin d’être, au final, remis à des opérateurs légaux.

Le Brésil a déjà prouvé qu’il pouvait mener de grandes opérations aux effets dévastateurs contre le crime. Le véritable défi est désormais de faire en sorte que le travail ordinaire de la loi – enquêtes, constitution de dossiers solides… – soit plus décisif que les interventions spectaculaires. Faute de quoi, il ne faudra pas longtemps pour qu’une grande ville brésilienne ne soit complètement paralysée.

The Conversation

Robert Muggah est affilié à l’Institut Igarapé et à SecDev.

PDF

29.10.2025 à 12:04

Combien de temps un moustique peut-il survivre sans piquer un humain ?

Claudio Lazzari, Professeur des Universités, Département de biologie animale et de génétique, Université de Tours

Contrairement à ce que l’on pourrait penser, tous les moustiques ne se nourrissent pas de sang et même ceux qui le font n’en ont pas besoin en permanence pour survivre.
Texte intégral (809 mots)

La capacité d’un moustique à survivre sans piquer un humain dépend de plusieurs facteurs : son état de développement, son sexe, son espèce, son environnement et ses besoins physiologiques. Contrairement à ce que l’on pourrait penser, tous les moustiques ne se nourrissent pas de sang et même ceux qui le font n’en ont pas besoin en permanence pour survivre.


À leur naissance, tous les moustiques mènent une vie aquatique et se nourrissent de matière organique et de petits organismes. Cette période dure entre une et deux semaines, selon l’espèce, la température et la disponibilité en nourriture. Ils traversent quatre stades larvaires consacrés à l’alimentation et à la croissance, puis un stade de nymphe mobile au cours duquel une transformation corporelle profonde en moustique adulte a lieu, et durant lequel ils ne se nourrissent pas.

Au cours de leur vie, les moustiques occupent ainsi deux habitats complètement différents : l’eau et le milieu aérien, et utilisent des ressources différentes. À la différence d’autres insectes piqueurs, comme les punaises de lit ou les poux, qui se nourrissent de sang durant toute leur vie, les moustiques ne le font qu’à l’état adulte.

Moustiques mâles vs moustiques femelles

Il existe plus de 3 500 espèces de moustiques différentes, dont seule une petite fraction pique les humains, soit environ 200 espèces, dont 65 sont présentes en France hexagonale.

Les mâles ne piquent jamais. Ils se nourrissent exclusivement de nectar de fleurs et de jus de plantes, riches en sucres, qui leur fournissent toute l’énergie nécessaire à leur survie. Leur espérance de vie est généralement courte, de quelques jours à quelques semaines dans des conditions idéales.

Les femelles, en revanche, ont une double alimentation. Elles se nourrissent également de nectar pour vivre au quotidien. Cependant, lorsqu’elles doivent produire leurs œufs, elles ont besoin d’un apport en protéines que seul le sang peut leur fournir. Elles peuvent piquer des humains, mais aussi d’autres animaux, selon leurs préférences. Certaines espèces sont assez éclectiques en ce qui concerne leurs hôtes, piquant tout ce qui se présente à elles, tandis que d’autres montrent une préférence marquée pour le sang humain.

La plupart des moustiques se nourrissent du sang d’animaux à sang chaud, comme les oiseaux et les mammifères, y compris les êtres humains, mais certaines espèces peuvent aussi piquer des animaux à sang-froid, comme des grenouilles ou des chenilles de papillons.

Combien de temps une femelle peut survivre sans piquer ?

Une femelle moustique peut survivre plusieurs jours voire quelques semaines sans piquer pourvu qu’elle ait accès à une source de sucre, comme du nectar. Ce sont donc ses besoins reproductifs, et non sa survie immédiate, qui la poussent à piquer. Sans repas de sang, elle ne pourra pas pondre, mais elle ne mourra pas pour autant rapidement.

La femelle du moustique tigre Aedes albopictus, vecteur des virus de la dengue, du Zika ou du chikungunya, peut par exemple vivre environ un mois en tant qu’adulte dans des conditions optimales. Pendant cette période, elle peut survivre sans piquer, à condition de trouver une autre source de nourriture énergétique. Il en va de même pour Culex pipiens, le moustique le plus commun en France hexagonale, qui est également capable de transmettre certains virus responsables de maladies, telles que la fièvre du Nil occidental ou l’encéphalite japonaise.

Influence de l’environnement

La température, l’humidité et la disponibilité en nourriture influencent fortement leur longévité. Un milieu chaud et humide, avec de l’eau stagnante, des hôtes et du nectar à proximité, favorise une reproduction rapide et des repas fréquents. En revanche, une température relativement basse ralentit le métabolisme des insectes et leur permet d’espacer les repas.

Il est également à noter que certains moustiques entrent en diapause, une sorte d’hibernation, pendant les saisons froides et peuvent survivre plusieurs mois sans se nourrir activement. Selon l’espèce, les œufs, les larves, les nymphes ou les adultes peuvent subir cette forme de « stand-by physiologique » durant l’hiver. Si on ne les voit pas, ce n’est pas parce qu’ils sont partis, mais parce qu’ils sont cachés et plongés dans un profond sommeil.

The Conversation

Claudio Lazzari a reçu des financements de INEE-CNRS, projet IRP "REPEL".

PDF

29.10.2025 à 12:04

Maths au quotidien : Full HD, 4K, 8K… ou pourquoi il n’est pas toujours utile d’augmenter la résolution de sa télévision

Saad Benjelloun, Responsable du département de mathématiques, Pôle Léonard de Vinci

Plus de pixels, plus de netteté… mais jusqu’à quel point notre œil est-il capable de percevoir la différence ?
Texte intégral (1997 mots)

Pourquoi acheter une télévision 8K plutôt qu’une 4K ou Full HD ? La question revient souvent, tant l’offre technologique semble avancer plus vite que nos besoins. Plus de pixels, plus de netteté… mais jusqu’à quel point notre œil est-il capable de percevoir la différence ? Derrière cette interrogation se cache un outil mathématique puissant utilisé en traitement du signal et en optique : l’analyse de Fourier.


Une télévision 4K affiche environ 8 millions de pixels, contre 33 millions pour la 8K. Sur le papier, c’est une avalanche de détails supplémentaires.

Mais l’œil humain n’est pas un capteur parfait : sa capacité à distinguer des détails dépend de la distance de visionnage et de l’acuité visuelle. Autrement dit, si vous êtes trop loin de l’écran, les pixels supplémentaires deviennent invisibles. Un écran 8K de 55 pouces vu à trois mètres sera perçu… presque comme un écran 4K.

Les limites de notre perception visuelle

Il existe des méthodes qui permettent de décomposer un signal (une image ou un son, par exemple) en ses fréquences spatiales ou temporelles. Pour une image, comme celles affichées par les télévisions dont nous parlons, les basses fréquences correspondent aux grandes zones uniformes (un ciel bleu, un mur lisse) tandis que les hautes fréquences traduisent les détails fins (les brins d’herbe, le grain de la peau).


À lire aussi : Des caméras 3D dans nos smartphones : comment numériser notre environnement ?


Nos yeux, comme un appareil photo, n’ont qu’une capacité limitée à percevoir ces hautes fréquences. Cette capacité dépend encore plus de l’acuité visuelle de chacun. Ainsi l’œil humain a une résolution maximale proche de 120 pixels par degré angulaire.

Cette acuité correspond à la faculté de discerner un objet de quinze centimètres à une distance d’un kilomètre, ou un grain de poussière à trois mètres : il est clair que la majorité des personnes ont une acuité visuelle moindre !


À lire aussi : Aveugles, malvoyants : que voient-ils ?


Sur une image, cette limite s’appelle la « fréquence de coupure » : au-delà, les détails sont trop fins pour être distingués, quelle que soit la richesse de l’image.

Si l’on applique cette logique, la 8K ne devient vraiment utile que si :

  • l’écran est très grand,

  • ou que l’on s’assoit très près,

  • ou encore si l’on zoome dans l’image (par exemple en retouche professionnelle).

Sinon, la fréquence maximale que peut capter notre œil est déjà atteinte avec la 4K. En d’autres termes, la 8K « code » des détails… que notre système visuel ne peut pas lire.

Un outil mathématique puissant, la « transformée de Fourier », inventée par Joseph Fourier en 1817, permet de quantifier cet effet.

Une transformée de Fourier révèle le « contenu fréquentiel » d’un signal, autrement dit, sa répartition entre les différentes bandes de fréquence. Reposons donc notre question, mais mathématiquement cette fois : « Est-ce que ces pixels additionnels correspondent encore à des fréquences spatiales perceptibles ? »

Ce que dit la transformée de Fourier

Illustrons cela avec un exemple visuel d’une image et son spectre de Fourier. Si pour un son ou pour un signal radio, la transformée de Fourier est elle-même un signal unidimensionnel, pour une image en deux dimensions, le spectre de Fourier est lui-même en deux dimensions avec des fréquences dans chacune des directions de l’espace.

comparaison de résolution
Une image affichée avec deux résolutions différentes, et les transformées de Fourier correspondantes. USC-SIPI Image Database pour la photo ; Saad Benjelloun pour les modifications, Fourni par l'auteur

Nous voyons dans l’exemple une image basse résolution (HD simulée) et son spectre de Fourier, ainsi qu’une version haute résolution (4K simulée) et son spectre. Le centre du carré correspond aux faibles fréquences, autour de la valeur (0,0).

Dans la version haute résolution (4K simulée), le spectre contient plus de hautes fréquences (zones colorées vers les bords, contrairement aux zones noires pour le spectre de la version Full HD), ce qui correspond aux détails supplémentaires visibles dans l’image.

Utiliser des filtres pour couper les hautes et basses fréquences

Regardons de plus près ce qui se passe en manipulant ce spectre. On parle alors de filtres.

On filtre l’image originale en supprimant les hautes fréquences et en ne laissant passer que les basses fréquences (on parle de « filtre passe-bas »). Saad Benjelloun, Fourni par l'auteur

Alors que l’image originale est nette et contient beaucoup de détails, on voit que l’image filtrée, avec les hautes fréquences supprimées, devient floue, les contours fins disparaissent. On le voit ainsi sur le nouveau spectre de Fourier après filtrage : seules les basses fréquences au centre ont été gardées, les hautes fréquences (détails) sont supprimées.

C’est exactement ce qui se passe quand on compresse trop une image ou quand on affiche une image HD sur un grand écran 4K : les hautes fréquences sont limitées. D’ailleurs, c’est pour cette raison que les téléviseurs 4K et 8K utilisent des techniques de « suréchantillonnage » (upscaling, en anglais) et d’amélioration d’image pour tenter de reconstituer et de renforcer ces hautes fréquences manquantes et offrir ainsi une meilleure qualité visuelle.

On filtre l’image originale en supprimant les basses fréquences et en ne laissant passer que les hautes fréquences (on parle de « filtre passe-haut »). Saad Ben Jelloun, Fourni par l'auteur

Inversement, sur l’image filtrée avec les basses fréquences supprimées, il ne reste que les contours et détails fins, comme un détecteur de bords. Dans le spectre de Fourier, le centre (basses fréquences) est supprimé, seules les hautes fréquences autour des bords subsistent.

Alors, faut-il absolument acheter une 8K pour votre suivre votre prochaine compétition sportive préférée ? Pas forcément. À moins d’avoir un très grand salon !

The Conversation

Saad Benjelloun ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

29.10.2025 à 12:04

Neurotechnologies : vivrons-nous tous dans la matrice ? Conversation avec Hervé Chneiweiss

Hervé Chneiweiss, Président du Comité d'éthique de l'Inserm, Inserm; Centre national de la recherche scientifique (CNRS); Sorbonne Université

L’Assemblée générale de l’Unesco doit signer une déclaration sur les neurotechnologies, le 7 novembre. L’occasion de faire le point sur leurs utilisations médicales et récréatives.
Texte intégral (4483 mots)
Hervé Chneiweiss Inserm, Fourni par l'auteur

Les neurotechnologies progressent à grands pas, d’abord motivées par des applications médicales, par exemple pour améliorer le quotidien de personnes paralysées ou souffrant de maladies dégénératives. Elles sont suivies de près par le développement d’applications récréatives qui vont de la relaxation au jeu vidéo. Des recherches récentes montrent notamment qu’il est possible de détecter des mots pensés par les participants.

Hervé Chneiweiss est neurologue et neuroscientifique, président du comité d’éthique de l’Institut national de la santé et de la recherche médicale. Il a coprésidé le comité d’experts qui a rédigé une recommandation sur les neurotechnologies qui doit être adoptée le 7 novembre, lors de la 43e session de la Conférence générale de l’Unesco qui se tiendra à Samarcande (Ouzbékistan). Le chercheur a reçu Elsa Couderc, cheffe de rubrique Science et Technologie à « The Conversation France », pour parler des risques d’addiction, de la détection de nos émotions et de nos pensées, de la vie privée mentale… et de comment la protéger.


The Conversation : Jouer à un jeu vidéo sans manette, voilà qui va séduire plein de monde ! Mais on pourrait y voir des risques aussi, j’imagine ?

Hervé Chneiweiss : Oui, on peut envisager des risques en termes d’addiction ou d’utilisation de vos pensées les plus intimes, par exemple.

Pour comprendre les discussions autour de l’addiction et des neurotechnologies, je vous propose de remonter un peu dans le temps. Il y a trente ans déjà, alors que je travaillais en tant que neurologue sur la maladie de Parkinson, on a posé des implants cérébraux chez certains malades parkinsoniens jeunes et très rigides pour faire de la stimulation cérébrale profonde à haute fréquence, qui permet de débloquer leurs mouvements. C’est à ce moment que la communauté scientifique a constaté certains cas d’effets secondaires de cette stimulation sous forme de troubles compulsifs de comportement soit dans le domaine de la sexualité (hypersexualité) soit dans celui des compulsions d’achat.

En effet, en stimulant le cerveau de ces patients, on libérait manifestement trop de dopamine. Or, la dopamine est le principal neurotransmetteur d’un circuit qu’on appelle le « circuit de la récompense », ou reward en anglais – ce dernier est plus approprié que le terme français, car il traduit l’idée d’« obtenir ce que j’avais prévu d’obtenir ». Ainsi, avec nos électrodes, nous provoquions une libération de la dopamine en excès à un certain endroit du cerveau, ce qui perturbait les processus de décision et orientait les patients vers des comportements compulsifs.

Ces effets secondaires sont assez fréquents – environ un malade sur cinq les expérimente au début de la pose de l’implant, puis ils régressent et disparaissent en général au bout d’un mois ou deux. Il a été jugé que la potentielle survenue de ces effets indésirables était acceptable compte tenu du bénéfice attendu de la thérapeutique.

Depuis, les technologies ont beaucoup progressé : il existe tout un panel de techniques qui permettent de détecter les signaux du cerveau, ou bien de stimuler son activité. Ces techniques utilisent des dispositifs invasifs – comme les électrodes implantées dans le cerveau de patients parkinsoniens, dans les années 1990 – ou bien non invasifs – par exemple, des casques munis de petites électrodes que l’on pose sur la tête.

Le neurogaming utilise pour l’instant des casques posés sur le crâne, et non des électrodes implantées profondément dans le cerveau, comme pour le traitement de la maladie de Parkinson il y a quelques années. Y a-t-il, là aussi, un risque de surstimulation du circuit de la dopamine, et donc de compulsion ?

H. C. : Effectivement, il faut bien faire la différence entre deux types de dispositifs : d’un côté, ceux qui permettent la collecte d’informations sur l’activité cérébrale ; de l’autre, des systèmes qui vont moduler ou stimuler l’activité cérébrale – l’influencer, en somme.

En 2018 déjà, Rodrigo Hübner Mendes a réussi à conduire une Formule 1 simplement avec un casque posé sur la tête. Le signal d’électro-encéphalogramme était suffisamment bien décodé pour lui permettre de piloter cette voiture alors qu’il était tétraplégique et ne pouvait pas toucher le volant. Il l’a conduite simplement avec un casque qui détectait son activité cérébrale et donc, selon sa volonté, son intention d’accélérer ou de tourner à droite ou à gauche que l’interface cerveau-machine transmettait au système de pilotage de la Formule 1. C’est de la pure détection.

Et c’est exactement la même chose avec les systèmes « brain to speech », c’est-à-dire la capacité de décoder l’activité cérébrale responsable du langage avec une interface cerveau-machine, qui traduit cette activité en paroles en un dixième de seconde. Il s’agit de dispositifs qui pourraient venir en aide à des gens qui ont fait un accident vasculaire cérébral, qui ont des troubles du langage, ou par exemple dans la maladie de Charcot. C’est un des domaines des neurotechnologies qui avance le plus vite aujourd’hui. On sait désormais le faire avec des électrodes à la surface du cerveau, et non plus avec des électrodes profondes. D’ici cinq ans, on arrivera probablement à faire la même chose avec des électrodes à la surface du scalp, sur l’extérieur du crâne. Il s’agit là encore de détection.

C’est complètement différent des systèmes de stimulation ou de modulation, dans lesquels la machine envoie un signal au cerveau pour modifier l’activité cérébrale. Dans le premier cas, on ne modifie pas l’activité cérébrale, on se contente de la détecter. Dans le deuxième cas, on modifie l’activité cérébrale.

Est-ce que l’on sait aujourd’hui faire de la stimulation avec des implants non invasifs ?

H. C. : Oui, c’est ce qui se passe aujourd’hui dans le domaine médical avec la stimulation magnétique transcrânienne, qui est très utilisée pour la rééducation des accidents vasculaires cérébraux. On va inhiber l’activité d’une région du cerveau pour permettre la récupération d’une autre région du cerveau. Des résultats prometteurs ont été rapportés pour soigner certaines formes de dépression nerveuse grâce à des petits boîtiers de stimulation électrique, que l’on appelle DCS, qui sont des systèmes de stimulation continue.

Ces dispositifs sont aussi vendus en prétendant que ça peut permettre la relaxation, mais là, il n’y a aucune preuve scientifique que ça fonctionne.

D’autres types de stimulation non invasive peuvent être envisagés, par exemple avec des ultrasons pour essayer de lutter contre des tumeurs et contre des plaques amyloïdes dans la maladie d’Alzheimer.

Il va de soi que ces dispositifs capables de stimuler l’activité cérébrale intéressent beaucoup les gens qui aimeraient bien manipuler d’autres gens. Ces possibilités sont ouvertes par les grands progrès faits en neuroscience depuis trente ans, notamment en découvrant que d’autres régions du cerveau, moins profondes que celles impliquées dans la maladie de Parkinson, sont impliquées dans ces processus de décision : dans le cortex préfrontal, qui est au-dessus du nez, ou dans le cortex temporal. Ces zones sont en surface, relativement accessibles aujourd’hui.

L’objectif des gens qui développent ces technologies à des fins récréatives est d’essayer d’optimiser l’addiction, en stimulant directement les centres de la récompense ou de l’appétit, en corrélation évidemment avec un acte d’achat – ou avec ce qu’on cherche à faire aux gens pour tenter d’orienter les choses dans les jeux vidéo.

Ce qui est fait actuellement, c’est d’essayer de détecter (et non de stimuler – du moins, pas encore) avec ces casques l’état émotionnel de la personne et de modifier le degré de difficulté ou les épreuves du jeu vidéo en fonction de cet état émotionnel.

Est-il facile de détecter les émotions et les pensées aujourd’hui ?

H. C. : La réponse est différente pour les émotions – pour lesquelles oui, c’est facile – et pour les pensées – pour lesquelles, c’est plus difficile, mais on y vient.

Les émotions et la fatigue mentale sont des choses qu’on décrypte d’une façon macroscopique. Par exemple, quand vous êtes fatiguée, votre « saccade oculaire » ralentit, c’est-à-dire que vos yeux balayent moins rapidement la scène devant vous – ce qu’ils font en permanence. Le rythme des saccades est très facile à détecter.

De plus, selon notre degré émotionnel, différentes régions de notre cerveau sont plus ou moins actives. Comme ces régions sont assez grosses, en volume, il est possible de détecter leur niveau d’activité avec différents dispositifs : un casque posé à la surface du crâne ; une imagerie par résonance magnétique (IRM) fonctionnelle – un appareil qui est gros, certes, mais non invasif : nous n’avons pas besoin d’électrodes implantées dans le cerveau pour détecter ces signaux ; des plugs (bouchons) qu’on met dans les oreilles ainsi que de petits systèmes qui fonctionnent dans le proche infrarouge et qui mesurent des changements de vascularisation à la surface du cerveau. Ces dispositifs permettent de mesurer un certain nombre de changements d’activité de certaines régions du cerveau.

Par exemple, avec un casque posé sur la tête, donc non invasif, on peut réaliser des électro-encéphalogrammes (EEG). Quand vous commencez à être fatiguée, on voit des ondes de plus grande amplitude apparaître, puis des pointes d’une forme bien particulière si vous êtes vraiment en train de vous endormir. Ces signaux sont faciles à détecter avec un casque EEG.

Par contre, si vous pensez « J’ai faim » ou que vous vous préparez à prononcer un mot, là c’est plus dur. Des groupes de recherche académique californiens
– l’Université de Californie à San Diego et celle de Berkeley, mais aussi Caltech – ont fait des avancées récentes sur le sujet, avec les électrodes placées à la surface du cerveau et des systèmes d’intelligence artificielle entraînés à reconnaître certains motifs d’activité du cerveau du patient – c’est ce que l’on appelle le brain to speech, dont je parlais tout à l’heure. Ils ont découvert que les mêmes régions soutenaient le langage parlé intentionnel et le langage intérieur. Nous nous approchons donc là de la possibilité de détecter la base de la pensée. L’objectif est ici de venir en aide et de restaurer l’autonomie de personnes gravement cérébrolésées. Malheureusement, nous ne connaissons pas les intentions réelles de sociétés commerciales qui développent aussi ce type d’électrodes de surface.

En termes d’encadrement, est-ce que ces dispositifs, que ce soient des casques, des plugs dans les oreilles ou des implants, sont encadrés aujourd’hui, par exemple avec des autorisations de mise sur le marché comme pour les médicaments ?

H. C. : Si c’est un dispositif médical, il y a tout l’encadrement habituel. Si c’est un dispositif non médical, il n’y a rien : aucune garantie.

Dans la déclaration de l’Unesco, vous recommandez de classer « sensibles » certaines données biométriques, qui ne semblent pas susceptibles de donner accès aux émotions ou aux pensées au premier abord. Pourquoi ?

H. C. : On peut utiliser des données qui ne sont pas directement des données cérébrales ou neurales pour faire des déductions sur l’état émotionnel ou de santé : on a parlé des mouvements des yeux, mais il y a aussi le rythme cardiaque combiné à des données comportementales ou à la voix.

Par exemple, si vous enregistrez la voix d’une personne atteinte de la maladie de Parkinson, même débutante, vous allez voir qu’il y a des anomalies de fréquence qui sont caractéristiques de cette maladie. Il n’y a pas forcément besoin d’être capable d’enregistrer l’activité cérébrale pour déduire des choses très privées.

Donc, on a regroupé cet ensemble sous le terme de « données neurales indirectes et données non neurales » : ces données qui, combinées et interprétées par l’intelligence artificielle, permettent de faire des inférences sur nos états mentaux.

Vous recommandez donc de protéger toutes les données neurales – qu’elles soient directes ou indirectes –, car elles permettent d’en déduire des états mentaux, et ce, afin de protéger nos « vies privées mentales ». Pouvez-vous nous expliquer ce que vous entendez par là ?

H. C. : Parmi les droits fondamentaux, il y a le droit à la vie privée. C’est le droit d’empêcher qui que ce soit de connaître les éléments de votre vie privée que vous ne souhaitez pas qu’il ou elle connaisse.

Nos pensées, nos idées, nos désirs, tout ce qui se passe dans notre tête, sont ce que nous avons de plus intime et, donc, de plus privé. La vie mentale est au cœur même de la vie privée.

Souvent, quand on parle d’atteinte à la vie privée, on pense à la diffusion d’une photo qui serait prise à un endroit ou avec une personne, alors qu’on n’avait pas forcément envie que cela se sache. Mais vous imaginez si demain on pouvait avoir accès à vos pensées ? Ça serait absolument dramatique : la fin totale de toute forme de vie privée.

En pratique, imaginons que notre conversation en visioconférence soit enregistrée par un fournisseur de services Internet. Nos saccades oculaires, qui sont donc des données neurales indirectes, sont bien visibles. Est-il possible, aujourd’hui, d’en déduire quelque chose ?

H. C. : En principe, il pourrait y avoir un petit message qui s’affiche sur mon écran en disant : « Attention, la personne en face de vous est en train de s’endormir, il faudrait veiller à raconter quelque chose de plus intéressant. » (rires) Sauf que nous sommes en Europe, et que dans le règlement européen sur l’IA, l’AI act, l’utilisation de logiciels ayant pour objectif de détecter ou d’analyser le comportement des personnes, en dehors de la médecine ou de la recherche, est interdite.

Avec le règlement général sur la protection des données (RGPD) pour protéger nos données personnelles, puis avec l’AI Act, l’Union européenne a déjà pris des mesures de protection de la vie privée et de l’autonomie des individus… Parce qu’une fois que vous avez ces différentes données, vous pouvez essayer de manipuler les personnes, en biaisant leur jugement, ou en essayant de leur faire prendre des décisions qui ne sont plus prises en autonomie. Notre vie privée mentale est aussi la base de notre liberté d’expression et de notre liberté de penser.

Aujourd’hui, dans le cadre d’autres nouvelles technologies, on en vient à chercher à protéger les mineurs, notamment en leur interdisant l’accès à certains dispositifs. C’est le cas sur certains réseaux sociaux et c’est en discussion pour certaines IA génératives, comme ChatGPT. Est-ce une direction que vous recommandez pour les neurotechnologies ?

H. C. : Tout à fait ! Il ne faut jamais oublier que le cerveau d’un enfant n’est pas un petit cerveau adulte, mais un cerveau en développement. De la même façon, le cerveau d’un adolescent n’est pas un petit cerveau adulte, mais un cerveau en révolution – qui se reconfigure.

Aujourd’hui, l’impact de l’utilisation de ces procédés de neurotechnologies sur ces cerveaux en développement est totalement inconnu et, en particulier, la réversibilité de tels impacts potentiels.

Même pour des applications médicales, pourtant mieux encadrées, les choses ne sont pas si simples. Il y a, par exemple, des cas de patients ayant reçu des implants cérébraux pour soigner des pathologies, notamment des céphalées de Horton, avant que l’entreprise responsable de l’implant fasse faillite et ferme, laissant les patients avec des implants sans maintenance. À l’heure où les développements technologiques sont menés en grande partie par des entreprises privées, quels sont les espoirs et les mécanismes qui permettent de croire qu’on peut cadrer le développement des neurotechnologies pour protéger les citoyens du monde entier de potentiels abus ?

H. C. : On parle là de « développement responsable » des technologies. Ce sont des problématiques que nous avons abordées dans le cadre de l’Organisation de coopération et de développement économiques (OCDE), avec une recommandation (no 457), publiée en décembre 2019, qui énonçait neuf principes pour un développement responsable des neurotechnologies. C’est ensuite aux États membres de l’OCDE de la mettre en pratique. Dans ce cas, il n’y en a que 38, bien moins qu’à l’Unesco, avec 195 pays membres.

La nouvelle déclaration qui doit être signée à l’Unesco reflète une vision qui part des droits humains et qui protège les droits humains fondamentaux ; à l’OCDE, il s’agit d’une vision qui cherche le développement économique. Nous cherchions donc dans quelles conditions les entreprises pourront le mieux développer leurs produits : parmi ces conditions, la confiance que le consommateur peut avoir dans le produit et dans l’entreprise.

Malheureusement, dans ce contexte-là, pour l’instant, on n’a pas encore de réponse claire à votre question, sur ce que l’on appelle en anglais « abandonment », que l’on appellerait en français l’« abandon neural ». Des propositions sont en cours d’élaboration, par exemple au niveau du comité Science & société du programme européen EBRAINS.

Néanmoins, au niveau français, avec différents ministères, en collaboration avec les entreprises, avec le secteur associatif et aussi avec le secteur académique, on a élaboré une charte française de développement responsable des neurotechnologies, qui a l’intérêt de vraiment avoir été une coconstruction entre les différents partenaires, une codécision qui porte sur la protection du consommateur, sur son information et sur la prévention des mésusages des neurotechnologies. Elle a été publiée en novembre 2022. La signer est une démarche volontaire, mais qui marche aujourd’hui plutôt bien puisqu’on en est, à ce jour, à une cinquantaine de partenaires : beaucoup d’entreprises, d’associations, d’académies et des agences de régulation.

Ce qui est intéressant aussi, c’est que nous avons ensuite porté cette proposition au niveau européen. La charte européenne des neurotechnologies est très inspirée de la charte française. Elle a été publiée en mai 2025 et a déjà recueilli près de 200 signataires. Le but est d’apporter aux différentes sociétés qui y adhèrent une sorte de « label » pour dire aux consommateurs, « On a fait le choix de respecter mieux vos droits et donc de s’engager dans cette charte des neurotechnologies ».

Cette démarche est plus que nécessaire. Une étude américaine, réalisée en 2024 par la Neurorights Foundation sur 30 entreprises, majoritairement américaines, qui commercialisent des casques EEG et d’autres produits de neurotechnologie, montre que 29 de ces 30 entreprises ne respectaient absolument pas les recommandations de l’OCDE. Par exemple, certaines collectaient et/ou revendaient les données sans l’accord des personnes.

La philosophie, en portant cette discussion auprès de la Conférence générale de l’Unesco, c’est d’avoir une plateforme mondiale, d’ouvrir la discussion dans des pays où elle n’a pas déjà lieu ?

H. C. : Oui, les recommandations de l’Unesco servent en général de base aux différentes juridictions des États membres pour mettre en place des lois afin de protéger les citoyens de l’État.

Avec les neurotechnologies, on est vraiment à un niveau constitutionnel parce qu’il s’agit de droits fondamentaux : le droit à la vie privée, le droit à l’autonomie, le droit à la liberté de pensée, le droit à la liberté d’agir, mais aussi le droit à l’accès aux technologies si elles sont utiles – que les gens qui en ont besoin puissent y avoir accès.

Le Chili est le premier pays à avoir explicité ces droits dans sa Constitution. Le Colorado et la Californie aux États-Unis ont déjà légiféré pour encadrer les neurotechnologies. En France, c’est dans la loi bioéthique, telle qu’elle a été révisée en 2021, que l’on trouve des éléments pour essayer de protéger contre des abus. Au niveau européen, c’est la déclaration de Léon (2023).

Ainsi, même si les déclarations de l’Unesco ne sont pas contraignantes, elles inspirent en général les juristes des pays correspondants.

Y a-t-il des risques que la déclaration de l’Unesco ne soit pas signée en novembre lors de la Conférence générale ?

H. C. : Maintenant que les États-Unis se sont retirés, je ne crois pas… La conférence intergouvernementale que j’ai présidée au mois de mai a adopté la recommandation, il y avait 120 États. Les choses ne sont pas faites, bien sûr, mais on espère que le passage à l’Assemblée générale, avec les 195 pays présents, sera plutôt une formalité.

Les instances internationales sont très formelles. Elles fonctionnent comme ça ; et c’est peut-être une limite du fonctionnement onusien, qui s’appuie sur l’idée un peu irénique de René Cassin et d’Éléonore Roosevelt, après ce qui s’était passé d’effroyable pendant la Deuxième Guerre mondiale, que les États sont de bonne volonté.

On n’est plus tout à fait dans ce cadre-là.

H. C. : Oui, vous avez remarqué, vous aussi ? Mais, si ça marche, on sera surtout heureux d’y avoir contribué en temps et heure. Parce que là, et c’est une chose qui est assez remarquable, c’est qu’on prend les mesures au bon moment. Pour une fois, les réflexions éthiques et de gouvernance ne sont pas en retard sur la technique.

On espère donc que ce sera vraiment utile, et que les neurotechnologies continueront à se développer à bon escient, parce qu’on en a absolument besoin, mais que, grâce à cette prise de conscience précoce, on évitera les abus, les utilisations détournées ou malveillantes de ces technologies.

Et donc : vivrons-nous tous dans la matrice (je fais référence au film Matrix) ?

H. C. : Peut-être qu’il peut y avoir de bons côtés à la matrice et de mauvais côtés. Si ces différents procédés pouvaient rendre leur autonomie, par exemple, à des personnes âgées qui souffrent d’une perte d’autonomie, à des malades qui sont en perte d’autonomie, ou aider des enfants qui ont des difficultés à apprendre à mieux apprendre, là on aura vraiment gagné. Par contre, si c’est pour soumettre les individus à des volontés d’entreprises monopolistiques, là on aura tout perdu. Mais l’avenir n’est pas écrit. C’est à nous de l’écrire.

The Conversation

Toutes les fonctions listées ci-après l'ont été à titre bénévole: Expert pour les neurotechnologies auprès de l'OCDE de 2015 à ce jour. Ancien président du Comité international de bioéthique de l'UNESCO (2019-2021) et co-auteur du rapport sur les enjeux éthiques des neruotechnologies (2021). Co-président du groupe d'experts ad hoc sur la recommandation UNESCO sur les neurotechnologies (2024-2025). Président du Comité intergouvernemental sur la recommandation sur les neurotechnologie (12-16 mai 2025). Membre du Comité de la Charte française des neurotechnologies Co-auteur de la charte européenne des neurotechnologies

PDF

28.10.2025 à 15:32

Réhabiter Valence un an après les inondations : le peuple va-t-il aider à sauver le peuple ?

Guillaume Nord, Hydrologue, Université Grenoble Alpes (UGA)

Brice Boudevillain, Hydro-météorologue à l'Institut des Géosciences de l'Environnement, Université Grenoble Alpes (UGA)

Guy Delrieu, Directeur de Recherche CNRS émérite, hydro-météorologue, Université Grenoble Alpes (UGA)

Isabelle Ruin, Chercheuse, CNRS, Institut des Géosciences de l'Environnement, Université Grenoble Alpes (UGA)

Jason Guillermo Granados Morales, Doctorant en sciences économiques, Université Grenoble Alpes (UGA)

Jean-Dominique Creutin, Hydrométéorologue, Université Grenoble Alpes (UGA)

Yvan Renou, MCF HDR en socio-économie de l'environnement, Université Grenoble Alpes (UGA)

C’est une phrase qui s’est rapidement imposée au moment des inondations meurtrières qui ont touché Valence : « Seul le peuple sauve le peuple. »
Texte intégral (3607 mots)
La mosaïque de Michael Barros avec, en fond, une photographie satellite de l’Espagne (octobre 2024). Michael Barros/Modis Land Rapid Response Team/NASA GSFC , Fourni par l'auteur

C’est une phrase qui s’est rapidement imposée au moment des inondations meurtrières qui ont touché Valence (Espagne) en octobre 2024 : « Seul le peuple sauve le peuple. » Elle est aujourd’hui inscrite sur des centaines de mosaïques, qui, partout dans la ville, indiquent le niveau de la crue. Cette phrase peut aussi se révéler pertinente, voire même cruciale, pour prévenir les prochaines catastrophes, note un groupe de chercheurs.


Il y a un an, le 29 octobre 2024, un orage méditerranéen violent touchait le Sud-Est espagnol, provoquant une inondation catastrophique de la communauté autonome de Valence. Celle-ci a fait 229 victimes et des dégâts matériels et environnementaux considérables. L’hiver dernier, alors que les causes climatiques et urbanistiques de la catastrophe étaient établies, et que les polémiques sur les responsabilités politiques de la gestion de la crise se poursuivaient, un artiste a apporté un message qui semble résumer les leçons qu’il faudrait tirer de la catastrophe pour transformer la ville et la réhabiter.

L’illustrateur Michael Barros, habitant de Sedaví dans la banlieue inondée de Valence, a ainsi lancé en février 2025 une initiative artistique inspirée des repères de crue posés à la suite de l’inondation de 1957. Il a, au départ, créé une centaine de carreaux de faïence (azulejos) qu’il pensait proposer dans son voisinage. Ces derniers ont eu un succès inattendu : il en existe plus de 2 000 aujourd’hui.

Un des azulejos (en haut à gauche) à Valence (Espagne), en octobre 2025. Guillaume Nord, Fourni par l'auteur

Ces azulejos rappellent, dans leur partie haute, jusqu’où l’inondation est montée : « Fins ací va arribar la riuà » (en français : « La crue est montée jusqu’ici »). Ils évoquent aussi, dans leur partie inférieure, le grand élan de solidarité visible au moment de la catastrophe où des milliers de personnes sont venues aider. Barros dessine la marche des sauveteurs bénévoles arrivant dans la zone inondée par une passerelle enjambant la rivière.

Il reprend aussi la phrase « Sols el poble salva al poble », soit en français : « Seul le peuple sauve le peuple. » Ce slogan avait envahi les réseaux sociaux au moment de la catastrophe et il a été l’objet de commentaires dans la presse sur son origine et sur son utilisation politique.

En plus du message classique des repères de crue indiquant la hauteur atteinte par les eaux, les azulejos de Michael Barros rappellent aussi que se protéger de l’inondation reste l’affaire de tous. Un double message particulièrement pertinent : les causes de l’inondation de 2024 et ses ravages ont pu être bien décrites par le travail de divers scientifiques, mais pour autant, l’anticipation des prochains événements à risque ne doit pas être réservée aux seuls experts, dont les recommandations ponctuelles peuvent être vite oubliées. En cela, le peuple est bien le protecteur du peuple.

Un scénario catastrophe aux raisons connues

Les inondations ont des causes climatiques bien établies. Les conditions météorologiques responsables de la violence des cyclones méditerranéens sont connues. Dans le cas de la région de Valence, il s’agit souvent de dépressions isolées en altitude (en espagnol, depresión aislada en niveles altos ou DANA) qui extraient, par évaporation, d’énormes quantités d’eau de la Méditerranée et qui les transforment en précipitations diluviennes et destructrices.

Les méthodes d’attribution montrent que le réchauffement climatique est responsable, dans la région de Valence, d’une augmentation de moitié des surfaces exposées à des pluies extrêmes et de près d’un quart de leurs cumuls.

Photographie satellite sur l’Espagne, le 30 octobre 2024. Modis Land Rapid Response Team/NASA GSFC, CC BY

La catastrophe qui en a résulté est liée à une conjonction de plusieurs raisons. Pour protéger Valence après la crue dévastatrice du fleuve Turia en 1957, le cours du fleuve avait été détourné du centre-ville. Depuis lors, au sud de la ville, des digues le dirigent vers la mer. Pensant le risque d’inondation écarté, de nouveaux quartiers résidentiels et industriels et leurs infrastructures de transport se sont développés au sud de ces digues à partir des années 1970, formant la banlieue de l’Horta Sud (en castillan, Huerta Sur).

En 2024, la crue du Turia a été bien contenue par les digues, mais l’Horta Sud a alors été traversée par l’arrivée rapide et massive des eaux de la Rambla de Poyo. Ancien affluent du Turia, ce fleuve côtier mineur (400 km2 d’aire drainée), dont le haut bassin a reçu un cumul de pluie extrême (près de 400 mm en six heures), a produit un débit de pointe largement supérieur à la crue de la Seine à Paris, en 1910 : celui-ci a été estimé à 3 000 mètres cubes par seconde !

Deux mois après la catastrophe à Valence (Espagne). Fourni par l'auteur

En région méditerranéenne, ces petites rivières intermittentes, les ríos secos, accentuent la surprise et la désorientation face à l’inondation en masquant l’origine du danger. Elles sont invisibles par temps sec, dissimulées par les aménagements, sans continuité amont aval claire, y compris dans leurs noms.

En plus de ces contextes météorologiques et urbanistiques particulièrement critiques, l’absence d’alerte en temps utile a produit un bilan humain tragique, associé à une cascade de dommages matériels et environnementaux. La catastrophe a mis au jour une grande impréparation politique et sociale.

Associer le public à la culture du risque

Devant la répétition de catastrophes qui se ressemblent se pose la question de la résilience des métropoles face aux manifestations climatiques – et, en particulier, aux inondations rapides dans la région méditerranéenne. La réponse doit associer connaissance de la trajectoire historique locale, engagement du public et restauration écologique.

La trajectoire historique du développement économique et social de l’Horta Sud s’est pensée à l’abri des infrastructures de protection. Maintenant que ce secteur s’avère fortement exposé au risque d’inondation par la Rambla, la difficulté pratique et économique, pour réduire cette exposition, est considérable.

Adapter la forme urbaine et les activités qui l’accompagnent va demander des efforts sur le temps long pour lutter contre l’inertie du système institutionnel et des pratiques individuelles.

Des politiques publiques européennes, nationales et locales relatives au risque inondation promeuvent l’engagement du public. Leurs objectifs d’intégration et d’optimisation de la gestion du risque conduisent à la construction d’une culture du risque « par le haut », c’est-à-dire, par les savoirs experts, faisant des inondations une affaire de « management ».

Ces politiques oublient souvent que l’expertise doit s’accompagner d’actions capables de régénérer l’engagement, l’action collective, dans une construction « par le bas ». Apprendre à faire face au risque ensemble, par des pratiques qui s’inscrivent dans la durée et qui impliquent directement les communautés concernées, permettrait d’éviter l’écueil du court-termisme et du seul technicisme, qui a posé et posera de nouveaux problèmes si rien ne change.

La restauration écologique promet des solutions fondées sur la nature dont la mise en place commence, à Valence, par des mesures comme la réduction de l’artificialisation des sols ou le rééquilibrage du lit des rivières. Elle se heurte souvent à la rigidité de la trajectoire de développement et au manque d’engagement, voire à l’hostilité du public.


À lire aussi : Nos villes doivent être plus perméables : comment le biochar peut être une solution durable face aux inondations


Renouer avec l’action collective grâce à une vision commune : comment vivre avec la rivière dans le futur ?

Dans l’après-crise immédiate, de multiples initiatives ont surgi. Celles-ci sont propres à impliquer le public, comme des expériences d’enseignement à l’école primaire ou les précieuses mesures météorologiques amateurs. Elles méritent d’être inscrites dans un cadre de réflexion général.

Nous pensons qu’analyser les valeurs relationnelles, comprises comme liens inséparables des personnes à l’environnement, peut aider à dégager les principaux facteurs de motivation du public pour participer à la gestion des inondations. Au-delà des recommandations des experts, il ressort de cette analyse que l’imaginaire est un puissant levier de transformation.

Avoir une vision partagée de comment vivre avec la rivière dans le futur apparaît comme le plus fort gage de motivation. C’est particulièrement important face à la perte de mémoire chronique qui s’installe au fil du temps qui sépare les catastrophes, ce que l’historien Christian Pfister appelle disaster gap.

Michael Barros, l’illustrateur des azulejos, à Valence (Espagne, en octobre 2025. Guillaume Nord, Fourni par l'auteur

L’initiative spontanée d’un artiste comme l’illustrateur Michael Barros prend, dès lors, tout son sens. Traces matérielles de l’ampleur de l’inondation passée, ses repères de crue en céramique délivrent un message de raison et d’espoir, dans la mesure où les personnes qui les collent chez elles ou sur leur façade en prennent l’initiative. Dans une interview, l’artiste revenait sur leur rôle pour la mémoire collective :

« J’espère qu’au fil des ans, cela deviendra un prétexte pour parler et réfléchir, pour raconter à la fois les bonnes et les mauvaises choses. Cela génère une mémoire historique, pour que le passé continue d’être latent et que cela ne se reproduise plus. Parce que personne ici n’aimerait déménager ou vivre avec l’inquiétude que cela se reproduise. Nous espérons donc que les mesures nécessaires seront prises, qu[e les autorités] mettront de côté les conflits et qu’elles travailleront avec les gens, ce qui est important, après tout, si l’on s’implique en politique, c’est pour travailler pour les gens, pas pour les intérêts de quelques-uns ».

Les azulejos de Michael Barros peuvent donc être vus comme la piste sociomatérielle d’un imaginaire qu’il souhaite partager pour réhabiter sereinement dans sa région. Cette piste peut – et doit – toucher une communauté élargie, nourrir au quotidien de nouvelles valeurs, une nouvelle culture de l’eau et du risque d’inondation.

The Conversation

Guillaume Nord reçoit des financements de l'INSU-CNRS pour le fonctionnement de l'Observatoire Hydrométéorologique Méditerranéen Cévennes-Vivarais, service national d'observation labellisé par cet institut et dont il a la responsabilité.

Brice Boudevillain reçoit des financements de l'INSU-CNRS pour le fonctionnement de l'Observatoire Hydrométéorologique Méditerranéen Cévennes-Vivarais, service national d'observation labellisé par cet institut et dont il a la responsabilité.

Isabelle Ruin reçoit des financements de recherche dans le cadre du Programme et équipements prioritaires de recherche pour le climat : Transformer la modélisation du climat pour les services climatiques (PEPR TRACCS) et du projet ANR kNOW-HOW+4°C.

Jason Guillermo Granados Morales a reçu des financements du ministère de l'Enseignement supérieur, de la Recherche et de l'Innovation, dans le cadre d'un contrat doctoral de droit public.

Yvan Renou reçoit des financements de recherche dans le cadre du Programme et équipements prioritaires de recherche pour le climat : Transformer la modélisation du climat pour les services climatiques (PEPR TRACCS) et du projet ANR kNOW-HOW+4°C.

Guy Delrieu et Jean-Dominique Creutin ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.

PDF

28.10.2025 à 15:32

Infertilité masculine et pesticides : un danger invisible ?

Marwa Lahimer, Chercheuse associée - UMR-I 01 Périnatalité & Risques Toxiques (Peritox), centre universitaire de recherche en santé, Université de Picardie Jules Verne (UPJV)

Hafida Khorsi, Professeur des universités en microbiologie, PériTox - Périnatalité et Risques Toxiques - UMR_I 01, UPJV / INERIS, Université de Picardie Jules Verne (UPJV)

Moncef Benkhalifa, Professeur de médecine et biologie de la reproduction, Cecos de Picardie, CHU Amiens Picardie - chercheur UMR-I 01 Périnatalité & Risques Toxiques (Peritox), centre universitaire de recherche en santé, Université de Picardie Jules Verne (UPJV)

Sophian Tricotteaux-Zarqaoui, Doctorant, laboratoire Périnatalité et Risques toxiques (UMR_I 01), Université de Picardie Jules Verne (UPJV)

La fertilité masculine, comme celle des femmes, enregistre depuis de nombreuses années un déclin significatif. En cause, non seulement l’évolution des modes de vie, mais aussi l’exposition à certains polluants.
Texte intégral (2564 mots)

Si on a longtemps considéré que l’infertilité était un problème purement féminin, on sait aujourd’hui qu’il n’en est rien. Selon certaines estimations, 20 % à 30 % des cas sont directement imputables à des problèmes touchant les hommes. En marge des facteurs liés aux modes de vie, un faisceau d’indices semble incriminer notamment certains polluants environnementaux, tels que les pesticides.


À ce jour, l’Organisation mondiale de la santé (OMS) estime qu’environ 17,5 % de la population adulte, soit une personne sur six dans le monde est touchée par l’infertilité. Diverses études scientifiques indiquent que cette proportion devrait continuer à progresser jusqu’en 2040.

Ce problème majeur a plusieurs causes, dont certaines sont liées à l’évolution des modes de vie. Sous la pression des contraintes professionnelles ou économiques, l’âge de la parentalité a notamment tendance à reculer dans de nombreux pays.

Toutefois, depuis plusieurs années, les travaux de recherches pointent également le rôle de divers polluants environnementaux, tels que certains pesticides dans l’infertilité. De par leur capacité à perturber le fonctionnement hormonal, ces molécules interfèrent avec le système reproducteur. Nos travaux ont notamment mis en évidence que l’exposition à certaines de ces molécules se traduit, chez les hommes, par une diminution de la qualité du sperme.

Qu’est-ce que l’infertilité ?

L’infertilité est définie comme l’incapacité à obtenir une grossesse après douze mois de rapports sexuels réguliers et non protégés. Lorsqu’elle affecte des couples qui n’ont jamais réussi à concevoir, on parle d’infertilité « primaire ». L’infertilité « secondaire » touche quant à elle les couples qui ont déjà vécu une grossesse, mais qui éprouvent des difficultés à concevoir de nouveau.

Longtemps, l’infertilité a été considérée comme résultant uniquement de problèmes affectant les femmes. En effet, confrontés à une telle situation, les hommes ont tendance à considérer que l’échec de conception remet en question leur virilité, ce qui peut les pousser à refuser les tests médicaux (ou à rejeter la faute sur leur partenaire). Cela a longtemps contribué à passer sous silence une potentielle responsabilité masculine, renforçant l’idée fausse que seules les femmes peuvent être responsables de l’infertilité.


À lire aussi : Pollution : quand l’environnement menace la fertilité féminine


Si, dans certains pays, les hommes ont encore du mal à reconnaître leur implication dans ce problème majeur, les progrès médicaux ont fait peu à peu prendre conscience que l’infertilité pouvait aussi avoir des origines masculines.

On sait aujourd’hui qu’au moins 20 % des cas sont directement imputables aux hommes, et que ces derniers contribuent à 50 % des cas d’infertilité en général.

À l’origine de l’infertilité, une multitude de facteurs

Les causes de l’infertilité peuvent être multiples. Chez la femme comme chez l’homme, la capacité à engendrer est influencée par l’âge.

Les femmes naissent avec un stock limité d’ovules, qui diminue progressivement avec l’âge, ce qui s’accompagne d’une baisse progressive de la fertilité, jusqu’à la ménopause. Les hommes, quant à eux, sont affectés à partir de la quarantaine par une diminution de la qualité du sperme (notamment le fonctionnement des spermatozoïdes, les gamètes mâles), ce qui a également des conséquences en matière de fertilité.


À lire aussi : Pollution : quand l’environnement menace la fertilité féminine


Parmi les causes « non naturelles », les scientifiques s’intéressent de plus en plus aux effets de la pollution et des pesticides. Aux États-Unis, les travaux de l’USGS (United States Geological Survey), la principale agence civile de cartographie aux États-Unis, ont révélé qu’environ 50 millions de personnes consomment des eaux souterraines exposées aux pesticides et d’autres produits chimiques utilisés dans l’agriculture.

Preuve des préoccupations des autorités, pour réduire les intoxications causées par les pesticides, en particulier chez les travailleurs agricoles et les manipulateurs de pesticides, des protections professionnelles sont offertes à plus de 2 millions de travailleurs répartis sur plus de 600 000 établissements agricoles via la norme de protection des travailleurs agricoles (WPS) et l’agence de protection de l’environnement (EPA).

Ces précautions ne sont pas étonnantes : ces dernières années, les scientifiques ont rassemblé de nombreux indices indiquant que l’exposition aux pesticides représente un danger pour la santé publique, et peut notamment se traduire par des problèmes d’infertilité.

L’analyse du taux de prévalence de l’infertilité chez les personnes âgées de 15 à 49 ans, dans 204 pays et territoires, entre 1990 et 2021 a récemment révélé que les régions les plus touchées par l’infertilité sont principalement situées en Asie de l’Est, en Asie du Sud et en Europe de l’Est.

Cette problématique concerne aussi la France, pays considéré comme l’un des plus grands consommateurs de pesticides dans le monde. Il est important de mettre en lumière cette situation, car la plupart des personnes qui souffrent d’infertilité ne la connaissent pas.

Des molécules qui perturbent les mécanismes hormonaux

L’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses) a classé diverses substances dans la catégorie des perturbateurs endocriniens : le bisphénol A (BPA), les phtalates et leurs métabolites, ou certains pesticides, tels que les biphényles polychlorés (PCB), le glyphosate, le dichlorodiphényltrichloroéthane (DDT) et le méthoxychlore.

Pour mémoire, les perturbateurs endocriniens sont des substances imitant ou interférant avec l’activité des hormones, donc capables de perturber le fonctionnement hormonal, et ce, même à très faible dose.

En ce qui concerne les pesticides, les systèmes de surveillance environnementale et sanitaire se sont longtemps focalisés sur les substances actives, négligeant en grande partie les composés issus de leur dégradation, appelés « métabolites ».

Pourtant, on sait aujourd’hui que, dans certains cas, les métabolites peuvent exercer un effet biologique plus important que la substance mère elle-même. Dans le cas des pesticides, ces composés secondaires sont souvent persistants et peuvent jouer un rôle significatif dans les effets toxiques à long terme. C’est en particulier le cas en ce qui concerne la fertilité humaine.

Cette omission dans les stratégies de suivi a retardé la reconnaissance de la contribution potentielle des métabolites de pesticides à la baisse de la fertilité observée dans certaines populations exposées.

Perturbateurs endocriniens et fertilité masculine

Les preuves scientifiques suggèrent en effet qu’une exposition prolongée à des perturbateurs endocriniens peut nuire à la fertilité masculine, en affectant divers aspects de la fonction hormonale, avec notamment des conséquences sur la spermatogenèse (autrement dit la production et de la qualité du sperme).

En 2023, nous avons mené une étude rétrospective portant sur une population de 671 hommes vivant en Picardie. Les résultats ont montré que, chez le groupe exposé, que les spermatozoïdes étaient moins actifs et se déplaçaient moins bien. De plus, nous avons observé que l’ADN des spermatozoïdes était plus souvent fragmenté, et que leur structure était moins stable.

Au-delà des conséquences liées à l’exposition à un perturbateur endocrinien donné, la question de l’exposition à des mélanges de substances capables de perturber le système hormonal se pose avec une acuité grandissante.

Outre les pesticides et leurs métabolites, nous sommes en effet quotidiennement en contact avec de nombreuses molécules présentant des propriétés de perturbation endocrinienne. On peut par exemple citer les bisphénols utilisés pour remplacer le bisphénol A, composés perfluorés (PFAS, les alkylphénols (utilisés dans les détergents), ou encore les phtalates, dont on sait qu’ils peuvent altérer la production hormonale, perturber la maturation des cellules reproductrices et affecter la qualité du sperme (en plus d’affecter négativement la fertilité féminine).

Or, parfois, le fait d’être présentes dans un mélange modifie l’activité de certaines molécules, ce qui peut accroître leur toxicité. Certains facteurs environnementaux, tels que la pollution de l’air, peuvent également exacerber ces effets.

Pourquoi les perturbateurs endocriniens perturbent-ils la fertilité masculine ?

Dans notre corps, la production des hormones, et notamment de celles qui contrôlent la fertilité, est sous l’influence de l’axe hypothalamo-hypophysaire. Ce dernier est en quelque sorte la « tour de contrôle » qui régule le trafic hormonal. Comme son nom l’indique, il est constitué par l’hypothalamus, une région du cerveau impliquée dans de nombreux processus essentiels (métabolisme, croissance, faim et soif, rythme circadien, thermorégulation, stress et reproduction) et par l’hypophyse, une glande de la taille d’un petit pois qui se trouve à la base du cerveau.

L’hypothalamus libère une hormone appelée GnRH (GnRH, pour gonadotropin-releasing hormone), qui stimule l’hypophyse. En réponse, l’hypophyse libère à son tour deux hormones clés : la FSH (hormone folliculo-stimulante) et la LH (hormone lutéinisante). Ces hormones stimulent la production de testostérone par les testicules.

Les perturbateurs endocriniens ont la capacité de se fixer sur les récepteurs hormonaux. Ce faisant, ils perturbent la production des hormones sexuelles masculines, telles que la testostérone et l’œstradiol, qui sont cruciales pour le développement et le maintien des fonctions reproductives.

Les perturbateurs endocriniens agissent à plusieurs niveaux

On l’a vu, les perturbateurs endocriniens interfèrent avec le système hormonal en imitant ou en bloquant les hormones naturelles. Certains d’entre eux donnent également de faux signaux à l’hypothalamus ou à l’hypophyse, ce qui dérègle la production de FSH et de LH, empêchant ainsi le bon fonctionnement des testicules.

Grâce à des études expérimentales menées dans notre laboratoire sur des rats de Wistar, nous avons démontré que l’exposition à certains produits chimiques et la consommation d’une alimentation riche en graisses pouvaient avoir un impact négatif sur la reproduction. Nos principaux résultats indiquent une diminution significative du poids des petits rats exposés à l’insecticide chlorpyrifos à partir du 30e jour. Ce phénomène est encore plus marqué au 60e jour après la naissance.

L’analyse des tissus a révélé chez les femelles une augmentation du nombre de follicules détériorés. Chez les mâles, nous avons constaté que la structure des testicules était anormale, ce qui engendre une perte de cellules germinales (les cellules intervenant dans la production des spermatozoïdes).

De plus, chez des rats exposés au chlorpyrifos et à un régime riche en graisses, nos travaux ont mis en évidence une baisse significative de certaines protéines essentielles à la régulation hormonale. C’est par exemple le cas de deux hormones sécrétées par les neurones de l’hypothalamus : la GnRHR (hormone de libération des gonadotrophines hypophysaires, responsable notamment de la synthèse et de la sécrétion de LH) et la kisspeptine (qui joue un rôle majeur dans la mise en place de la puberté et dans la régulation de la reproduction).

Que peut-on faire ?

Pour limiter les risques, il est important d’adapter ses comportements afin de réduire au maximum son exposition aux perturbateurs endocriniens. L’adoption de certains gestes simples peut y participer :

  • privilégier une alimentation bio, afin de limiter l’exposition aux pesticides (en ce qui concerne l’eau, diverses questions se posent, en particulier celle de la qualité de l’eau du robinet dans les régions fortement agricoles ; ces zones peuvent en effet être contaminées par des résidus de pesticides, des nitrates ou d’autres produits chimiques provenant des pratiques agricoles) ;

  • laver soigneusement les fruits et légumes avant de les consommer et de les éplucher si possible ;

  • porter des équipements de protection en cas d’utilisation de pesticides, en particulier en milieu professionnel. Rappelons que les agriculteurs sont les premières victimes directes de ces substances ;

  • sensibiliser les populations et promouvoir des pratiques agricoles responsables.

The Conversation

Sophian Tricotteaux-Zarqaoui a reçu des financements pour son doctorat de la Région Haut-de-France (50%), de la Mutualité Sociale Agricole of Picardie (25%) et de ATL Laboratories (25%).

Hafida Khorsi, Marwa Lahimer et Moncef Benkhalifa ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.

PDF

28.10.2025 à 15:31

De l’Algérie coloniale aux experts médiatiques, une histoire du gouvernement de l’islam en France

Franck Frégosi, Politiste, directeur de recherche au CNRS, laboratoire Groupe Sociétés, Religions, Laïcités, Aix-Marseille Université (AMU)

L’État encadre depuis des années l’expression publique de l’islam, à travers des lois et des choix d’interlocuteurs, dans une logique notamment héritée de la colonisation en Algérie.
Texte intégral (2641 mots)

À travers des lois et des discours ou par la promotion de certains acteurs religieux et le rejet d’autres, l’État cherche à encadrer l’expression publique de la foi musulmane en France, à rebours du principe de laïcité. Certains procédés employés trouvent leurs origines dans le passé colonial, notamment en Algérie, comme l’analyse Franck Fregosi, auteur de Gouverner l’islam en France (Seuil, 2025).


Depuis une trentaine d’années, différentes étapes ont jalonné le gouvernement de l’islam en France, passant notamment par un processus d’institutionnalisation par le haut de cette religion. Plusieurs lois sur la visibilité urbaine de l’islam s’intègrent également dans ce processus, comme la loi du 15 mars 2004 interdisant le voile dans les écoles publiques, ou celle du 10 octobre 2010 proscrivant quant à elle toute dissimulation du visage dans l’espace public, sans oublier la loi « confortant le respect des principes de la République » du 21 août 2021.

Toutes ces politiques s’inscrivent dans un processus global qui converge vers le reformatage de la visibilité du fait musulman, au travers de la mise en place de dispositifs institutionnels et législatifs, ou au prisme de discours officiels sur l’islam – citons, notamment, les discours d’Emmanuel Macron à Mulhouse (Haut-Rhin) et aux Mureaux (Yvelines), en 2020, qui, après la lutte contre l’islamisme violent, font de la lutte contre le « séparatisme » le nouvel objectif du gouvernement. Il vise également à la structuration de la représentation de l’islam, voire à sa quasi-administration, ainsi qu’à un contrôle social renforcé de l’expression et de la diffusion de cette religion en France.

Lors de son discours prononcé aux Mureaux (Yvelines), le 2 octobre 2020, Emmanuel Macron étend la lutte contre l’islam radical violent à ce qu’il qualifie de « séparatisme islamiste ».

Ce qui n’était pas possible hier en termes de contrôle étatique avec l’Église catholique romaine, forte de sa tradition de centralisation et de ses interfaces avec le monde politique, semble aujourd’hui davantage envisageable avec des communautés musulmanes minoritaires. Le tout au sein d’une société française profondément sécularisée, où l’indifférence religieuse s’accroît au sein de la population globale et où règne un climat anxiogène par rapport à l’islam, sur fond de dérive autoritaire de la République.

Des logiques héritées de la colonisation

Ce gouvernement de l’islam en France a une histoire : celle-ci remonte à la période coloniale, en Algérie plus particulièrement. Dans son étude pionnière, parue en 2015, l’historienne Oissila Saaidia a notamment analysé les différentes étapes et motivations ayant présidé à ce qu’elle qualifie d’« invention du culte musulman » dans l’Algérie coloniale dès 1851.

À l’époque, cette politique religieuse se résumait à la production d’une classification des édifices cultuels musulmans, à la mise sur pied d’une hiérarchie du personnel les desservant (notamment des imams), et à un processus de nomination de ce personnel. Des liens financiers directs seront ainsi établis afin qu’il soit rémunéré par l’administration coloniale, à qui revenait désormais la propriété des édifices. Une politique dite « des égards » fut aussi engagée : elle consistait à se ménager la bienveillance de responsables musulmans en leur octroyant, par exemple, des décorations pour leur loyalisme, associées à quelques subsides financiers.

Ce processus colonial de concordatisation de l’islam, c’est-à-dire de contractualisation juridico-politique entre l’État et les institutions religieuses afin de garantir la loyauté républicaine des fidèles musulmans, le tout moyennant un soutien et un contrôle accru du culte par les pouvoirs publics, survivra au vote de la loi en métropole portant séparation des Églises et de l’État, en décembre 1905. Celle-ci ne concernera pas, en effet, les trois départements algériens.

Cette logique trouvera son prolongement en métropole avec l’édification de l’Institut musulman de la Grande Mosquée de Paris dans les années 1920. Cet édifice était destiné autant à servir de vitrine de l’entreprise de colonisation, présentée comme respectueuse des besoins religieux de ses sujets musulmans, qu’à s’inscrire là encore dans une politique de contrôle et de surveillance des populations par le biais du religieux. L’institution permettait en effet un contrôle étroit des fidèles fréquentant le lieu, mais aussi la diffusion d’une version officielle de l’islam, bienveillante envers les pouvoirs publics et la politique coloniale.

Une fois passée dans le giron des autorités algériennes durant la décennie 1980, la Grande Mosquée de Paris conservera cette fonction sociale implicite de régulation de l’offre musulmane – destinée cette fois à la diaspora algérienne en France. Elle permettra également de veiller à la loyauté de cette diaspora envers le régime algérien.

Au-delà de l’héritage historique, de nouvelles logiques à l’œuvre

Bien qu’il n’y ait de nos jours plus lieu de parler d’une administration directe par les pouvoirs publics du culte musulman – les imams ne sont plus nommés ni rémunérés par l’État – certains responsables politiques, comme Manuel Valls ou Jean-Pierre Chevènement, ont un temps imaginé déroger à la règle du non-subventionnement direct des cultes au profit de l’islam, afin de couper tout lien financier avec l’étranger.

D’autres, comme Gérald Darmanin, et plus récemment Édouard Philippe, semblent même plaider en faveur de l’établissement d’un nouveau Concordat avec l’islam. Force est de constater qu’un certain désir de contrôle de cette religion par la puissance publique continue donc de faire son chemin parmi les élites politiques, sur fond de mise au pas de certaines expressions publiques de l’islam.

À ces logiques classiques, s’en sont progressivement ajoutées de nouvelles, comme la volonté d’œuvrer en vue d’une réforme de l’islam en promouvant – au besoin par la loi – une pratique moins extensive, c’est-à-dire moins visible, de l’islam. Un des aspects de cette réforme souhaitée par certains serait un encadrement des tenues vestimentaires féminines, déjà limitées par les lois de 2004 et de 2010 vues plus haut. Cet encadrement légal a par ailleurs connu de récentes extensions, confirmant par là même que le port du voile ou de tenues supposées connotées religieusement par des jeunes femmes musulmanes n’est pas le bienvenu dans la société.

Plus en amont, s’est aussi mise en place une logique de gouvernance partagée entre l’État et certains opérateurs de l’islam en France, comme le Conseil français du culte musulman (CFCM), créé en 2002. L’État est ainsi en quête d’interlocuteurs musulmans qui acceptent de cheminer aux côtés des pouvoirs publics soit directement dans la structuration conjointe d’une représentation nationale de l’islam, dans le cas du CFCM, soit dans la production de textes (statut type de l’imam, processus de désignation des aumôniers…) censés stabiliser la pratique de l’islam dans le cas du Forum de l’islam de France (Forif), une autre instance voulue par Gérald Darmanin, en 2023.

Se profile aussi à l’horizon un nouveau gallicanisme d’État visant l’islam, c’est-à-dire une situation où la puissance publique, tout en demeurant formellement attachée au principe juridique de laïcité, entend néanmoins soumettre la religion à un contrôle accru de sa part. Dans cette optique, l’État procède à une sélection et à une hiérarchisation des courants de l’islam en France. Elle s’opère non seulement selon leur degré de loyauté envers les pouvoirs publics, mais aussi selon leurs supposées doctrines, qu’agréerait ou non l’État en fonction de leur vision spirituellement en phase avec le modèle républicain et ses lois, ou de leur attitude extensive encourageant le « séparatisme ».

La promotion récurrente d’un « islam républicain » participe précisément de ce projet d’un islam contenu, réputé modéré, voire soluble dans la République. Les polémiques autour de la création voulue par Emmanuel Macron d’un Conseil national des imams en 2021, et surtout la publication d’une Charte des principes pour l’islam de France, que les imams en poste et leurs successeurs devraient ratifier en vue d’être reconnus, en sont les illustrations.

Discours experts et nouvelle gouvernance de l’islam

Enfin, n’oublions pas que les récentes politiques de l’islam en France laissent transparaître une grande porosité entre le monde académique des savants et des chercheurs, familiers des mondes musulmans et des dynamiques politico-religieuses se réclamant de l’islam, et l’univers des décideurs politiques au plus haut sommet de l’État (présidence de la République, ministère de l’intérieur…).

Les évènements dramatiques liés au terrorisme islamiste (attentats jihadistes de Paris en 2015 et de Nice en 2016, assassinat de Samuel Paty en 2020…) ont constitué autant de fenêtres d’opportunité dans lesquelles se sont engouffrés des universitaires devenus experts médiatiques, que cela soit dans en vue de populariser leurs analyses, ou dans le but de capitaliser sur leur notoriété déjà ancienne pour acquérir de nouveaux signes de validation et de promotion par les pouvoirs publics.

Les pouvoirs publics sont quant à eux en quête de discours savants susceptibles de concourir à définir le portrait d’un nouvel « ennemi intérieur ». C’est ce que démontre notamment le rapport officiel rendu public en mai 2025 ciblant l’existence d’un risque « frériste » dans l’Hexagone. Alors que jusque-là la gouvernance de l’islam se négociait principalement à travers des échanges entre chargés de mission et fonctionnaires du ministère de l’intérieur d’une part, gestionnaires de lieux de culte et présidents de fédérations musulmanes d’autre part, on note à partir de 2013 un recours plus systématique de l’État à des universitaires et à des chercheurs, qui participent activement à l’élaboration du nouveau référentiel de l’action publique en matière d’islam. Des chercheurs comme Gilles Kepel, Bernard Rougier ou encore Hugo Micheron sont ainsi devenus à la fois des habitués des plateaux médiatiques et des voix écoutées par les pouvoirs publics dans la construction de leurs politiques vis-à-vis de l’islam.

Le chevauchement de plus en plus net entre discours savants et expertise orientée vers les besoins des pouvoirs publics, conduit certains de ces sachants non seulement à accompagner de leurs expertises savantes les soubresauts des mondes musulmans (la guerre civile en Syrie, les exactions de Daech en Irak, la chute du régime Assad en Syrie, le conflit israélo-palestinien…), mais aussi à ériger leurs analyses en unique prisme au travers duquel percevoir les dynamiques de l’islam minoritaire hexagonal. Ce chevauchement se fait par ailleurs au risque de nourrir indirectement un certain récit sur l’islamisation progressive de la France par une supposée conquête territoriale de l’islamisme.

Dans leur sillage, des voix plus militantes encore apportent également leur concours à la théorie d’extrême droite du grand remplacement, sur fond de croisade morale contre l’université française supposée contaminée par l’« islamo-gauchisme » et le « wokisme ». L’anthropologue Florence Bergeaud-Blackler s’exprime ainsi régulièrement sur ces deux thèmes, et affiche sa proximité idéologique avec des officines souverainistes, entre autres liées à la mouvance portée par le milliardaire Pierre-Édouard Stérin.

Il ne s’agit pas de nier que l’islamisme violent puisse avoir des relais ou des agents de promotion en France (et ailleurs en Europe). Il convient cependant de se défier d’approches qui érigeraient systématiquement l’islam vécu au quotidien par des millions de musulmans dans l’Hexagone, parfois sous des formes plus ou moins rigoristes, comme une simple adaptation locale de l’islamisme militant du Moyen-Orient, faisant ainsi fi du contexte historique, social, culturel comme de l’environnement politique et religieux. Le musulman français, fût-il un conservateur ou simplement pieux, ne peut être au motif de son éventuelle lecture intégraliste de l’islam suspecté d’être déjà engagé dans une voie qui le rendra complice des tenants d’une radicalité violente, abusant du référentiel islamique.

À travers ses politiques de gouvernance de l’islam, l’État en France démontre qu’il n’a en fait jamais vraiment renoncé depuis le moment colonial à vouloir gouverner cette religion. Poser ce constat revient à souligner le paradoxe entre, d’une part, l’existence de discours officiels disqualifiant toute effusion politique du religieux hors de l’espace privé et, de l’autre, le maintien et le renforcement de dispositifs publics ciblant des groupes religieux – musulmans, plus spécifiquement. Ce paradoxe nous révèle les impensés qui persistent autour du bon gouvernement de la religion en régime de laïcité.

The Conversation

Franck Frégosi ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

28.10.2025 à 15:31

Marwan Barghouti, l’homme de l’espoir pour une Palestine démocratique

Vincent Lemire, Professeur en histoire contemporaine, Université Gustave Eiffel

Anna C. Zielinska, MCF en philosophie morale, philosophie politique et philosophie du droit, membre des Archives Henri-Poincaré, Université de Lorraine

Leader palestinien emprisonné depuis 2002, Marwan Barghouti, très populaire auprès des siens, pourrait en cas de libération jouer un rôle clé dans le processus de paix.
Texte intégral (3792 mots)

Emprisonné depuis vingt-trois ans en Israël pour des crimes qu’il a toujours niés, Marwan Barghouti, aujourd’hui âgé de 66 ans, est selon toutes les enquêtes d’opinion le responsable politique le plus populaire au sein de la population palestinienne. S’il était libéré et participait à la prochaine élection présidentielle promise par Mahmoud Abbas avant fin 2026, ce cadre du Fatah pourrait jouer un rôle fondamental dans l’établissement d’une paix juste et durable entre Israéliens et Palestiniens.

Déterminé à obtenir l’indépendance de la Palestine dans les frontières de 1967, le dirigeant palestinien est tout autant hostile aux attentats visant les civils israéliens. Dans le monde entier, mais aussi en Israël même, des voix influentes demandent sa libération, à laquelle le gouvernement Nétanyahou continue, pour l’heure, de s’opposer.


Marwan Barghouti est né en 1959 à Kobar, non loin de Ramallah. Il a été, à partir de 1994, secrétaire général du Fatah en Cisjordanie et, à partir de 1996, membre du Conseil législatif palestinien, le Parlement de l’Autorité palestinienne créé à la suite des accords d’Oslo. Figure clé de la deuxième Intifada (2000-2005), entré dans la clandestinité en 2001, il est emprisonné en Israël depuis 2002. Le dirigeant palestinien a toujours nié avoir commandité les crimes pour lesquels il a été condamné à perpétuité.

L’homme est parfois qualifié de « Mandela palestinien ». Cette analogie est contestée par certains : alors que Barghouti a participé à des actions militaires, Nelson Mandela aurait prôné la lutte non violente au sein du Congrès national africain (ANC). C’est faux. Mandela a bel et bien fondé, puis dirigé, à partir de mai 1961, l’organisation Umkhonto we Sizwe (Fer de lance de la nation), la branche militaire de l’ANC.

Depuis son emprisonnement il y a vingt-trois ans, la libération de Barghouti n’a longtemps été exigée, au niveau international, que par des partis politiques de gauche (le Parti communiste français, notamment), mais cette revendication est aujourd’hui devenue largement transpartisane. En janvier 2024, Ami Ayalon, ancien chef du Shin Bet (le service de renseignement intérieur israélien), affirme que la remise en liberté de Barghouti est indispensable pour créer une alternative politique en Palestine, et donc un processus de paix effectif. Début octobre 2025, Ronald Lauder, figure clé de la communauté juive américaine, président du Congrès juif mondial depuis 2007, a proposé de se rendre en personne à Charm-el-Cheikh, en Égypte, (où se tenaient les négociations entre Israéliens et Palestiniens) pour inclure la libération de Barghouti dans l’accord final de cessez-le-feu, proposition rejetée par Benyamin Nétanyahou.

Hadja Lahbib, actuelle commissaire européenne à l’aide humanitaire et à la gestion de crises, ancienne ministre belge des affaires étrangères de 2022 à 2024, issue du centre-droit, a déclaré récemment qu’elle voyait en Barghouti « le Nelson Mandela palestinien » qui pourrait « gagner la confiance de son peuple tout en le conduisant vers la paix ».

Enfin, le 23 octobre 2025, Donald Trump, interrogé sur Barghouti dans une interview à Time, a répondu :

« C’est la question du jour. Je vais donc prendre une décision. »

Le même journal a également rapporté que l’épouse de Marwan, l’avocate Fadwa Barghouti, s’est adressée directement au président américain pour lui demander de contribuer à la libération de son mari.

Si, pour l’heure, Benyamin Nétanyahou refuse d’envisager une telle possibilité, cette libération semble moins improbable que par le passé. Mais que veut réellement Marwan Barghouti, que pèse-t-il sur la scène politique palestinienne, et qu’est-ce que son éventuelle libération pourrait changer ?

Les engagements politiques de Barghouti

Diplômé d’un master en relations internationales à l’Université palestinienne de Birzeit (Cisjordanie), avec un mémoire de recherche consacré à la politique du général de Gaulle au Moyen-Orient, Barghouti a été plusieurs fois arrêté pour ses activités à la tête d’organisations étudiantes. Lors de la première Intifada, il est exilé en Jordanie (1987-1993). Son retour en Palestine est rendu possible grâce aux négociations d’Oslo et il devient secrétaire général du Fatah en Cisjordanie en 1994, fervent soutien du processus de paix, tout en s’opposant au maintien de la colonisation.

Pendant la seconde Intifada (2000-2005), il joue un rôle politique de premier plan, en tant que dirigeant des Tanzim, les « organisations populaires » du Fatah, dont certains éléments s’engagent dans la lutte armée. L’action armée des Tanzim se caractérise alors par le refus des attentats suicides et des attaques contre les civils, avec des actions concentrées contre l’occupation israélienne à Gaza et en Cisjordanie. En août 2001, quelques mois avant son arrestation, sa voiture est visée par deux missiles antichars et son garde du corps est tué. Lors de son procès en 2004, Barghouti a rappelé que son rôle au sein du Fatah était avant tout politique et il a toujours nié avoir commandité les meurtres dont il était accusé.

Plusieurs sources témoignent du projet politique du leader palestinien. En 1994, dans un entretien avec Graham Usher, Barghouti se présente comme un pont entre deux cultures politiques palestiniennes : l’une forgée en dehors de Palestine, l’autre sous l’occupation israélienne. Il voit les accords d’Oslo comme la fin du rêve d’un « Grand Israël », puisque le gouvernement israélien a reconnu les Palestiniens en tant que peuple et l’Organisation de libération de la Palestine (OLP) comme son représentant. À ses yeux, l’indépendance est l’objectif prioritaire de la lutte, car elle est la condition indispensable à une évolution démocratique en Palestine. Il défend le pluralisme et craint qu’une victoire du Hamas aux élections législatives de 1996 (et auxquelles le mouvement islamiste ne se présentera finalement pas) ne provoque la mise en place de la loi islamique.

Il plaide pour la création d’institutions véritablement démocratiques afin de préserver le pluralisme, et rappelle que le futur gouvernement palestinien devra respecter les oppositions. Enfin, il voit l’OLP comme une étape transitoire dans le processus de mise en place de l’Autorité palestinienne puis de l’État palestinien. Il compare ce rôle à celui de l’Organisation sioniste mondiale, qu’il décrit comme « une institution internationale qui facilite et soutient le droit au retour ». Son État palestinien idéal est, explique-t-il :

« un État démocratique, fondé sur les droits humains et le respect de la pluralité des confessions et des opinions. Tout ce qui nous a été historiquement refusé dans notre lutte pour une patrie. Pour les Palestiniens, rien de moins ne sera acceptable. »

L’arrestation de Marwan Barghouti, le 15 avril 2002. IDF Spokesperson’s Unit, CC BY-ND

Dans une autre interview réalisée en 2001, au début de la seconde Intifada, Barghouti déclare notamment que « l’objectif de l’Intifada est de mettre fin à l’occupation israélienne », ce qui signifie concrètement l’arrêt de l’occupation « de l’ensemble des Territoires occupés » et l’établissement « d’un État palestinien indépendant dans les frontières de 1967 ». Au même moment, quelques mois après le déclenchement de la seconde Intifada et par l’intermédiaire d’un haut responsable du Shin Bet, il propose une trêve crédible au premier ministre israélien Ariel Sharon, qui la refuse. Le fait que Barghouti soit en prison depuis 2002 ne l’a pas empêché de participer aux élections parlementaires en Palestine de janvier 2006, les dernières à ce jour, en étant très largement réélu.

Quelques mois avant son arrestation en 2002, Barghouti publie dans le Washington Post une tribune intitulée « Vous voulez la sécurité ? Mettez fin à l’occupation », dans laquelle il dénonce les arguments prétendument sécuritaires d’Ariel Sharon :

« Le seul moyen pour les Israéliens de vivre en sécurité est de mettre fin à l’occupation israélienne du territoire palestinien, qui dure depuis trente-cinq ans. Les Israéliens doivent abandonner le mythe selon lequel il serait possible d’avoir la paix et l’occupation en même temps, avec une possible coexistence pacifique entre le maître et l’esclave. L’absence de sécurité israélienne est née de l’absence de liberté palestinienne. Israël ne connaîtra la sécurité qu’après la fin de l’occupation, pas avant. »

Ces mots n’ont rien perdu de leur évidence frontale et de leur force. À côté de la tragédie à Gaza, l’occupation de la Cisjordanie provoque aujourd’hui des dégâts incalculables chez les Palestiniens bien sûr, mais également au sein de la société israélienne, peu à peu gangrenée par la brutalité systématique et meurtrière de ses colons et de ses soldats.

Le portrait de Barghouti est brandi lors d’un rassemblement de Palestiniens protestant contre la saisie de leurs terres à Kufr ad Deek (nord de la Cisjordanie), le 15 février 2012. KafrAdDeek/Wikipedia, CC BY

Comme nous l’a rapporté le philosophe Sari Nusseibeh, l’engagement de Barghouti pour un État palestinien libre et démocratique était déjà visible dans les années 1980, quand il faisait partie des rares activistes palestiniens à discuter ouvertement avec les députés travaillistes en Israël. Sa position est restée inchangée depuis. Dans le texte du Washington Post déjà cité, Barghouti explicite sa ligne stratégique :

« Moi-même et le mouvement Fatah auquel j’appartiens nous opposons fermement aux attaques contre des civils en Israël, notre futur voisin […]. Je ne cherche pas à détruire Israël, mais seulement à mettre fin à son occupation de mon pays. »

Dans une lettre rédigée en 2016, il insiste également sur les réformes profondes qu’il faudra initier en Palestine pour renouveler et consolider le contrat démocratique entre les dirigeants et les citoyens :

« Nous ne pouvons dissocier la libération de la terre et celle du peuple. Nous avons besoin d’une révolution dans nos systèmes éducatif, intellectuel, culturel et juridique. »

Ce que sa libération pourrait apporter

Barghouti purge actuellement cinq peines d’emprisonnement à perpétuité. Son procès n’a pas répondu aux standards internationaux : Barghouti et ses éminents avocats – Jawad Boulus, Gisèle Halimi et Daniel Voguet, entre autres – ont plaidé que, selon le droit international, le tribunal du district de Tel-Aviv n’était pas compétent pour juger les faits dont il était accusé. Pour cette raison, Barghouti a refusé de répondre en détail aux accusations portées contre lui (le meurtre du prêtre Georgios Tsibouktzakis et de quatre autres civils), se cantonnant à répéter sa condamnation des attentats terroristes visant des civils.

Sa popularité auprès des Palestiniens est impressionnante. Selon un sondage réalisé en mai 2025 par le Centre palestinien pour la recherche politique, 39 % des électeurs en Palestine (Cisjordanie et Gaza) considèrent Barghouti comme le plus apte à succéder à Mahmoud Abbas, ce qui le place en première position, loin devant Khaled Mechaal, chef politique du Hamas exilé au Qatar, deuxième avec 12 %.

Un autre sondage réalisé juste avant le 7 octobre, en septembre 2023, à l’occasion du 30e anniversaire des accords d’Oslo, montrait déjà qu’en cas d’élection présidentielle 34 % des sondés auraient voté pour Marwan Barghouti au premier tour, et 17 % pour le leader du Hamas Ismaïl Haniyeh. Au second tour, Barghouti l’aurait facilement emporté par 60 % des voix contre Haniyeh, alors qu’Haniyeh l’aurait emporté par 58 % contre Mahmoud Abbas.

Non seulement Barghouti est la personnalité préférée des Palestiniens, le rempart contre le Hamas, mais il redonne confiance dans le processus politique lui-même. Selon ce même sondage, la participation aux élections sera 20 % plus élevée si Barghouti est candidat.

La libération de Marwan Barghouti ne suffira pas pour mettre fin au conflit, qui dure depuis plus d’un siècle. C’est un être humain qui peut commettre des erreurs et qui proposera peut-être certaines solutions qui s’avèreront décevantes. Mais, compte tenu de ce qu’il représente aujourd’hui pour les Palestiniens, sa libération apparaît comme un préalable indispensable à tout processus politique.

Depuis les années 1990, il a fait de la lutte contre la corruption et contre les inégalités femmes-hommes le cœur de son engagement. Leader incontesté du Mouvement des prisonniers, qui regroupe des militants de toutes les factions palestiniennes, il œuvre inlassablement pour une réconciliation nationale. En juin 2006, il initie l’Appel des prisonniers, signé par des militants de toutes obédiences, Hamas et Jihad islamique compris, qui déclare qu’un État palestinien devra être créé « dans les frontières de juin 1967 », ce qui revient à accepter l’existence d’Israël à l’extérieur de ces mêmes frontières.

L’annulation par Mahmoud Abbas des élections législatives de mai 2021, qui devaient marquer la réconciliation entre le Fatah et le Hamas, a été accueillie avec défiance par l’opinion publique palestinienne, qui ne s’identifie plus à ce dirigeant démonétisé, inefficace et dépassé, tant sur le plan politique qu’économique. Le peuple palestinien, à ce moment dramatique de son histoire, doit de toute urgence pouvoir débattre librement de son avenir, avec de nouveaux horizons constructifs.

Le déclenchement du processus démocratique ne se fera pas sans Barghouti

Aujourd’hui, outre la confiance dont il jouit dans le milieu politique et intellectuel international et auprès du public israélien, Marwan Barghouti est soutenu par une grande partie de la population palestinienne. Si un État viable et démocratique peut advenir en Palestine, ce sera avec lui.

Il y a urgence, car la mise en place d’une gouvernance palestinienne à Gaza, pour avoir une chance de réussir, devra être soutenue par la population, au moment où le gouvernement d’extrême droite en Israël cherche au contraire à favoriser les clans mafieux de Gaza, dans le seul but de concurrencer le Hamas ; au moment également où Itamar Ben-Gvir, ministre israélien d’extrême droite en charge des prisons, vient menacer physiquement Barghouti dans sa cellule et couvre les mauvais traitements dont il est régulièrement victime.

Pour qu’un gouvernement palestinien soit soutenu non seulement en Cisjordanie, mais aussi à Gaza, il faut que les structures de l’Autorité palestinienne soient profondément refondées. Pour cela, des élections sont indispensables. Elles ont failli avoir lieu en mai 2021, mais, nous l’avons évoqué, elles ont été reportées sine die à la suite de la décision israélienne d’interdire les bureaux de vote à Jérusalem-Est, privant de participation les 400 000 habitants palestiniens de Jérusalem. Aujourd’hui, grâce aux smartphones et aux nouvelles technologies d’identification numérique, le vote électronique permettra aisément de surmonter cet obstacle.

Marwan Barghouti est aujourd’hui le favori incontesté des futures élections palestiniennes. Si elles étaient organisées sans lui, elles perdraient de ce fait toute crédibilité. Il pourrait bien sûr se présenter depuis sa prison, comme en 2021. Mais recréer cette situation de soumission et d’hostilité ne permettrait pas une véritable campagne électorale participative et citoyenne. Les Palestiniens continueraient d’avoir l’impression que leurs ambitions sont humiliées. Les Israéliens continueraient de ne voir en Barghouti qu’un terroriste emprisonné et ne pourraient imaginer l’émergence d’un État palestinien comme un avenir acceptable, voire désirable.

Un homme et un symbole

La présentation de Barghouti comme un homme providentiel susceptible de sauver non seulement la Palestine, mais aussi Israël, provoque parfois des réactions ironiques, y compris à l’égard des auteurs de ce texte. Cette ironie est déplacée.

Dans des situations politiques dégradées, toute collectivité a besoin de symboles unificateurs. C’était le cas en Afrique du Sud avec Nelson Mandela, aux États-Unis avec Martin Luther King, mais également en Pologne et en Tchécoslovaquie : Lech Wałęsa et Václav Havel n’ont pas offert de solutions toutes faites, mais leur libération puis leur arrivée au pouvoir ont fait partie d’un processus d’émancipation et de prise de conscience politique pour leurs peuples respectifs.

L’incarnation d’une lutte, ce n’est pas le culte de la personnalité. Certains leaders charismatiques émergent dans des situations où tous les autres facteurs de stabilité se sont effondrés. De ce fait, ils constituent une cristallisation des aspirations politiques, et cela aussi devrait être pris au sérieux, dans le moment de bascule historique que nous traversons.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

28.10.2025 à 15:19

Comment le drapeau pirate de « One Piece » est devenu l’emblème mondial de la résistance pour la génération Z

Nuurrianti Jalli, Assistant Professor of Professional Practice, School of Media and Strategic Communications, Oklahoma State University

De Katmandou à Jakarta, en passant par Paris et New York, le drapeau des pirates au chapeau de paille du manga « One Piece » est devenu un emblème transnational de rébellion.
Texte intégral (3577 mots)
L’emblème de l’équipage pirate de Chapeau de paille brandi lors d’une manifestation à Rome, en septembre 2025, en soutien à la Palestine et à la Flotille pour Gaza. Vincenzo Nuzzolese/SOPA Images/LightRocket via Getty Images

De Paris à Rome, en passant par Jakarta et New York, un drapeau étonnant est apparu sur les places où se déroulent les manifestations. Avec son crâne au large sourire et son chapeau de paille à bande rouge, l’emblème issu du manga populaire « One Piece » est immédiatement reconnaissable et a été brandi ces derniers mois par de jeunes manifestants appelant au changement.


À Katmandou, au Népal, où la colère contre le gouvernement a atteint son paroxysme en septembre 2025, le drapeau issu du manga japonais très populaire One Piece est devenu une image emblématique du soulèvement alors que les flammes se propageaient à l’intérieur du palais de Singha Durbar, siège du pouvoir népalais.

Le « jolly roger », pavillon noir de l’équipage des chapeaux de paille dans One Piece devant un bâtiment en flammes
Le Jolly Roger des pirates de l’équipage de Chapeau de paille flotte devant le Singha Durbar après que des personnes ont incendié le siège du gouvernement népalais à Katmandou. Sunil Pradhan/Anadolu via Getty Images

Ce qui était au départ l’emblème d’un équipage de pirates fictif né il y a près de trente ans est devenu un puissant symbole de la résistance menée par la jeunesse, apparaissant dans des manifestations en Indonésie et au Népal, aux Philippines et en France.

En tant que spécialiste des médias et de la démocratie, je considère la diffusion de cette image – qui est passée des pages de mangas aux places où se tiennent des manifestations – comme un exemple de la manière dont la génération Z est en train de redéfinir le vocabulaire culturel de la dissidence.

Des manifestants, dont certains portent des masques, brandissent un drapeau représentant un crâne coiffé d’un chapeau de paille
Des Philippins agitent un drapeau One Piece, lors d’une manifestation contre la corruption au parc Rizal, le 21 septembre 2025, à Manille (Philippines). Ezra Acayan/Getty Images

La culture pop comme mode d’expression politique

One Piece est apparu en même temps que la génération Z ; il a été créé en 1997 par le mangaka japonais Eiichiro Oda.

Depuis, il s’est vendu à plus de 500 millions d’exemplaires et détient le record mondial Guinness pour son succès éditorial.

Il a donné naissance à une série télévisée à succès, à des films en prise de vues réelles et à une industrie pesant plus de 20 milliards de dollars américains, les licences de produits dérivés générant à elles seules environ 720 millions de dollars chaque année pour Bandai Namco, la société surtout connue pour avoir créé les jeux vidéo Pac-Man et Tekken.

Dans ce manga, on suit le pirate Monkey D. Luffy et son équipage de Chapeau de paille, alors qu’il défie un gouvernement mondial corrompu tout en recherchant la liberté et l’aventure.

Pour les fans, le drapeau One Piece n’est pas anodin, c’est un emblème de défi et de persévérance. La capacité de Luffy à dépasser ses limites physiques après avoir consommé un fruit magique est devenue une puissante métaphore de la résilience, tandis que sa quête inébranlable de liberté contre toute attente trouve un écho auprès des jeunes qui évoluent dans des environnements politiques marqués par la corruption, les inégalités et l’autoritarisme excessif.

Lorsque les manifestants adoptent ce drapeau, ils ne se contentent pas d’importer un élément esthétique de la culture populaire, mais s’inspirent d’un récit déjà compréhensible pour des millions de personnes.

Le drapeau a commencé à apparaître dans les manifestations au cours des dernières années. Il a été brandi lors d’une manifestation « Free Palestine » en 2023 en Indonésie et la même année à New York lors d’une manifestation propalestinienne.

Mais c’est en Indonésie, en août 2025, que le drapeau a véritablement pris son essor politique. Là-bas, les manifestants l’ont adopté pour exprimer leur frustration face aux politiques gouvernementales et leur mécontentement croissant face à la corruption et aux inégalités. Cela a coïncidé avec les appels du gouvernement à faire preuve de patriotisme lors des célébrations de l’indépendance, accentuant le contraste entre le nationalisme officiel et la dissidence populaire.

Deux personnes sur une mobylette passent devant une fresque murale représentant le drapeau de One Piece
Le drapeau de One Piece est devenu le symbole des manifestations indonésiennes en août 2025. Dika/AFP

Le mouvement a pris de l’ampleur lorsque les autorités ont réagi en critiquant vivement l’utilisation du drapeau, attirant ainsi involontairement davantage l’attention sur ce symbole. Les responsables gouvernementaux ont qualifié ces manifestations de menaces pour l’unité nationale, tandis que les manifestants les considéraient comme des expressions légitimes de frustration politique.

Un drapeau voyageur

La vitesse à laquelle le Jolly Roger de One Piece s’est répandu au-delà des frontières reflète l’éducation numérique de la génération Z. Il s’agit de la première cohorte à avoir grandi entièrement en ligne, immergée dans les mèmes, les anime et les franchises mondiales de divertissement. Leur communication politique repose sur ce que les chercheurs appellent « les publics en réseau », des communautés qui se forment et agissent via des plates-formes numériques plutôt que des organisations formelles.

Dans ce contexte, la solidarité ne nécessite pas d’appartenance à un parti ou à une idéologie. Elle repose plutôt sur des références culturelles communes. Un mème, un geste ou un drapeau peuvent instantanément véhiculer un sens au-delà des clivages linguistiques, religieux ou géographiques. Cette forme de connexion repose sur des codes culturels partagés qui permettent aux jeunes de s’identifier les uns aux autres même lorsque leurs systèmes politiques diffèrent.

Les réseaux sociaux confèrent à cette solidarité une portée et une rapidité exceptionnelles. Des vidéos d’Indonésiens brandissant le drapeau ont été extraites et partagées sur TikTok et Instagram, touchant ainsi un public bien au-delà de leur contexte d’origine. Lorsque le symbole est apparu à Katmandou, la capitale népalaise, en septembre, il était déjà porteur d’une aura de rébellion juvénile.

Au Népal, le drapeau était associé à la colère suscitée par le chômage des jeunes et à la richesse ostentatoire des dynasties politiques. En Indonésie, cela reflétait la désillusion face aux rituels patriotiques qui semblaient creux dans un contexte de corruption. Les deux mouvements sont motivés par des causes très différentes, mais, dans les deux cas, le drapeau fonctionnait comme un code open source : adaptable localement, mais immédiatement compréhensible ailleurs.

Une partie de l’efficacité du drapeau provient de son ambiguïté. Contrairement au logo d’un parti, le drapeau de One Piece trouve son origine dans la culture populaire, ce qui rend difficile sa suppression par les gouvernements sans paraître autoritaire. Lors des dernières manifestations en Indonésie, les autorités ont confisqué des banderoles et ont qualifié le fait de les utiliser comme une trahison. Mais de telles mesures répressives n’ont fait qu’amplifier la frustration des manifestants.

Un grand drapeau orné d’un crâne et d’os croisés est entouré de personnes
Le drapeau flotte au milieu des manifestations aux Philippines le 21 septembre 2025. @rimurutempestuh/x

Quand la fiction envahit la réalité

Le drapeau One Piece n’est pas le seul à avoir été réinventé comme symbole de résistance.

Dans tous les mouvements à travers le monde, la culture pop et la culture numérique sont devenues des ressources puissantes pour les militants. Au Chili et à Beyrouth, les manifestants ont porté des masques de Joker pour symboliser leur colère face à la corruption et aux inégalités. En Thaïlande, les manifestants se sont tournés vers « Hamtaro », un dessin animé pour enfants mettant en scène un hamster, parodiant sa chanson thème et brandissant des peluches pour ridiculiser les dirigeants politiques.

Ce mélange de politique, de divertissement et d’identité personnelle reflète un environnement médiatique hybride dans lequel les symboles issus de la culture fan acquièrent du pouvoir. Ils sont faciles à reconnaître, à adapter et à défendre contre la répression étatique.

Cependant, la résonance culturelle ne suffit pas à expliquer cet engouement. Le drapeau « One Piece » a connu un grand succès parce qu’il reflétait les griefs réels de la population. Au Népal, où le chômage des jeunes dépasse les 20 % et où la migration pour trouver du travail est courante, les manifestants ont associé l’emblème à des slogans tels que « La génération Z ne se taira pas » et « Notre avenir n’est pas à vendre ».

En Indonésie, certains manifestants ont fait valoir que le drapeau national était « trop sacré » pour être brandi dans un système corrompu, utilisant le drapeau pirate comme une déclaration de désillusion.

La diffusion du drapeau reflète également un changement plus général dans la manière dont les idées contestataires traversent les frontières. Autrefois, les sit-in, les marches ou les grèves de la faim tenaient le haut du pavé dans l’espace médiatique. Aujourd’hui, ce sont les symboles, les références visuelles issues de la culture mondiale qui circulent le plus rapidement. Ils peuvent être adaptés aux luttes locales tout en restant immédiatement reconnaissables ailleurs.

Des passants devant une affiche représentant un crâne et des os croisés
Un drapeau One Piece, planté devant un lycée en France pendant les manifestations. Pat Batard/Hans Lucas/AFP

Le parcours du drapeau, des rues asiatiques aux manifestations en France et en Slovaquie démontre à quel point la grammaire de la dissidence s’est mondialisée.

Pour les jeunes militants d’aujourd’hui, culture et politique sont indissociables. La génération numérique a donné naissance à une génération qui communique ses griefs à travers des mèmes, des symboles et des références culturelles qui traversent facilement les frontières.

Lorsque les manifestants à Jakarta, Katmandou ou Manille brandissent le drapeau Jolly Roger de One Piece, ils ne se livrent pas à un jeu de rôle, mais transforment une icône culturelle en un emblème vivant de défiance.

The Conversation

Nuurrianti Jalli est affilié à l'Institut d'études sur l'Asie du Sud-Est (ISEAS) Yusof Ishak Institute Singapore en tant que chercheur invité non résident pour le programme Médias, technologie et société.

PDF

28.10.2025 à 15:19

Économie circulaire : les consommateurs, acteurs oubliés de la réglementation européenne

Karine Bouvier, Chercheuse, Université de Strasbourg

Jeanne Bessouat, Associate professor in Supply Chain Management, Université de Strasbourg

Au sein de l’économie circulaire, le rôle du consommateur dépasse l’acte d’achat : il influence aussi la conception, la fabrication et la durabilité des produits.
Texte intégral (1507 mots)

Parfois présentés comme des victimes des actions des producteurs, les consommateurs détiennent pourtant un vrai pouvoir d’agir, au-delà de leur comportement d’achat. Les évolutions récentes de la réglementation en matière d’économie circulaire dans l’Union européenne le rappellent. Décryptage.


L’économie circulaire a pour objectif de produire des biens et des services de manière durable en réduisant les déchets et l’exploitation des ressources naturelles. Si l’on parle souvent des rôles des institutions, des entreprises ou des ONG dans cette transition, le consommateur reste un acteur trop souvent sous-estimé.

Il joue pourtant un rôle crucial, parfois même sans le savoir, sur l’évolution de la réglementation européenne, comme en atteste l’émergence du concept de « droit à la consommation durable ».

Un puissant levier d’action

Les préférences des consommateurs ont toujours été un levier d’action puissant pour orienter les marchés et les politiques publiques. Dans le cadre de l’économie circulaire, plusieurs évolutions réglementaires récentes en Europe illustrent cette influence indirecte.

Prenons l’exemple du gaspillage alimentaire, qui a fait l’objet d’une loi en France, dite loi anti-gaspillage pour une économie circulaire (Agec) (n°2020-105 du 10 février 2020). Cette dernière étend notamment l’obligation d’un diagnostic anti-gaspillage aux industries agroalimentaires et introduit un label national « anti-gaspillage alimentaire ».


À lire aussi : La face cachée du vrac


Par ailleurs, l’essor de l’affichage environnemental, prévu dans le cadre du Pacte vert pour l’Europe, trouve ses racines dans une exigence citoyenne accrue pour la transparence. En choisissant de privilégier des produits plus durables ou issus du recyclage, les consommateurs ont progressivement orienté les stratégies des entreprises, qui, à leur tour, ont poussé à la création de normes harmonisées au niveau européen.

Accélérer les réformes

Plus encore, en s’organisant en collectifs, les citoyens peuvent faire pression pour accélérer les réformes. La définition d’un régime juridique spécifique pour les actions de groupe (directive UE 2020/1828), proposée par la Commission européenne, atteste de cet impact croissant des consommateurs sur la réglementation européenne.

Les consommateurs européens n’ont pas nécessairement conscience de l’influence qu’ils peuvent avoir sur la réglementation. Mais, lorsque des milliers de personnes adoptent des comportements similaires, comme acheter des vélos électriques ou se tourner vers les circuits courts, elles créent une dynamique de marché qui attire l’attention des décideurs politiques. Ces derniers, soucieux de répondre aux attentes de la société, ajustent alors les normes et les lois.

Des labels un peu flous

Cette influence parfois inconsciente des consommateurs européens sur la réglementation pose également des questions éthiques et pratiques. Les consommateurs disposent-ils réellement des informations nécessaires pour orienter efficacement les politiques ?

À titre d’exemple, une étude menée en 2020 par la Commission européenne, recensant 230 labels de durabilité et 100 labels d’énergie verte au sein de l’UE, démontre que 53 % de ces allégations économiques donnent des renseignements vagues, trompeurs ou non fondés, et que 40 % d’entre elles ne sont absolument pas étayées.

Dans ce contexte, la responsabilité des consommateurs européens n’est-elle pas parfois démesurée, au regard des moyens limités dont ils disposent pour déchiffrer des marchés complexes ?

Dimension démocratique

Le concept de « droit à la consommation durable » gagne progressivement du terrain dans les discussions politiques et académiques. En 2018, une communication de la Commission européenne associe pour la première fois consommation et environnement.

Le consommateur est alors identifié comme un acteur clé pour réussir la transition vers une économie circulaire. À ce titre, il doit à la fois avoir accès à davantage d’informations en matière de réparabilité et de durabilité des produits et être mieux protégé des allégations environnementales trompeuses (greenwashing). Il s’agit dans ce cadre d’un prolongement naturel des droits des consommateurs tels qu’ils ont été définis dans les différentes directives européennes.

Adopter une approche centrée sur ce droit renforce la légitimité des politiques publiques. En reconnaissant les consommateurs comme des acteurs actifs de la transition vers une économie circulaire, l’Union européenne pourrait accroître l’adhésion des citoyens à ses initiatives. Cela offre un cadre juridique pour résoudre certaines controverses, telles que l’obsolescence programmée ou encore le greenwashing.

Vers une responsabilité partagée

Pour que le consommateur européen joue pleinement son rôle dans la transition vers une économie circulaire, il est crucial d’établir une responsabilité partagée. Les entreprises doivent proposer des produits et services conformes aux principes de durabilité, tandis que les pouvoirs publics doivent créer un cadre réglementaire incitatif et équitable.

Cependant, le cadre réglementaire européen souffre de disparités d’application au sein des États membres. Plus encore, la multiplication des crises en cours et à venir (géopolitiques, climatiques mais aussi sociales) impactent parfois le calendrier des avancées réglementaires ou nécessitent un réajustement de la régulation. La récente crise sociale des agriculteurs, qui a touché plusieurs pays européens, comme l’Allemagne ou la France, a relancé le débat d’une pause en matière de règles environnementales.

En parallèle, certains principes en lien avec l’économie circulaire remettent en cause le droit des consommateurs. Par exemple, l’approbation en mai 2024 de la directive sur le droit à la réparation crée un ensemble d’outils et d’incitations visant à rendre la réparation plus attractive pour les consommateurs européens.

Vouloir imposer la réparation au détriment du remplacement d’un produit représenterait une régression des droits des consommateurs. Aujourd’hui, le consommateur peut choisir librement entre réparer et remplacer un produit défectueux. Mais l’Europe envisage d’imposer la réparation comme premier recours, ce qui limiterait la possibilité d’exiger un remplacement immédiat. Le consommateur devra alors attendre le retour de son produit réparé, quelques jours… ou quelques semaines.


À lire aussi : Paradoxe de l’indice de durabilité : les écolos remplacent plus fréquemment leurs produits


Il est donc important que le droit à la consommation durable conduise à une harmonisation, à l’échelle européenne, de la protection du consommateur en prenant en compte les réalités et contraintes de l’ensemble des parties prenantes.

Un acteur incontournable

Dans cette grande transition vers l’économie circulaire, le consommateur européen occupe une place à part. Son rôle dépasse largement le cadre de ses achats : il devient un acteur influent, capable de façonner les politiques publiques et d’imposer des standards plus élevés de durabilité.

Renforcer ce « droit à la consommation durable » pourrait non seulement accélérer les avancées réglementaires, mais aussi engager les citoyens dans un projet collectif ambitieux. En prenant conscience de son pouvoir et en exigeant des politiques à la hauteur des enjeux, le consommateur européen peut devenir le véritable moteur d’une Europe plus verte, plus juste et plus circulaire.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF
50 / 50
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Lava
La revue des médias
Le Grand Continent
Le Diplo
Le Nouvel Obs
Lundi Matin
Mouais
Multitudes
Politis
Regards
Smolny
Socialter
The Conversation
UPMagazine
Usbek & Rica
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
Contretemps
A Contretemps
Alter-éditions
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
Philo Mag
Terrestres
Vie des Idées
 
  ARTS
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Gigawatts.fr
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
 
Fiabilité 3/5
Slate
 
Fiabilité 1/5
Contre-Attaque
Issues
Korii
Positivr
🌓