18.11.2025 à 16:17
Et si le « backlash écologique » en Europe était une conséquence de l’accord de Paris ?
Texte intégral (1726 mots)
C’était le grand mérite de l’accord de Paris en 2015 : transformer les déclarations d’intention diplomatiques sur le climat en engagements nationaux. Dix ans plus tard, l’ambition écologique se heurte désormais à un retour de bâton en Europe, où l’action climatique, au lieu de rassembler, polarise les débats et nourrit les divisions politiques.
La COP30 marque les dix ans de l’accord de Paris et l’heure est au bilan. En 2015, les États s’étaient engagés, lors de la COP21 à Paris, à contenir le réchauffement en dessous de 2 °C, avec l’ambition d’atteindre 1,5 °C. Dix ans plus tard, les émissions continuent d’augmenter – bien qu’à un rythme moins élevé – et l’objectif de 1,5 °C semble désormais hors de portée, révélant les limites du cadre diplomatique fixé à Paris.
L’accord de Paris, en demandant à chaque État de se fixer des objectifs de réduction d’émissions de gaz à effet de serre et de se donner les moyens de les atteindre, a profondément transformé les débats politiques en Europe. On assiste aujourd’hui à un « backlash » (retour de bâton) écologique. C’est-à-dire, une réaction politique généralisée en Europe contre les politiques de transition, qui en freine la mise en œuvre et en fragilise la légitimité.
Ce phénomène peut être compris comme une conséquence indirecte de Paris. En ramenant le climat au cœur des débats nationaux, l’accord a rendu plus visibles les arbitrages économiques et sociaux qu’implique la transition et les conflits qu’elle suscite. C’est précisément cette dynamique, le passage d’un enjeu longtemps consensuel à un objet de conflictualité, que j’étudie dans ma thèse, en analysant comment les partis européens adaptent leurs stratégies face aux tensions nouvelles engendrées par la mise en œuvre des politiques climatiques.
Accord de Paris et nationalisation de l’action climatique
Là où le protocole de Kyoto (1997) fixait des objectifs contraignants à un nombre limité de pays industrialisés, l’accord de Paris a marqué un tournant dans la gouvernance climatique. Il confie désormais à chaque État la responsabilité de définir puis de réviser régulièrement ses propres engagements.
Ce passage d’un système d’obligations internationales à un modèle fondé sur la responsabilité nationale a déplacé le centre de gravité de l’action climatique de l’échelle internationale au niveau national. Or, ce changement a profondément modifié la place du climat dans le débat politique. Longtemps cantonné à la scène diplomatique des négociations internationales, il est devenu, depuis l’accord de Paris, un enjeu domestique majeur.
En Europe notamment, les engagements pris à la COP21 ont ouvert un espace inédit de contestation face à l’inaction des gouvernements. En 2018 et en 2019, dont les étés ont été marqués par des vagues de chaleur exceptionnelles, les marches pour le climat ont rassemblé des centaines de milliers de personnes dénonçant le décalage entre les promesses de l’accord de Paris et les politiques mises en œuvre. Dans le même temps, les contentieux climatiques se sont multipliés, comme en France avec l’Affaire du siècle,confrontant les États à leurs responsabilités.
Sous la pression des engagements pris à Paris et des critiques de militants quant à l’inaction des pouvoirs publics, la question climatique s’est imposée dans la compétition politique, c’est-à-dire comme un enjeu central des stratégies électorales. À partir de 2018, la plupart des partis européens ont intégré le climat à leurs programmes pour gagner en crédibilité face à l’urgence climatique. Les élections européennes de 2019 l’ont bien illustré, avec une « vague verte » voyant une progression inédite des listes écologistes dans plusieurs pays.
Cette dynamique a favorisé l’adoption de nouvelles politiques publiques plus ambitieuses, européennes (comme le Pacte vert) puis nationales, visant la neutralité carbone. Au niveau national, elle s’est traduite par la multiplication des « lois Climat », parmi lesquelles la loi Climat et résilience qui, en France, fait figure d’exemple emblématique. Ces textes inscrivent dans le droit national les objectifs et les moyens censés permettre le respect des engagements pris à Paris.
Si leur ambition fait débat, ces politiques ont déjà contribué à infléchir, au moins partiellement, les trajectoires d’émissions dans plusieurs pays, comme la France. On ne peut donc les qualifier d’inefficaces.
À lire aussi : Les classes populaires en ont-elles vraiment marre de l’écologie ?
Un nouveau terrain où s’expriment les clivages politiques
Lors de sa ratification, et encore aujourd’hui, l’accord de Paris a suscité peu de contestations en Europe, ce qui contraste avec les décisions symboliques de Donald Trump de retirer la signature des États-Unis lors de ses deux mandats, choix qu’il a habilement mis en scène sur le plan politique.
En revanche, la mise en œuvre des politiques climatiques découlant de l’accord de Paris pour tenir les engagements provoque désormais de fortes résistances politiques en Europe. Le passage d’un débat centré sur le choix des objectifs à atteindre à un débat national sur la façon d’y parvenir a rendu plus tangibles, au niveau national, les effets sociaux et économiques de la transition. Les coûts de l’action climatique, les inégalités qu’elle peut accentuer et les changements qu’elle impose aux modes de vie sont désormais au cœur du débat politique.
Une forte conflictualisation des enjeux climatiques en Europe a émergé dans ce contexte, portée notamment par des partis de droite radicale et d’extrême droite. Ceux-ci cherchent à délégitimer les politiques de transition écologique et à mobiliser les électorats susceptibles d’en être les perdants.
Certains, comme l’AfD en Allemagne ou Reform UK en Grande-Bretagne, en ont même fait un axe central de leur stratégie, alors que la question climatique restait jusque-là largement absente de leurs programmes.
À lire aussi : Comment le Pacte vert est instrumentalisé par les populistes en Europe centrale et de l’Est
Un « backlash » né de la politisation des enjeux climatiques
Cette contestation a mis en difficulté les partis qui avaient soutenu les objectifs de neutralité carbone et porté les politiques de transition. Face à la montée des oppositions, plusieurs ont freiné leurs ambitions, de peur d’en assumer le coût électoral.
Au Royaume-Uni, le Labour a ainsi renoncé en 2024 à la promesse faite en 2021 d’investir chaque année 28 milliards de livres (31,7 milliards d’euros) pour le changement climatique. En France, Emmanuel Macron a cherché à réduire l’ambition de l’objectif de la Commission européenne pour la neutralité carbone, qui était de réduire de 90 % les émissions de gaz à effet de serre d’ici 2040. D’autres ont repris à leur compte certains arguments des droites radicales, dénonçant des mesures jugées impopulaires ou socialement injustes. Par exemple, après avoir longtemps affiché une forte ambition climatique, le Parti conservateur britannique cherche désormais à abroger la principale loi climatique du pays.
Les négociations internationales pendant les COP sur le climat donnent souvent lieu à une mise en scène de l’ambition climatique des pays européens, leurs dirigeants cherchant à afficher leur volontarisme et leur exemplarité. Pourtant, à l'échelle nationale, l’action climatique et sa légitimité se trouvent fragilisées par les tensions sur la répartition des coûts économiques et sociaux de la transition. L’accord de Paris a indirectement contribué à faire émerger cette dynamique.
Ainsi, dix ans après Paris, le climat n’apparaît plus seulement comme un enjeu de coopération internationale, mais comme une ligne de fracture politique majeure en Europe. La nationalisation de la question climatique, amorcée par l’accord de Paris, avait d’abord suscité un consensus relatif autour de la nécessité de transformer l’action publique. Le backlash écologique reflète la politisation qui en découle.
Si cette polarisation a le mérite de clarifier les lignes de clivage sur le climat, elle affaiblit en retour la position des États européens sur la scène internationale, en rendant plus difficile l’élaboration d’une position commune et en fragilisant la crédibilité de leurs engagements.
Malo Jan a reçu des financements de SciencesPo Paris.
18.11.2025 à 16:16
Les œuvres d’art, cibles de choix pour le crime organisé ?
Texte intégral (1673 mots)
Certaines caractéristiques du marché de l’art, à commencer par la pratique de l’anonymat, le rendent attractif pour les activités de blanchiment. Comment s’en protège-t-il ? Ces outils sont-ils adaptés à l’objectif poursuivi ? Comment mieux faire ?
En 2024, le marché mondial de l’art a atteint 57,5 milliards de dollars (soit 49,5 milliards d’euros) selon l’étude The Art Basel and UBS Global Art Market, illustrant sa solidité en tant qu’actif. Mais si l’art est traditionnellement lié à des motivations nobles, telles que le goût du beau et la transmission, sa relation avec le crime organisé mérite également d’être explorée.
C’est ce que nous avons tenté de faire dans un récent travail de recherche dans lequel nous analysons les ressorts du blanchiment, les nouvelles fragilités du marché de l’art (via sa transformation numérique notamment) et les solutions qui existent face à ce fléau.
Manque de transparence
Il est estimé qu’entre 2 % et 5 % du PIB mondial est blanchi chaque année. Le blanchiment d’argent par le biais des œuvres d’art ne constitue qu’un exemple parmi d’autres. Cependant, l’industrie de l’art se distingue par son manque de transparence et ses mécanismes subjectifs d’évaluation de la valeur des œuvres (étroitement liés à la spéculation), ce qui en fait l’un des marchés les moins régulés en matière de lutte contre le blanchiment. Après la drogue et les armes, le trafic d’œuvres d’art est ainsi la source de financement la plus lucrative pour les activités illégales.
Ainsi, par exemple, en 2007, une affaire concernant un tableau de Jean-Michel Basquiat a illustré la difficulté à estimer le prix d’une œuvre d’art. Franchissant la douane avec une facture mentionnant une valeur de 100 dollars (82 euros), ce tableau valait en réalité 8 millions (6,8 millions d’euros). Derrière cette opération se trouvait une opération de blanchiment d’argent menée par un ancien banquier brésilien. Cette affaire révèle la façon dont le marché de l’art, de par ses caractéristiques mêmes, peut se retrouver au cœur d’activités illicites.
À lire aussi : Comment les trafiquants de cocaïne blanchissent l’argent des cartels
Une mécanique bien rodée
Le blanchiment d’argent consiste à dissimuler l’origine de fonds acquis illégalement pour les convertir en sources légitimes. Son objectif est donc de transformer de l’« argent sale », qui ne peut être utilisé ouvertement, en argent propre pouvant circuler librement dans l’économie légale. En ce sens, pour l’art, les organisations criminelles s’appuient sur une mécanique bien rodée, comme celle utilisée par exemple par les narcotrafiquants mexicains pour la filière du fentanyl.
L’art peut jouer deux rôles distincts dans les activités criminelles. Premièrement, avec la production de faux et la vente d’œuvres d’art volées comme sources directes de revenus illicites ; deuxièmement, en tant qu’instrument dans le processus de blanchiment via l’achat et la revente d’œuvres authentiques.
Le processus de blanchiment d’argent se déroule en trois phases : le placement, l’empilement et l’intégration.
- Le placement consiste à transformer de l’argent liquide « sale » (ou bien des cryptomonnaies) en argent placé sur des comptes bancaires. Par exemple, les criminels peuvent acheter des œuvres d’art en espèces, puis les revendre en exigeant d’être payés sur des comptes bancaires par les nouveaux acheteurs. Cela se fait principalement par le biais de la corruption d’employés de galeries, de maisons de vente aux enchères ou d’agents de ports francs.
L’empilement vise à transférer l’argent placé vers d’autres comptes bancaires pour dissimuler ses traces. Le marché de l’art présente un intérêt supplémentaire dans cette étape du blanchiment d’argent, en raison de la spéculation sur certains types d’œuvres d’art ainsi que des ventes aux enchères, qui peuvent faire grimper de manière irrationnelle le prix des œuvres. Cela permet aux criminels d’investir des sommes considérables dans un nombre limité de transactions sans attirer l’attention.
Enfin, l’intégration consiste à investir l’argent blanchi dans divers actifs légaux grâce à des sociétés-écrans.
Des vulnérabilités multiples
À de nombreux égards, le marché de l’art est vulnérable aux activités criminelles. Ces vulnérabilités sont particulièrement prononcées dans les domaines où l’opacité et l’anonymat sont courants, comme, par exemple, les ventes privées dans les maisons de vente, les transactions numériques impliquant des paiements en cryptomonnaie et l’utilisation de ports francs pour le stockage et le transfert.
Le premier point de contact dans la chaîne de valeur en termes d’activités illicites est la production de contrefaçons ou la vente d’œuvres volées, qui génèrent des fonds destinés à être blanchis. Par exemple, une opération européenne majeure menée en 2024, impliquant l’Espagne, la France, l’Italie et la Belgique, a conduit à la saisie de plus de 2 000 œuvres d’art contemporain contrefaites, pour un préjudice économique estimé à 200 millions d’euros.
Dangereuse opacité
Un deuxième moment vulnérable survient lorsque les œuvres d’art sont acheminées par le biais de plateformes de vente (galeries, foires…). Cette étape est particulièrement délicate dans le contexte des ventes privées, où la provenance et l’identité du vendeur sont rarement divulguées. Cette opacité offre aux criminels d’importantes possibilités de blanchir de l’argent en dissimulant l’origine et l’historique de propriété de l’œuvre.
Enfin, tout au bout de la chaîne de valeur, les sociétés-écrans sont souvent utilisées pour acheter des œuvres d’art, dissimulant ainsi le véritable bénéficiaire et rendant difficile pour les autorités de retracer l’origine des fonds.
De nouveaux outils plus efficaces ?
L’environnement réglementaire qui encadre le marché de l’art a récemment évolué vers des normes plus exigeantes.
Au sein de l’Union européenne, la sixième directive anti-blanchiment de 2021 a étendu les obligations en matière de lutte contre le blanchiment d’argent aux professionnels du marché de l’art. Elle impose à ces derniers de procéder à une vérification de l’identité des clients et d’adopter un suivi pour les transactions dépassant 10 000 euros.
Au niveau des États, des mesures nationales ont renforcé les sanctions antiblanchiment d’argent sur le marché de l’art. Par exemple, aux États-Unis, la loi sur l’intégrité du marché de l’art (Art Market Integrity Act) de 2025 vise à imposer au secteur de l’art des obligations spécifiques en matière de lutte contre le blanchiment d’argent, de vérification de l’identité des clients, de surveillance des transactions supérieures à 10 000 dollars, de conservation de registres détaillés et de signalement des activités suspectes au Trésor américain.
Sensibiliser le public
Enfin, les musées ont également un rôle à jouer, notamment en sensibilisant le grand public. Par exemple, en 2024, plus de 80 œuvres d’art liées au crime organisé (incluant des pièces de Salvador Dali et d’Andy Warhol) ont été exposées à Milan pour sensibiliser le public à la problématique du trafic international d’œuvres d’art.
Par sa complexité et son opacité, le marché de l’art est un terreau propice aux activités de blanchiment d’argent. Si les récentes avancées réglementaires marquent un progrès important, elles restent insuffisantes pour tenir en échec les faiblesses de la chaîne de valeur de l’art : manque de transparence, corruption, lacunes réglementaires dans les ports francs, pour n’en citer que quelques-unes. Il reste à espérer que l’importance que revêt l’art – en lui-même, aux yeux des citoyens ou encore pour le soft power – incite les pouvoirs publics à renforcer leurs moyens d’action, tout en instaurant une véritable culture de la transparence et de la responsabilité.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
18.11.2025 à 16:16
L’Afrique à l’assaut de l’IA, avec le Rwanda, le Maroc et le Kenya en moteurs
Texte intégral (2237 mots)

En adoptant la Déclaration africaine sur l’intelligence artificielle, en avril 2025, les pays africains visent à développer la souveraineté du continent sur ces enjeux stratégiques et à réduire leur dépendance aux puissances étrangères. Cette stratégie repose sur les pays moteurs tels que le Rwanda, le Maroc ou encore le Kenya.
La capitale rwandaise, Kigali, a accueilli les 3 et 4 avril 2025 le premier Sommet mondial de l’intelligence artificielle en Afrique (Global AI Summit on Africa). L’événement, organisé par le Centre pour la quatrième révolution industrielle (C4IR) et le ministère rwandais des technologies de l’information, de la communication et de l’innovation (MINICT), en partenariat avec le Forum économique mondial, a réuni plus de 3 000 participants venus de 97 pays. Chercheurs, responsables politiques, dirigeants d’entreprises et investisseurs s’y sont rencontrés pour débattre de l’avenir de l’intelligence artificielle sur le continent.
En 2020, lors de la réunion annuelle du Forum économique mondial à Davos, le gouvernement rwandais avait signé un accord avec le Forum pour créer le C4IR. Composante d’un réseau de 19 centres à travers le monde, le C4IR façonne la trajectoire de la quatrième révolution industrielle grâce à des connaissances locales susceptibles de favoriser un changement global. En s’appuyant sur les priorités nationales de développement, le Rwanda a décidé de concentrer les travaux de son Centre sur l’économie des données, sur la gouvernance des données et sur l’intelligence artificielle
Le sommet d’avril dernier a marqué une étape symbolique. Pour la première fois, l’Afrique a placé la question de l’IA au cœur d’un agenda commun, en donnant naissance à la Déclaration africaine sur l’intelligence artificielle. Celle-ci définit un socle de principes et d’engagements autour de trois axes majeurs : stimuler l’innovation et la compétitivité grâce à l’IA ; construire une intelligence artificielle éthique et inclusive, ancrée dans les valeurs africaines – unité, patriotisme, cohésion sociale, résilience, travail acharné et partage ; et garantir une gouvernance responsable, capable d’encadrer la collecte, la sécurité et la souveraineté des données.
Que contient la Déclaration ?
Ce texte, signé par une cinquantaine d’États, dont l’Algérie, le Nigeria, le Kenya, le Maroc et l’Afrique du Sud, vise à rééquilibrer les rapports de force mondiaux dans le domaine technologique. Il s’agit de ne plus dépendre exclusivement des modèles et infrastructures venus d’Asie, d’Europe ou des États-Unis, mais de faire émerger une approche spécifiquement africaine, sensible aux réalités locales : agriculture, santé, climat, sécurité, inclusion financière. Cette ambition s’appuie sur trois piliers : la formation, la gouvernance et l’investissement.
Le texte prévoit ainsi la création d’un Panel scientifique africain sur l’IA, composé d’experts du continent et de la diaspora, chargé de conseiller les gouvernements sur les risques, les usages et les opportunités socio-économiques. Il propose également la mise en place d’un cadre continental de gouvernance des données, harmonisé avec les standards de l’Union africaine, et la constitution d’un Fonds africain pour l’IA doté de 60 milliards de dollars, qui servira à financer les infrastructures de calcul, les programmes de recherche et les start-ups du continent. Enfin, la Déclaration encourage la création de pôles régionaux d’incubation, appuyés par la Zone de libre-échange continentale africaine (ZLECAf), pour stimuler la coopération entre États et attirer les capitaux.
Au-delà de son contenu, le sommet de Kigali a surtout incarné une nouvelle étape du leadership technologique africain. Pour le Rwanda, il a constitué un instrument d’influence et un levier diplomatique. Depuis plusieurs années, le pays se positionne comme un hub continental de l’innovation numérique, au même titre que le Maroc ou le Kenya. L’organisation du premier sommet mondial sur l’IA en Afrique consacre ce positionnement : celui d’un État qui entend participer à la définition des règles du jeu, et non simplement les subir.
Le Rwanda, pionnier et artisan d’une IA africaine
Le Rwanda aborde l’intelligence artificielle comme une politique publique à part entière. Le gouvernement a fixé pour horizon 2035 un objectif d’un milliard de dollars d’investissements directs étrangers dans le secteur numérique, en s’appuyant sur un environnement administratif fluide et une culture de la transparence qui attire les investisseurs. Le pays est aujourd’hui l’un des plus rapides du continent pour la création d’entreprises, avec des démarches intégralement dématérialisées et un accès facilité au financement pour les jeunes pousses.
Cette stratégie repose sur un écosystème cohérent. À Kigali, la Kigali Innovation City incarne cette ambition : un espace intégré réunissant universités, centres de recherche, start-ups et investisseurs, conçu pour favoriser les transferts de technologie. Le Centre pour la quatrième révolution industrielle (C4IR), partenaire du Forum économique mondial, pilote plusieurs programmes d’IA appliqués à la santé, à l’agriculture et à l’éducation. La Norrsken House, inaugurée en 2021, accueille des dizaines de jeunes entreprises africaines et internationales dans les secteurs des fintech, de la santé numérique et des services à impact social.
Dans la santé, le Rwanda est devenu un modèle continental grâce à la société américaine Zipline, qui opère depuis 2016 un réseau de livraison de médicaments, de vaccins et de poches de sang par drones. Ces vols automatisés couvrent aujourd’hui 90 % du territoire et ont permis de réduire significativement les délais d’acheminement vers les zones enclavées. Dans l’agriculture, des programmes d’analyse de données et d’imagerie satellitaire optimisent les rendements de cultures stratégiques comme le café et le sorgho, tandis que des capteurs connectés permettent de suivre la qualité des sols et l’humidité des plantations.
Le gouvernement a également adopté une stratégie nationale fintech 2024–2029, centrée sur l’accès universel aux services financiers numériques. L’objectif est de positionner Kigali comme centre financier régional tout en favorisant l’inclusion économique. L’éducation complète cette approche : plus de 5 000 ingénieurs sont formés chaque année aux technologies de l’information, et des partenariats avec l’Université Carnegie Mellon Africa ou la Hochschule Bonn-Rhein-Sieg allemande visent à développer des cursus spécialisés en IA et en cybersécurité.
Cette vision cohérente commence à produire des effets mesurables. Le Rwanda attire chaque année davantage de fonds étrangers et devient une plateforme d’expérimentation privilégiée pour les acteurs mondiaux de la technologie. L’amélioration des services publics, la modernisation de l’agriculture et l’essor des fintechs témoignent d’une transformation structurelle, où la technologie est pensée comme un outil de développement humain avant d’être un vecteur de croissance économique.
Le Maroc et le Kenya, moteurs complémentaires
La réussite de cette stratégie continentale repose sur plusieurs pays moteurs. Le Maroc s’impose déjà comme un centre régional de recherche appliquée. L’AI Movement, fondé en 2021 par le groupe OCP à Rabat, soutient des projets d’intelligence artificielle au service de l’inclusion et de la durabilité. Parmi eux, une application mobile convertit les documents administratifs en fichiers audio pour les femmes rurales analphabètes, tandis que le programme AgriEdge utilise l’imagerie satellite pour estimer les apports d’azote nécessaires aux cultures, réduisant les coûts de production tout en améliorant les rendements.
En parallèle, l’Université Mohammed-VI Polytechnique, à Ben Guérir, forme des chercheurs et des ingénieurs issus de tout le continent et organise chaque année une AI Winter School consacrée aux applications économiques de l’intelligence artificielle.
Le Kenya, de son côté, confirme son statut de « Silicon Savannah ». Le projet Konza Technopolis, à 60 kilomètres de Nairobi, vise à créer une ville intelligente africaine regroupant data centers, universités et entreprises innovantes. En mai 2024, un partenariat entre Microsoft et G42 a abouti à un investissement d’un milliard de dollars dans un centre de données, à Olkaria, qui fonctionne entièrement à l’énergie géothermique renouvelable conçu pour héberger la future région cloud Azure pour l’Afrique de l’Est. L’infrastructure a été construite par G42 et ses partenaires pour exploiter Microsoft Azure dans une nouvelle région cloud d’Afrique de l’Est.
Alimentée par l’énergie renouvelable locale, cette infrastructure accueillera aussi un laboratoire de recherche consacré aux modèles linguistiques africains et à la formation de jeunes ingénieurs. Le pays a également adopté une stratégie nationale de l’IA (2025–2030) qui prévoit le développement d’incubateurs technologiques, le soutien aux start-ups locales et la mise en place de normes éthiques et de protection des données.
Vers une souveraineté technologique africaine
Ces trajectoires parallèles – rwandaise, marocaine et kényane – traduisent une ambition commune : faire de l’intelligence artificielle et de la robotique des leviers d’émancipation économique. Chacun à sa manière incarne un modèle : le Maroc par la recherche appliquée et l’agriculture intelligente, le Kenya par l’infrastructure et la formation, le Rwanda par la gouvernance et la cohérence stratégique.
La démonstration du taxi-drone autonome EHang EH-216-S, réalisée à Kigali en septembre 2025, illustre cette dynamique. Première du genre sur le continent, elle a prouvé que la robotique pouvait contribuer à désenclaver les territoires, réduire les coûts de transport et ouvrir la voie à des mobilités aériennes à faible émission de carbone. En conjuguant innovation technologique et politiques publiques volontaristes, ces pays montrent que l’Afrique n’est plus seulement un terrain d’expérimentation pour les technologies venues d’ailleurs : elle en devient un acteur à part entière, capable d’inventer ses propres modèles de développement.
Thierry Berthier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
18.11.2025 à 16:13
Soins et hospitalisations à domicile : des algorithmes et technologies de santé pour améliorer la prise en charge des patients
Texte intégral (1563 mots)
Planifier les tournées des infirmiers et infirmières au domicile des personnes malades en prenant en compte les urgences, délivrer dans les temps une chimiothérapie basée sur des médicaments dont la stabilité est limitée à quelques heures… Des solutions émergent pour optimiser les soins à domicile en s’appuyant sur des nouvelles technologies de santé
Face au vieillissement de la population et à la pression croissante sur les hôpitaux, les soins à domicile représentent une alternative prometteuse pour l’avenir des systèmes de santé. Toutefois, pour que ce modèle soit véritablement efficace et durable, il est essentiel de l’optimiser.
En supportant la prise de décision, les algorithmes d’optimisation et certaines technologies de santé (télémédecine, dispositifs de santé connectés, etc.) permettent d’améliorer l’adéquation de la capacité des services de soins avec les besoins des patients, notamment via la création des plannings et des itinéraires des personnels soignants.
Ce processus d’optimisation est d’autant plus crucial dans les systèmes d’hospitalisation à domicile, qui ont pris une ampleur particulière avec la pandémie de Covid-19.
Soins et hospitalisations se développent au domicile
Tandis que les soins à domicile étaient, dans le passé, traditionnellement tournés vers des soins de routine, l’essor de l’hospitalisation à domicile (HAD) permet à présent à des patients nécessitant des soins aigus d’être pris en charge à leur domicile plutôt qu’à l’hôpital. Cela représente une véritable révolution dans l’organisation des soins de santé, ce qui permet de libérer des lits hospitaliers pour les cas les plus graves et d’offrir aux patients un cadre de soins plus confortable, moins risqué en termes d’infections nosocomiales (ces infections contractées au sein d’un établissement hospitalier, ndlr) et souvent plus adapté à leurs besoins.
En Belgique, ce modèle a été particulièrement développé pour des traitements comme la chimiothérapie ou l’antibiothérapie, et a encore gagné en popularité à la suite de la crise sanitaire liée au Covid-19.
Les soins à domicile, cependant, ne sont pas exempts de défis. La gestion des soins, la coordination des équipes soignantes, ainsi que la réactivité face aux imprévus nécessitent des modèles de planification complexes et flexibles.
L’optimisation de l’allocation des ressources – humaines et matérielles – et des itinéraires du personnel soignant est essentielle pour garantir la qualité des soins tout en optimisant les coûts, permettant ainsi une prise en charge efficace et sûre du plus grand nombre possible de patients.
Une approche innovante pour organiser les tournées des personnels infirmiers
Les soins à domicile posent des défis opérationnels majeurs. L’un des plus importants est la gestion des plannings des soignants, qui déterminent l’affectation du personnel aux différentes pauses de travail. Ces plannings sont généralement établis sur une base mensuelle, en tenant compte des prévisions de la demande, d’hypothèses concernant la disponibilité des soignants, des contraintes légales et des accords contractuels. Ils doivent donc être souvent révisés afin de prendre en compte les données réelles dès que des informations précises concernant les patients et les soignants sont disponibles.
Le problème des tournées des infirmiers et des infirmières est au cœur de plusieurs travaux de recherche. Ce problème consiste à planifier efficacement les itinéraires des soignants tout en respectant les contraintes de temps, de ressources et de préférences des patients.
Dans le cadre de l’hospitalisation à domicile, la qualité des tournées des personnels infirmiers dépend très souvent d’autres décisions, prises en amont, notamment la planification des horaires des soignants. C’est pourquoi nos recherches proposent une approche innovante en considérant simultanément les décisions de modifications d’horaires à court terme et celles de création des tournées.
Concrètement, notre modèle agit comme un outil d’aide à la décision intégrée : il permet de déterminer en même temps quels patients admettre, comment ajuster les plannings des infirmiers, et comment organiser leurs tournées quotidiennes. Cette approche conjointe évite les incohérences qui apparaissent souvent lorsqu’on traite ces questions séparément (par exemple, accepter plus de patients que le personnel ne peut en visiter, ou planifier des horaires irréalistes).
L’objectif principal est de soigner le plus grand nombre de patients possible à domicile, tout en préservant l’efficacité et la charge de travail raisonnable du personnel soignant.
Sur le plan technique, la méthode repose sur un algorithme itératif de type « ruiner et recréer », qui explore différentes configurations, quitte à assouplir temporairement certaines contraintes pendant le processus algorithmique, afin d’aboutir à un plan globalement plus robuste et plus réaliste.
Gérer des chimiothérapies en HAD avec des médicaments à stabilité limitée
Un autre exemple est celui de la chimiothérapie à domicile, qui nécessite l’administration de médicaments qui ne restent parfois stables que quelques heures après leur production à la pharmacie de l’hôpital.
Nous avons développé une méthode d’optimisation qui permet de planifier conjointement la préparation des médicaments et les tournées des infirmiers. En effet, certains traitements injectables ne pouvant pas être produits à l’avance, la production et l’administration doivent être parfaitement synchronisées. Notre méthode s’appuie sur un algorithme intelligent de type « recherche à voisinage large », combiné à un modèle d’optimisation linéaire qui ajuste avec précision les horaires de production et de soins.
Ce système explore de multiples scénarios, corrige les incompatibilités et aboutit à une organisation efficace et réaliste. La durée totale de travail des pharmaciens et infirmiers est minimisée, tout en garantissant la faisabilité opérationnelle et la qualité du service rendu aux patients.
L’approche illustre le rôle croissant des technologies d’aide à la décision dans l’organisation des soins à domicile. À ce stade, elle est validée en simulation sur des données hospitalières synthétiques et constitue une étape de recherche appliquée avant une mise en œuvre concrète en milieu hospitalier.
Les technologies de santé : défis et limites pour les soins à domicile
Les technologies de santé jouent un rôle essentiel dans l’optimisation des soins à domicile. Des outils comme la télémédecine et les plateformes de gestion des soins permettent aux professionnels de la santé de suivre les patients à distance, d’adapter leurs traitements et de maintenir une communication constante.
À titre d’exemple, en Belgique, dans le cadre des plans nationaux d’action e-santé, le gouvernement a instauré la plateforme MaSanté, afin de garantir le suivi et le partage d’informations avec les patients en un seul endroit. Une autre plateforme dédiée aux dispositifs de santé connectés, qui agissent en tant que dispositifs médicaux, a également été créée.
Toutefois, l’accès aux technologies nécessaires pour des soins à domicile efficaces est inégalement réparti, au détriment notamment des habitants des zones rurales et/ou des patients à faibles revenus. Ces inégalités sociales demeurent un obstacle majeur à l’universalisation de ce modèle.
Cet article a été rédigé avec l’aide du Dr Arnaud Stiepen, expert en communication et vulgarisation scientifiques.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
18.11.2025 à 16:13
Pour prédire si un volcan sera effusif ou explosif, il faut s’intéresser à ses bulles
Texte intégral (1771 mots)

Une étude publiée très récemment dans la revue « Science » permet de mieux comprendre le moteur des éruptions volcaniques : la formation des bulles dans le magma.
Les observations faites depuis des décennies dans diverses régions du monde montrent que les éruptions volcaniques sont caractérisées par deux types de comportement en surface. D’un côté du spectre, le magma qui remonte depuis les profondeurs de la Terre est émis calmement sous forme de coulées ou de dômes de lave, caractérisant ainsi le style « effusif ». C’est le cas des volcans d’Hawaï ou de La Réunion dont les éruptions quasi annuelles font souvent l’actualité dans les médias.
À l’opposé, un mélange turbulent de gaz et de cendres est éjecté violemment dans l’atmosphère, définissant ainsi le style « explosif ». Le mélange forme un panache qui s’élève dans un premier temps à des altitudes pouvant atteindre 40-50 kilomètres et qui finit souvent par s’effondrer sous l’effet de la gravité pour former des nuées ardentes dévastatrices qui se propagent à haute vitesse le long du sol. Un exemple célèbre est l’éruption du Vésuve en l’an 79 de notre ère qui détruisit les villes de Pompéi et d’Herculanum.
Les données collectées par les scientifiques montrent que le comportement d’un volcan comme le Vésuve peut changer au cours du temps, alternant les périodes effusives et explosives, à cause de variations de la nature des magmas et des conditions de stockage en profondeur. Dans ce contexte, comprendre les mécanismes fondamentaux des éruptions volcaniques afin de mieux prédire leurs conséquences est un enjeu sociétal et environnemental majeur compte-tenu qu’environ 600 millions de personnes dans le monde vivent dans des zones potentiellement touchées par les aléas volcaniques.
Comprendre l’origine des bulles dans le magma
Le moteur des éruptions volcaniques est la formation des bulles de gaz dans le magma. En particulier, la temporalité de la formation puis de la croissance des bulles, le volume qu’elles occupent et leur capacité à ne pas se séparer du liquide magmatique contrôlent la dynamique de la remontée du mélange dans le conduit volcanique vers la surface et, au final, le style éruptif décrit ci-dessus (Figure 1A). C’est dans ce cadre que nous avons mené une étude pour mieux comprendre l’origine de la formation des bulles, un phénomène appelé « nucléation ». Les résultats de nos travaux ont été publiés le 6 novembre dans la revue Science.
Jusqu’à présent, les volcanologues ont considéré que la nucléation des bulles était déclenchée principalement par la décompression du magma saturé en gaz dissous (essentiellement de la vapeur d’eau) lors de l’ascension dans le conduit. En effet, chacun a déjà constaté l’effet produit par l’ouverture trop rapide d’une bouteille de boisson gazeuse : lorsque la pression chute, le liquide qui contient du gaz dissous (CO2 dans ce cas) devient sursaturé, et des bulles de gaz se forment alors rapidement, croissent, et entraînent le liquide vers le goulot de la bouteille. Au cours de la nucléation, la différence de pression entre un embryon de bulle et le liquide est connue comme une source d’énergie mécanique qui contribue à faire croître l’amas gazeux alors que la tension superficielle du liquide s’y oppose, et au-delà d’une taille critique, l’embryon devient une bulle qui croît spontanément.
Or, les différences de vitesse au sein d’un magma en mouvement génèrent des forces dites de cisaillement qui pourraient être une autre source d’énergie mécanique apte à déclencher la nucléation. C’est le cas en particulier dans un conduit volcanique en raison d’une différence de vitesse entre les bords, où le frottement est important, et le centre (Figure 1A).
L’importance des forces de cisaillement
Nous avons testé cette hypothèse au moyen d’expériences dites analogiques, réalisées dans des conditions de température et avec des matériaux différents de ceux dans la nature. Les expériences sont faites dans un rhéomètre, un équipement utilisé pour mesurer la capacité des fluides à se déformer. Ce dispositif permet de cisailler une couche d’oxyde de polyéthylène liquide à 80 °C et sursaturé en CO2, laquelle simule le magma dans la nature. Les expériences montrent que la nucléation de bulles de gaz est déclenchée lorsque la force de cisaillement appliquée atteint une valeur seuil qui décroît avec la teneur en CO2 (Figure 1B). De plus, le cisaillement cause le rapprochement puis l’agglomération en de plus grosses bulles et ainsi leur croissance. Nos données expérimentales sont en accord avec un modèle qui indique que la taille minimale pour qu’un embryon de bulle puisse croître est de près d’un millionième de millimètre. Ces résultats sont complétés par des simulations moléculaires qui confirment que la nucléation se produit si le cisaillement est suffisamment fort (Figure 1C).
Nous avons finalement extrapolé nos résultats aux systèmes volcaniques en tenant compte du rapport des pressions mises en jeu et des propriétés des magmas. L’analyse montre que la nucléation par cisaillement peut se produire dans un conduit dans presque tous les cas, et nous en tirons deux conclusions principales. La première est qu’un magma pauvre en gaz dissous, et donc a priori non explosif, pourrait néanmoins conduire à une éruption violente en raison d’un important cisaillement causant une nucléation massive. La seconde est qu’une nucléation efficace dans un magma très visqueux et très riche en gaz dissous, couplée à la décompression lors de la remontée et à une agglomération et à une croissance rapide des bulles, peut conduire à la formation de chenaux de dégazage connecté à la surface et engendrer, paradoxalement, une éruption non violente. Ce processus peut être renforcé lorsque la nucléation se produit à proximité de bulles préexistantes, comme le montrent nos expériences. Ce mécanisme explique l’observation contre-intuitive faite depuis longtemps par les volcanologues selon laquelle les magmas très visqueux et contenant de fortes teneurs en gaz dissous peuvent produire des éruptions effusives.
Nos travaux suggèrent que la nucléation induite par cisaillement doit désormais être intégrée aux modèles mathématiques de conduits volcaniques développés par les volcanologues et qui permettent de prédire les dynamismes éruptifs. En couplant cette approche à d’autres modèles qui simulent des coulées de la lave, des panaches ou des nuées ardentes, il est ainsi possible de définir les zones potentiellement atteintes par les produits des éruptions. Cette tâche est essentielle pour la gestion des risques naturels et pour la protection des populations qui vivent à proximité des volcans actifs.
Olivier Roche a reçu des financements du programme I-SITE CAP 20-25 piloté par l'UCA.
Jean-Michel Andanson a reçu des financements ANR, CNRS, Université Clermont Auvergne, commission européenne, Fond national Suisse.
18.11.2025 à 13:28
Pourquoi il n’est pas toujours facile d’évaluer sa douleur sur une échelle de 0 à 10
Texte intégral (2681 mots)

Il vous est peut-être déjà arrivé de vous trouver désemparé face à un soignant qui vous demande d’évaluer, sur une échelle de cotation, l’intensité de votre douleur. Rien d’étonnant à cela : la douleur est une expérience complexe qu’il n’est pas évident de résumer par un simple chiffre.
En serrant son bras contre elle, dans la salle des urgences, ma fille m’a dit : « Ça fait vraiment mal. » — « Sur une échelle de zéro à dix, à combien évalues-tu ta douleur ? », lui a demandé l’infirmière. Le visage couvert de larmes de ma fille a alors exprimé une intense confusion. — « Qu’est-ce que ça veut dire, dix ? », a-t-elle demandé. — « Dix, c’est la pire douleur que tu puisses imaginer. » Elle a eu l’air encore plus déconcertée.
Je suis son père et en tant que tel mais aussi spécialiste de la douleur, j’ai pu constater à cette occasion à quel point les systèmes d’évaluation de la douleur dont nous disposons, pourtant conçus à partir d’une bonne intention et en apparence simples d’utilisation, s’avèrent parfois très insuffisants.
Les échelles de la douleur
L’échelle la plus couramment utilisée par les soignants pour évaluer la douleur existe depuis une cinquantaine d’années. Son utilisation requiert de demander aux patients d’évaluer leur douleur en lui attribuant un chiffre allant de 0 (« aucune douleur ») à 10 (généralement « la pire douleur imaginable »).
Cette méthode d’évaluation se concentre sur un seul aspect de la douleur – son intensité – pour tenter de comprendre au plus vite ce que ressent le patient : à quel point cela fait-il mal ? Est-ce que la douleur empire ? Le traitement l’atténue-t-il ?
De telles échelles de cotation peuvent s’avérer utiles pour suivre l’évolution de l’intensité de la douleur. Si la douleur passe de 8 à 4 au fil du temps, cela signifie que le patient se sent probablement mieux – quand bien même l’intensité 4 ressentie par un individu peut ne pas être exactement la même que celle ressentie par une autre personne.
Les travaux de recherche suggèrent qu’une diminution de deux points (30 %) de la sévérité d’une douleur chronique correspond généralement à un changement qui se traduit par une différence significative dans la vie quotidienne des malades.
Mais c’est la borne supérieure de ces échelles – « la pire douleur imaginable » – qui pose problème.
Un outil trop limité pour rendre compte de la complexité de la douleur
Revenons au dilemme de ma fille. Comment quelqu’un parvient-il à imaginer la pire douleur possible ? Tout le monde imagine-t-il la même chose ? Les travaux de recherches suggèrent que non. Même les enfants ont une interprétation toute personnelle du mot « douleur ».
Les individus ont tendance – et c’est compréhensible – à ancrer leur évaluation de la douleur dans les expériences qu’ils ont vécues par le passé. Cela crée des écarts considérables d’une personne à l’autre. Ainsi, un patient qui n’a jamais subi de blessure grave sera peut-être plus enclin à donner des notes élevées qu’une personne ayant déjà souffert de brûlures sévères.
La mention « aucune douleur » peut également poser problème. Un patient dont la douleur a diminué mais qui reste inconfortable peut se sentir paralysé face à ce type d’échelle, car elle ne comporte pas de chiffre de 0 à 10 qui traduise fidèlement son ressenti physique.
Les spécialistes de la douleur sont de plus en plus nombreux à reconnaître qu’un simple chiffre ne peut rendre compte d’une expérience aussi complexe, multidimensionnelle et éminemment personnelle que la douleur.
Notre identité influence notre douleur
Divers facteurs influent sur notre façon d’évaluer la douleur : la mesure dans laquelle celle-ci perturbe nos activités, le degré d’angoisse qu’elle engendre, notre humeur, notre fatigue, ou encore la façon dont ladite douleur se compare à celle que nous avons l’habitude de ressentir.
D’autres paramètres entrent également en ligne de compte, notamment l’âge, le sexe, le niveau de littératie et de numératie du patient, ou encore le contexte culturel et linguistique. Si le soignant et le patient ne parlent pas la même langue, la communication autour de la douleur et de sa prise en charge s’avérera encore plus difficile…
Autre difficulté : certaines personnes neurodivergentes peuvent interpréter le langage de manière plus littérale que la moyenne, ou traiter l’information sensorielle différemment des autres. Comprendre ce que les gens expriment de leur douleur exige alors une approche plus individualisée.
Les cotations « impossibles »
Pour autant, nous devons faire avec les outils dont nous disposons. Des travaux ont démontré que lorsque les patients utilisent l’échelle de 0 à 10, ils tentent de communiquer bien davantage que la seule « intensité » de leur douleur.
Ainsi, lorsqu’un individu affirme « ma douleur est à 11 sur 10 », cette cotation « impossible » va probablement au-delà de la simple évaluation de la sévérité de sa souffrance. Cette personne se demande peut-être : « Est-ce que ce soignant me croit ? Quel chiffre me permettra d’obtenir de l’aide ? » Dans ce seul nombre se trouve condensée une grande quantité d’informations. Il est très probable que le chiffre énoncé signifie en réalité : « La situation est grave. Aidez-moi, s’il vous plaît. »
Dans la vie courante, nous mobilisons une multitude de stratégies de communication différentes. Pour exprimer nos ressentis, nous pouvons gémir, changer notre façon de nous mouvoir, utiliser un vocabulaire riche en nuances, recourir à des métaphores… Lorsqu’il s’agit d’évaluer un niveau de douleur, recueillir et évaluer de telles informations complexes et subjectives n’est pas toujours possible, car il est difficile de les standardiser.
En conséquence, de nombreux chercheurs qui travaillent sur la douleur continuent de s’appuyer largement sur les échelles de cotation. En effet, elles ont pour elles d’être simples, rapides à présenter, et de s’être révélées valides et fiables dans des contextes relativement contrôlés.
Les cliniciens, en revanche, peuvent exploiter ces autres informations, plus subjectives, afin de se représenter une image plus complète de la douleur de la personne.
Comment mieux communiquer sur la douleur ?
Pour atténuer les effets que peuvent avoir les différences de langue ou de culture sur la manière d’exprimer la douleur, différentes stratégies existent.
L’emploi d’échelles visuelles en est une. L’« échelle des visages » (Faces Pain Scale–Revised, FPS-R) invite les patients à choisir sur un document une expression faciale parmi plusieurs, pour communiquer leur douleur. Elle peut se révéler particulièrement utile lorsqu’il s’agit d’évaluer la douleur des enfants, ou celle de personnes peu à l’aise avec les chiffres et la lecture (soit d’une façon générale, ou parce qu’elles ne maîtrisent pas la langue utilisée dans le système de soins qui les prend en charge).
L’« échelle visuelle analogique » verticale requiert quant à elle d’indiquer sa douleur sur une ligne verticale, un peu comme si l’on imaginait que celle-ci était progressivement « remplie » par la douleur).
(En France, les échelles considérées comme valides pour mesurer la douleur ont été listées par la Haute Autorité de santé (HAS), NdT)
Qui peut améliorer les choses, et comment ?
Professionnels de santé
Prenez le temps d’expliquer correctement aux patients le principe de l’échelle de cotation de la douleur choisie, en gardant à l’esprit que la formulation des bornes (de 0 à 10) a son importance.
Soyez attentif à l’histoire que raconte le chiffre donné par la personne, car un simple numéro peut signifier des choses très différentes d’une personne à l’autre.
Servez-vous de la cotation comme point de départ pour un échange plus personnalisé. Prenez en compte les différences culturelles et individuelles. Demandez aux patients d’employer un vocabulaire descriptif, et vérifiez auprès d’eux que votre interprétation est la bonne, afin d’être sûrs que vous parlez bien de la même chose.
Patients
Pour mieux décrire votre douleur, utilisez l’échelle numérique qui vous est proposée, mais ajoutez-y du contexte. Essayez de qualifier votre douleur (s’agit-il d’une brûlure ? D’un élancement ? La ressentez-vous comme un coup de poignard ?), et comparez-la à des expériences passées.
Expliquez l’impact que la douleur a sur vous – non seulement émotionnellement, mais aussi sur vos activités quotidiennes.
Parents
Demandez aux soignants d’utiliser une échelle de la douleur adaptée aux enfants. Il existe des outils spécifiques, pour différents âges, tels que l’« échelle des visages ».
Dans les services de pédiatrie, les soignants sont formés pour employer un vocabulaire adapté à chaque stade du développement de l’enfant, car la compréhension des nombres et de la douleur n’évolue pas de la même façon chez chacun.
Les échelles, un simple point de départ
Les échelles de cotation de la douleur ne permettront jamais de mesurer parfaitement la douleur. Il faut les voir comme des amorces de conversation, destinées à aider les personnes à communiquer à l’autre une expérience profondément intime.
C’est ce qu’a fait ma fille. Elle a trouvé ses propres mots pour décrire sa douleur : « C’est comme quand je suis tombée des barres de singe, mais dans mon bras au lieu de mon genou, et ça ne diminue pas quand je reste immobile. »
À partir de ce point de départ, nous avons pu commencer à nous orienter vers un traitement permettant une prise en charge efficace de sa douleur. Parfois, les mots fonctionnent mieux que les chiffres.
Joshua Pate a reçu des honoraires pour des conférences sur la douleur et la physiothérapie. Il perçoit des droits d'auteur pour des livres pour enfants.
Dale Langford a reçu des honoraires et un soutien à la recherche de la part du réseau ACTTION (Analgesic, Anesthetic, and Addiction Clinical Trials, Translations, Innovations, and Opportunities Network), un partenariat public-privé avec la Food & Drug Administration des États-Unis. Elle a également bénéficié du soutien des National Institutes of Health américains.
Tory Madden travaille pour l'université du Cap, où elle dirige l'African Pain Research Initiative (Initiative africaine de recherche sur la douleur). Elle bénéficie d'un financement des National Institutes of Health (Instituts nationaux de la santé) américains. Elle est affiliée à l'université d'Australie du Sud, à la KU Leuven et à l'organisation à but non lucratif Train Pain Academy.
18.11.2025 à 13:28
Douleurs chroniques : en France, elles concerneraient plus de 23 millions de personnes
Texte intégral (2340 mots)
En France, selon une enquête de la fondation Analgesia, 23,1 millions de personnes vivent avec des douleurs chroniques. Seul un tiers d’entre elles voit sa situation s’améliorer grâce à une prise en charge, faute de traitement adapté notamment. Un lourd fardeau qui pèse non seulement sur les individus, mais aussi sur l’ensemble de la société. Pour l’alléger, il faut faire de la lutte contre les douleurs chroniques une grande cause nationale.
Imaginez vivre avec une douleur constante, jour après jour, sans espoir de soulagement. Pour des millions de personnes en France, c’est la réalité de la douleur chronique, une expression désignant une douleur récurrente, qui persiste au-delà de trois mois consécutifs, et qui a des conséquences physiques, morales et sociales importantes.
Cette maladie invisible a un impact très important sur la qualité de vie, et représente un défi non seulement pour notre système de santé, mais aussi pour l’ensemble de la société, car ce fardeau majeur n’est pas sans conséquence sur le plan économique.
Agréée par le ministère de l’enseignement supérieur et de la recherche, la fondation Analgesia, à travers son Observatoire français de la douleur et des antalgiques, a réalisé en début d’année 2025, avec la société OpinionWay, une enquête nationale auprès de 11 940 personnes représentatives de la population générale française adulte.
L’objectif était d’évaluer la prévalence des douleurs chroniques en France, leur caractérisation et leurs répercussions sur leur qualité de vie. Voici ce qu’il faut en retenir.
Quatre personnes sur dix en France concernées par la douleur chronique
Contrairement à la douleur aiguë, qui a une fonction de signal d’alarme permettant de prendre les mesures nécessaires face à un événement qui représente un danger pour le corps humain (fracture, brûlure, coupure, piqûre, etc.), la douleur chronique n’a pas d’utilité. Elle présente uniquement des répercussions délétères chez le patient.
Très schématiquement, les douleurs chroniques sont fréquemment dues à un foyer douloureux dit « périphérique », car affectant le système nerveux périphérique – c’est-à-dire les parties du système nerveux situées à l’extérieur du système nerveux central, constitué par le cerveau et la moelle épinière.
Les nombreux signaux douloureux qui inondent le cerveau modifient son comportement : il y devient plus sensible (on parle de sensibilisation centrale), et leur traitement ne se fait plus correctement. Dans cette situation, la modulation de la douleur, qui passe en temps normal par des voies neurologiques dites « descendantes » (du cerveau vers la périphérie), dysfonctionne également. L’activité de l’ensemble du système nerveux se modifie, de manière persistante : tout se passe comme si au lieu d’atténuer la réponse aux signaux douloureux, cette dernière devenait plus intense.
Une douleur aiguë intense non contrôlée, une lésion nerveuse résultant d’une opération chirurgicale ou d’un traumatisme, une anxiété de fond ou une altération du sommeil consolident aussi cette sensibilisation centrale. Plusieurs mécanismes physiopathologiques peuvent expliquer l’installation de ces douleurs « maladie ».
Une lésion postopératoire peut induire une douleur neuropathique (due à un dysfonctionnement du système nerveux plutôt qu’à une stimulation des récepteurs de la douleur), une hyperexcitabilité centrale sans inflammation ou lésion évidente peut induire une fibromyalgie ou un syndrome de l’intestin irritable. Une inflammation persistante, comme dans les lésions articulaires (arthropathies) d’origine inflammatoires ou les tendinopathies (maladies douloureuses des tendons), abaisse également les seuils d’activation des récepteurs du message douloureux.
Les douleurs chroniques ont de lourdes répercussions sur les patients, puisqu’elles affectent non seulement leurs capacités physiques et mentales, mais aussi leurs vies professionnelles et familiales. Au point que certains d’entre eux, dont les douleurs sont réfractaires, c’est-à-dire rebelles à tous les traitements, en arrivent parfois à demander une assistance à mourir.
L’analyse des données recueillies par l’Observatoire français de la douleur et des antalgiques indique qu’en France, plus de 23 millions de Français, majoritairement des femmes (57 %), vivraient avec des douleurs, la plupart du temps depuis au moins trois mois.
Sur le podium des douleurs les plus fréquentes figurent les douleurs musculo-squelettiques, dont l’arthrose ou les lombalgies ; les différentes céphalées, dont les migraines ; et les douleurs abdominales, dont l’intestin irritable ou l’endométriose.
Avec un âge moyen de 46 ans, la tranche d’âge des 35-64 ans représente 51 % de la population souffrant de douleurs chroniques. Près de 36 % sont inactifs sur le plan professionnel.
Cette maladie chronique est un fardeau d’autant plus lourd qu’il est très mal pris en charge : seul un tiers des patients se dit satisfait de ses traitements.
Un défaut de prise en charge
Près d’un patient sur deux évalue l’intensité de sa douleur à 7 ou plus sur une échelle de 1 à 10, c’est-à-dire une douleur chronique sévère, et 44 % en souffrent depuis plus de trois années.
Au cours des six mois précédant la réalisation de l’enquête, moins d’un patient sur trois avait vu ses symptômes s’améliorer. Par ailleurs, plus d’un tiers des patients interrogés présentent un handicap fonctionnel modéré à sévère et la moitié déclare des qualités physiques et mentales altérées.
Lorsqu’on les interroge sur leur prise en charge, seuls 37 % des patients s’en disent satisfaits. L’un des problèmes est que les traitements disponibles sont rarement spécifiques de la douleur concernée. Ils réduisent le plus souvent partiellement l’intensité des symptômes, mais n’ont pas toujours un impact significatif sur le fardeau que représente cette maladie dans la vie des malades.
Le paracétamol, les anti-inflammatoires et les opioïdes (morphine et dérivés) sont les trois sortes de médicaments prescrits pour traiter les douleurs chroniques. Signe d’un soulagement insuffisant, 87 % des patients rapportent pratiquer l’automédication pour tenter d’atténuer leurs souffrances.
Un coût sociétal important
En raison de leur prévalence élevée dans la société, les douleurs chroniques ont un coût estimé à plusieurs milliards d’euros par an, si l’on ajoute aux dépenses de santé nécessaires à leur prise en charge les conséquences économiques de la perte de productivité qu’elles entraînent.
Une étude datant de 2004 évaluait le coût total moyen annuel par patient à plus de 30 000 d’euros. Ce chiffre souligne l’impact économique considérable de cette condition, qui dépasse son coût direct pour le système de santé.
Ainsi, les arrêts de travail des personnes souffrant de douleurs chroniques sont cinq fois plus fréquents que ceux de la population générale. En outre, la durée moyenne cumulée des arrêts de travail de 45 % des patients douloureux chroniques dépasse quatre mois par an.
Une autre étude épidémiologique, menée en 2010, auprès de plus de 15 000 personnes adultes en France, a permis d’évaluer l’impact de la douleur sur les situations professionnelles et sur l’utilisation des systèmes de soins. Elle montre que les patients souffrant de douleurs chroniques consultent deux fois plus souvent que les autres.
En extrapolant cette année-là à la population générale, ce sont 72 millions de consultations supplémentaires par an qui sont dues aux douleurs chroniques, ce qui représente un surcoût annuel évalué à 1,16 milliard d’euros. Ces travaux révélaient aussi que l’absentéisme dû à ces douleurs représentait alors 48 millions de journées de travail perdues par an, à l’échelon national.
À la recherche du « mieux vivre avec » plutôt que du « zéro douleur »
L’évaluation et le traitement d’un patient souffrant de douleur chronique nécessitent de considérer simultanément les facteurs biologiques, psychologiques et sociaux, sans faire montre d’aucun a priori quant à l’importance relative de chacun, selon le modèle médical dit « biopsychosocial ».
« Il est temps que chaque patient ait accès à un parcours de soins digne, sans errance ni abandon », souligne Audrey Aronica, présidente de l’Association francophone pour vaincre la douleur (AFVD).
Seuls quatre patients sur dix bénéficient d’une prise en charge pluriprofessionnelle pour leur douleur chronique. Si, on l’a vu, seuls 37 % des patients se disent satisfaits de leur prise en charge, ce chiffre s’élève significativement lorsque les personnes sont suivies par une structure spécialisée dans la douleur chronique : on atteint alors 47 % de satisfaits.
La satisfaction est plus faible pour certaines douleurs comme la fibromyalgie, l’endométriose, les douleurs liées au cancer ainsi que les douleurs inflammatoires ou neuropathiques.
L’objectif thérapeutique pour une personne souffrant de douleur chronique est rarement la rémission totale ou la guérison de cette maladie. En douleur chronique, se donner comme objectif la résolution totale de la douleur est souvent irréaliste et parfois même contre-productif, menant souvent à des escalades thérapeutiques potentiellement délétères. Cela aboutit fréquemment à la prescription, sur une longue durée, de médicaments opioïdes (morphine ou équivalents), alors que ceux-ci ne sont pas recommandés pour toutes les douleurs. Avec le risque de développer une dépendance à ces traitements.
Face aux douleurs chroniques, le but de la prise en charge est essentiellement réadaptatif (mieux vivre avec sa douleur). L’objectif est de faire diminuer la douleur à un niveau acceptable pour le patient, et d’améliorer des capacités fonctionnelles et de la qualité de vie du patient. La réadaptation est éminemment centrée sur la personne, ce qui signifie que les interventions et l’approche choisies pour chaque individu dépendent de ses objectifs et préférences.
Il peut également être intéressant de favoriser la promotion de thérapeutiques non médicamenteuses scientifiquement validées comme la neuromodulation – technique qui consiste à envoyer, au moyen d’électrodes implantées par exemple sur la moelle épinière du patient, des signaux électriques visant à moduler les signaux de douleur envoyés au cerveau.
Les « thérapies digitales » qui accompagnent le développement de la « santé numérique » peuvent aussi s’avérer intéressantes. Elles rendent en effet accessibles, à l’aide d’applications consultables sur smartphone, un contenu scientifiquement validé ainsi que des approches complémentaires, psychocorporelles, qui permettent de mieux gérer la douleur et de réduire ses répercussions négatives au quotidien sur la qualité de vie des patients : fatigue, émotions négatives, insomnie, baisse de moral, inactivité physique.
Une grande cause nationale pour combattre le fardeau des douleurs chroniques
Pour améliorer la situation, il est essentiel que les autorités s’emparent du sujet de la lutte contre les douleurs chroniques en le déclarant « grande cause nationale ». L’attribution de ce label permettrait de mieux communiquer sur ce grave problème, et de soutenir et coordonner les efforts de recherche.
« Les résultats du baromètre Douleur 2025 obligent notre collectivité nationale à une réponse sanitaire de grande ampleur », selon le Dr Éric Serra, président de la Société française d’étude et de traitement de la douleur (SFETD).
Parmi les autres objectifs à atteindre, citons la sanctuarisation d’un enseignement de médecine de la douleur plus conséquent dans les études médicales, le financement ciblé de programmes de recherche nationaux, la mise en application concrète d’initiatives permettant de réduire les délais d’accès aux soins spécialisés et de lutter contre les inégalités territoriales ou économiques d’accès à certaines thérapeutiques.
Président de la Fondation Analgesia (fondation de recherche sur la douleur chronique). Président du comité de suivi de l'expérimentation d'accès au cannabis médical de l'Agence Nationale de Sécurité du Médicament et des produits de santé. (ANSM). Membre du conseil d'administration de la Fondation IUD.
17.11.2025 à 16:04
Biodiversité alimentaire, microbiote et bien-être : la recherche explore les liens potentiels
Texte intégral (2198 mots)
Une alimentation variée en termes de diversité d’espèces végétales consommées est essentielle à la santé pour son apport en fibres et en nutriments. La recherche s’intéresse à cette biodiversité alimentaire qui pourrait aussi se révéler précieuse pour le bien-être mental, notamment par l’entremise du microbiote intestinal.
L’industrialisation de l’agriculture et le développement de l’industrie agroalimentaire ont favorisé les monocultures induisant une baisse drastique de la biodiversité alimentaire, depuis le XXe siècle.
Actuellement, douze espèces végétales et cinq espèces animales fournissent 75 % des cultures alimentaires mondiales, selon l’organisation non gouvernementale World Wide Fund (WWF). Et trois espèces végétales sont produites majoritairement dans le monde : le maïs, le blé et le riz, malgré une estimation de plus de 7 000 (peut-être même 30 000) espèces végétales comestibles, rappelle l’Organisation des Nations unies pour l’alimentation et l’agriculture (FAO).
De l’intérêt de la biodiversité alimentaire pour le microbiote intestinal
Il est important de différencier la diversité alimentaire qui représente la consommation de grands groupes alimentaires comme les produits laitiers ou les fruits et les légumes… de la biodiversité alimentaire qui prend en compte chaque espèce biologique (animale et végétale) consommée par un individu.
Par exemple, si un individu mange des carottes, des poivrons et des artichauts, en termes de diversité alimentaire, un seul groupe – celui des légumes – sera comptabilisé, contre trois espèces en biodiversité alimentaire. Or, tous les légumes n’apportent pas les mêmes nutriments et molécules actives. La biodiversité alimentaire est donc importante pour couvrir tous nos besoins.
Une fois ingérés, les aliments impactent notre organisme, et ce, jusqu’au cerveau, notamment via le microbiote intestinal. Le microbiote intestinal représente l’ensemble des microorganismes (bactéries et autres) qui se trouvent dans le tube digestif, en particulier au niveau du côlon. Cela représente un écosystème complexe avec environ 10 000 milliards de microorganismes.
Un microbiote sain et équilibré est caractérisé par une grande diversité bactérienne et la présence de certaines espèces bactériennes. L’état de santé ou l’alimentation peuvent moduler la composition de notre microbiote en quelques jours. Par ailleurs, l’impact de l’alimentation pourrait, après plusieurs mois, se répercuter sur le bien-être mental.
Fibres, microbiote, neurotransmetteurs et bien-être mental
Parmi les molécules de notre alimentation, qui impactent de façon bénéfique notre microbiote, se trouvent les fibres végétales. Ces longues chaînes glucidiques ne sont pas hydrolysées par les enzymes humaines, mais constituent le substrat principal de bactéries importantes du microbiote. En dégradant les fibres, des métabolites sont produits par certaines bactéries (par exemple, Bifidobacterium, Lactobacillus, des espèces du phylum des Bacillota), dont les acides gras à chaîne courte (AGCC) : acétate, propionate et butyrate.
Le butyrate, en particulier, agit sur certains paramètres biologiques et pourrait exercer des effets bénéfiques sur la santé physique et mentale. En effet, le butyrate module la réponse immunitaire par stimulation des cellules immunitaires et exerce une action anti-inflammatoire en augmentant l’expression de certains gènes. Il permet également de diminuer la perméabilité de l’épithélium intestinal et donc de limiter le passage de molécules inflammatoires ou toxiques dans la circulation sanguine.
Par ailleurs, certains neurotransmetteurs comme la sérotonine, l’acide gamma-aminobutyrique (GABA) ou la dopamine sont synthétisés à partir de précurseurs apportés par l’alimentation.
L’augmentation de la concentration des précurseurs suivants aurait un impact positif sur le cerveau :
le tryptophane (présents notamment dans le riz complet, les produits laitiers, les œufs, la viande et le poisson, les fruits à coque…) pour la sérotonine ;
le glutamate qui représente 8 à 10 % de la teneur en acides aminés dans l’alimentation humaine, les acides aminés étant les constituants de base des protéines alimentaires (on retrouve le glutamate dans les produits laitiers, graines oléagineuses, viandes et produits de la mer). Il est le précurseur du neurotransmetteur GABA (qui est également directement présent dans le riz brun germé ou les aliments fermentés) ;
la tyrosine (présente notamment dans les fromages à pâtes pressées cuites, les graines de soja ou la viande) pour la dopamine.
De l’intérêt de consommer davantage de fibres végétales
Il est recommandé de consommer de 25 grammes à 38 grammes de fibres quotidiennement, apportées via la consommation de végétaux (cf. tableau ci-après). Or la moyenne française en 2015 était inférieure à 18 grammes d’après une étude de Santé publique France.
On soulignera néanmoins que, lorsqu’on souhaite augmenter son apport en fibres, pour éviter les effets indésirables de leur fermentation dans le colon, il est conseillé de les réintroduire progressivement dans son alimentation au cours de plusieurs semaines.
Favoriser aussi un bon ratio oméga-3/oméga-6, vitamines, minéraux, etc.
Enfin, d’autres nutriments jouant un rôle important sur la santé mentale par une action directe sur le cerveau ont aussi une action indirecte en modulant le microbiote intestinal ou en étant précurseurs de métabolites bactériens ayant un effet au niveau du système nerveux central (qui inclut le cerveau).
Ainsi, un ratio équilibré oméga-3/oméga-6 (1 :4) exerce des effets bénéfiques sur le microbiote intestinal. Mais dans l’alimentation occidentale, le ratio est déséquilibré en faveur des oméga-6, ce qui engendre un état inflammatoire.
Les aliments les plus riches en oméga-3 sont issus de végétaux terrestres (l’huile de lin, de colza, etc.) et d’animaux marins (les poissons gras comme le saumon, le maquereau, le hareng, la sardine et l’anchois, etc.), explique l’Agence nationale de sécurité sanitaire (Anses). En revanche, l’huile de tournesol et de pépin de raisin sont très riches en oméga-6, participant ainsi au déséquilibre des apports.
Une alimentation riche en polyphénols (certaines épices, cacao, baies de couleur foncée, artichauts…) confère également des effets bénéfiques anti-inflammatoires via la modification du profil du microbiote intestinal.
Enfin, les vitamines ou minéraux participent aux fonctions de base de l’organisme.
Quels aliments apportent quelles classes de nutriments ?
Une alimentation biodiversifiée permet un apport complet de tous ces nutriments (cf. les recommandations sur le site de l’Anses et du Programme national nutrition santé [PNNS]). Des données existent sur la teneur moyenne en nutriments de ces aliments et leur saisonnalité (site Ciqual). Cependant, les aliments n’apportent pas tous les mêmes classes de nutriments.
Pour donner un exemple concret, un artichaut cuit contient assez de fibres (11 g/100 g) pour satisfaire les besoins journaliers, mais sera pauvre en vitamine C (moins de 0,5 mg/100 g), contrairement au brocoli cuit plus riche en vitamine C (90 mg/100 g), mais assez pauvre en fibre (2,4 g/100 g). Ainsi, la prise en compte de la biodiversité alimentaire est essentielle pour évaluer les apports totaux en ces différents nutriments.
Afin d’avoir un bon état de santé physique et mentale, il est recommandé de diversifier les sources alimentaires pour couvrir l’ensemble des besoins. Cependant, la disponibilité en aliments varie selon les saisons. Le tableau ci-dessous présente quelques propositions d’associations d’aliments de saison pour couvrir nos besoins quotidiens en fibres.
Exemples d’aliments de saison à consommer pour avoir un apport journalier suffisant en fibres totales (Sources : Ciqual et ministère de l’agriculture et de la souveraineté alimentaire)
L’impact des PFAS, pesticides et perturbateurs endocriniens à ne pas négliger
A contrario, l’organisme est impacté négativement par d’autres facteurs, comme l’exposome qui représente l’ensemble des expositions environnementales au cours de la vie.
Ainsi, les xénobiotiques (par exemple, les pesticides), qui impactent la croissance et le métabolisme des bactéries du microbiote intestinal, qui, en retour, peut bioaccumuler ou modifier chimiquement ces composés. Les aliments issus de l’agriculture biologique contiennent beaucoup moins de xénobiotiques et sont donc recommandés.
Enfin, l’utilisation d’ustensiles de cuisine en plastique ou en téflon, entre autres, peut notamment engendrer la libération de perturbateurs endocriniens ou de polluants persistants (comme les substances per- et polyfluroalkylées PFAS) qui vont se bioaccumuler dans les bactéries du microbiote intestinal. De ce fait, il est recommandé de limiter leur utilisation au profit d’autres matériaux alimentaires (inox, verre).
Différentes molécules et facteurs impactant le microbiote intestinal et susceptibles d’agir sur le bien-être mental
Adopter une alimentation variée est donc essentiel pour couvrir les besoins nutritionnels à l’échelle moléculaire, et cela impacte de manière bénéfique la santé physique mais aussi mentale, notamment via le microbiote.
Toutefois, il est important de prendre soin de son alimentation sans tomber dans une anxiété excessive, qui pourrait engendrer des troubles alimentaires et nuire finalement au bien-être global, la notion de plaisir restant essentielle dans l’alimentation.
Déborah Maurer Nappée (étudiante en master 2 Nutrition et sciences des aliments de l’Université de Rennes) a contribué à la rédaction de cet article.
ROUX Emeline a reçu un financement de la Fondation de l'Université de Rennes, chaire Aliments et bien-manger.
Gaëlle Boudry ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
17.11.2025 à 16:04
Château de Chambord : pourquoi les Français financent-ils « leur » patrimoine ?
Texte intégral (1652 mots)
La campagne de financement participatif des travaux du château de Chambord est un vrai succès. Que dit cette réussite de l’intérêt des Français pour le patrimoine ? Les résultats obtenus sont-ils transposables à d’autres monuments ? Ou faut-il craindre que ces campagnes pour des édifices d’intérêt national ne détournent le public d’opérations moins ambitieuses mais indispensables ?
Le domaine national de Chambord (Loir-et-Cher), deuxième château le plus visité de France après celui de Versailles (Yvelines), a fermé l’accès à l’aile François Ier. Fragilisée par le temps et le climat, cette partie du monument nécessite des travaux de restauration estimés à 37 millions d’euros.
Bien que disposant d’un modèle économique solide, le domaine ne peut absorber seul un tel coût. Aux côtés du mécénat, Chambord a choisi de mobiliser aussi le grand public en lançant, le 19 septembre 2025, une campagne de financement participatif à l’occasion des Journées européennes du patrimoine. Intitulée « Sauvez l’aile François Ier, devenez l’ange gardien de Chambord », elle visait à collecter 100 000 euros.
Deux mois plus tard, la collecte a déjà dépassé l’objectif initial, atteignant 218 139 euros grâce aux 2 191 dons, déclenchant un nouveau palier à 300 000 euros. Ce succès interroge : pourquoi des citoyens choisissent-ils de contribuer à la restauration d’un monument déjà emblématique soutenu par l’État et par des mécènes privés ?
À lire aussi : Culture : faut-il mettre à contribution les touristes étrangers pour mieux la financer ?
Un mode de financement à géométrie variable
Le cas de Chambord n’est pas isolé. Le financement participatif consacré au patrimoine est devenu une pratique courante en France, malgré de fortes fluctuations. Selon le baromètre du financement participatif en France, 1,4 million d’euros ont été collectés en 2022, 5,7 millions en 2023, puis seulement 0,8 million en 2024. Les raisons de ces écarts restent à documenter, mais ces chiffres révèlent un mode de financement ponctuel, voire incertain.
Ce mode de financement repose sur les dons principalement en ligne des citoyens. Il ne remplace ni l’argent public ni le mécénat d’entreprise, mais les complète, parfois même symboliquement. Dans certains cas, il joue un rôle de déclencheur. En effet, en apportant la preuve d’une mobilisation locale, la participation citoyenne peut débloquer des subventions publiques conditionnées à cet engagement. En partenariat avec certaines régions, la Fondation du patrimoine peut ainsi apporter une bonification à la souscription, comme ce fut le cas pour la restauration de l’église de Sury-en-Vaux (Cher) dans le Sancerrois.
Les projets financés sont divers : restauration d’églises rurales, sauvegarde de moulins, mise en valeur de jardins historiques, consolidation de lavoirs… Cette diversité reflète la richesse du patrimoine français, mais aussi sa fragilité et le besoin constant de mobilisation pour sa préservation.
Une question de proximité
Des recherches menées en région Centre-Val de Loire montrent que la décision de contribuer repose sur divers éléments, notamment sur le lien, appelé proximité, entre le contributeur et le bien patrimonial. Les donateurs entretiennent souvent un lien particulier avec le monument qu’ils soutiennent. Ce lien est d’abord géographique. Il peut être lié au lieu de résidence, mais aussi à des séjours passés, des vacances ou encore des visites. Il n’implique donc pas toujours d’habiter à proximité.
Il est aussi affectif. Certains contributeurs expriment un attachement direct au bien patrimonial, car ce monument peut évoquer des origines familiales, des souvenirs personnels ou susciter une émotion particulière. D’autres s’y intéressent de manière plus indirecte, parce qu’il incarne, au même titre que d’autres biens, une identité territoriale ou encore une passion pour le patrimoine en général.
Chambord cumule les atouts
La campagne de Chambord se distingue des projets plus modestes. Contrairement à une petite église de village ou à un lavoir communal, ce château touristique active simultanément plusieurs types de liens, ce qui explique en partie son potentiel de mobilisation exceptionnelle. Les premiers témoignages de participants à la campagne de Chambord illustrent ces logiques de proximité.
Chambord est un marqueur d’identité territoriale fort, dont le lien géographique et affectif fonctionne à plusieurs échelles. Chambord est avant tout un symbole du patrimoine culturel français. Pour de nombreux contributeurs, soutenir cette restauration vise à préserver un emblème de la France et de son rayonnement culturel.
« Tout comme Notre-Dame de Paris, c’est un symbole de notre patrimoine que nous devons préserver », souligne Julie.
« Ce patrimoine exceptionnel contribue au rayonnement de la France à travers le monde », précise Benjamin.
Ce sentiment d’appartenance ne s’arrête pas au niveau national. Chambord est aussi un marqueur d’identité territoriale locale. Pour les habitants du Loir-et-Cher et de la région Centre-Val de Loire, Chambord est « leur » château, le fleuron de leur territoire, comme le confie un autre donateur anonyme.
« J’habite à proximité du château de Chambord et le domaine est mon jardin ! »
Cette capacité à créer un sentiment élargi d’appartenance géographique multiplie considérablement le potentiel de contributeurs.
Passion pour l’histoire
Ce lien affectif indirect s’exprime également lorsqu’il est nourri par une passion pour l’histoire ou pour le patrimoine en général. Ces passionnés ne soutiennent pas Chambord parce qu’ils y ont des souvenirs personnels, mais parce qu’il incarne, à leurs yeux, l’excellence de l’architecture française, le génie de la Renaissance ou l’héritage culturel commun. Leur engagement s’inscrit dans une forme d’adhésion à l’idée même de sauvegarder le patrimoine.
C’est le cas de Carole,
« passionnée d’histoire, je souhaite participer à la conservation d’un patrimoine qui doit continuer à traverser les siècles pour que toutes les générations futures puissent en profiter et continuer cette préservation unique ».
Au-delà de l’identité territoriale nationale ou locale ou encore de la passion patrimoniale, les commentaires des contributeurs expriment un lien affectif direct avec le monument. L’état alarmant de Chambord réveille des émotions patrimoniales profondes, liées aux valeurs que le monument incarne, comme la beauté et la grandeur.
« Personne ne peut rester insensible à la beauté de ce château », estime Dorothée.
Urgence et souvenirs
L’urgence de la restauration suscite également une forme de tristesse et d’inquiétude,
« C’est très triste de voir un tel chef-d’œuvre en péril », pour Mickaël.
Ce lien affectif direct s’exprime également à travers l’évocation de souvenirs personnels, témoignant d’une identité singulière attachée au lieu, comme la sortie scolaire inoubliable, la visite en famille ou entre amis, les vacances familiales ou encore la découverte émerveillée de l’escalier à double révolution.
Cette accumulation de liens entre le bien patrimonial et les contributeurs explique en partie pourquoi Chambord peut viser un objectif au-delà des 100 000 euros, là où la plupart des projets patrimoniaux se contentent de quelques dizaines de milliers d’euros. Tous les monuments ne disposent pas des mêmes atouts.
L’exemple de Chambord montre la force de l’attachement des Français au patrimoine. Il illustre aussi à quel point la réussite d’un financement participatif patrimonial repose en partie sur une bonne compréhension des liens géographiques et affectifs qui unissent les citoyens à un monument.
Ce succès interroge. Le recours au don pour les « monuments stars » comme Chambord ne risque-t-il pas de détourner l’attention des patrimoines plus fragiles et moins visibles, ou au contraire de renforcer la sensibilisation des Français à leur sauvegarde ? Dans ce contexte, le ministère de la culture, sous l’impulsion de Rachida Dati, explore l’idée d’un National Trust à la française, inspiré du modèle britannique, pour soutenir l’ensemble du patrimoine.
Aurore Boiron ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
17.11.2025 à 16:03
Miné par l’inflation, le Japon a-t-il vraiment fait un virage à droite avec sa nouvelle première ministre ?
Texte intégral (2756 mots)
*Pour la première fois, une femme se trouve à la tête du gouvernement au Japon. Un apparent progrès sociétal qui, pour autant, n’est pas synonyme de progressisme, au vu de ses opinions ultraconservatrices. Le gouvernement de Sanae Takaichi va avant tout devoir relever le défi de l’inflation qui frappe les foyers japonais… et, pour cela, peut-être assouplir certaines de ses positions. *
Le 4 octobre 2025, Sanae Takaichi remportait les élections internes à la présidence du Parti libéral-démocrate (PLD). Après deux semaines de suspense marquées par de multiples tractations et recompositions des alliances, elle est devenue, le 21 octobre, la première femme à se retrouver à la tête d’un gouvernement au Japon. Depuis, nombreux ont été les articles de presse à l’étranger soulignant le caractère historique de cet événement dans un pays que le pourcentage de femmes au Parlement place à la 141ᵉ position sur 193 dans le classement de l’Union interparlementaire, tout en rappelant à juste titre les positions très conservatrices de la nouvelle dirigeante, notamment sur les questions sociétales, mais aussi mémorielles).
Ce n’est certes pas la première fois qu’une femme se retrouve à la tête d’un parti politique au Japon. En 1986, Takako Doi devenait en effet la secrétaire générale du Parti socialiste (jusqu’en 1991 puis de 1996 à 2003) ; elle est aussi la première et seule femme à avoir été présidente de la Chambre basse (1993-1996). Néanmoins, Mme Takaichi est bien la première à devenir cheffe de gouvernement.
Un parcours classique de femme politique dans un monde d’hommes
Afin d’expliquer cette nomination, on peut commencer par lui reconnaître une habileté certaine en politique et une bonne maîtrise des stratégies communicationnelles.
À l’instar de l’actuelle gouverneure de Tokyo, Yuriko Koike, et de plusieurs autres femmes politiques japonaises, elle a été un temps présentatrice télé avant sa première élection à la Diète (Parlement japonais) en 1993.
Elle a ensuite navigué entre plusieurs partis politiques avant de s’arrimer au PLD et de se rapprocher de son aile droite, en particulier de l’ancien premier ministre Shinzō Abe (2012-2020, assassiné en 2022).
À plus d’un titre, Sanae Takaichi, 64 ans aujourd’hui, a en réalité mené une carrière typique… d’homme politique. Elle a progressivement gravi les échelons au sein d’un parti qui, malgré quelques évolutions, privilégie encore largement l’ancienneté (son principal adversaire, Shinjirō Koizumi, âgé de 44 ans, en a sûrement fait les frais). Elle n’a, par ailleurs, jamais eu à concilier maternité et vie professionnelle, contrairement à bien des Japonaises (les enfants de son mari, ancien parlementaire du PLD, étaient déjà âgés quand ils se sont mariés en 2004).
Le pari du PLD pour redynamiser son image
Mais l’arrivée de Mme Takaichi à la tête du PLD résulte avant tout d’un pari réalisé par une frange du parti (notamment par certains de ses caciques autrefois proches de Shinzō Abe, comme Tarō Asō) pour remédier aux récentes défaites électorales subies d’abord à la Chambre basse en 2024, puis à la Chambre haute en 2025.
En faisant d’elle le nouveau visage du parti, les objectifs étaient multiples. Il s’agissait tout d’abord de redonner une image dynamique à un PLD frappé par plusieurs scandales (liens avec la secte Moon, financements de campagne illégaux, etc.), ce que les trois précédents premiers ministres (2020-2025), aux styles parfois très austères, avaient peiné à réaliser.
Cette personnalisation de la politique n’est pas nouvelle au Japon, mais il est clair, depuis les années 2000, que la figure et le style du premier ministre ont désormais un impact déterminant sur les résultats électoraux du parti. Les cadres du PLD, conscients que leur destin est étroitement lié à la perception que l’opinion publique a de leur chef, n’hésitent pas à mettre entre parenthèses leurs éventuels désaccords et leurs luttes intrapartisanes.
Bien entendu, le parti n’avait aucun doute quant au fait que la candidate avait la ferme intention de ne surtout rien changer en substance concernant la gouvernance du PLD ou les règles de financement de campagne – en dépit du slogan et mot-dièse #KawareJimintō (#ChangePLD !) utilisé dans les réseaux sociaux officiels du parti lors de cette élection à la présidence.
Ainsi, Sanae Takaichi sait également qu’elle doit cette élection à la tête du parti au soutien de personnages essentiels qui n’hésiteront pas à la pousser vers la sortie s’ils estiment qu’elle les dessert plus qu’elle ne les sert. Elle qui a plusieurs fois évoqué son admiration pour Margaret Thatcher doit sûrement se rappeler de la violence et de la rapidité avec laquelle le Parti conservateur britannique avait évincé la Dame de fer. Elle a conscience que seules de multiples victoires électorales pourraient lui permettre de consolider sa place à la tête du parti. C’est ce qui avait permis à son autre modèle, Shinzō Abe, de battre le record de longévité au poste de premier ministre (sept ans et huit mois).
C’est justement sur ce point que Mme Takaichi a su convaincre son parti. L’un de ses atouts évidents réside dans le fait qu’elle semblait être la seule à pouvoir potentiellement capter la fraction de l’électorat qui s’était tournée vers le parti d’extrême droite Sanseitō aux dernières élections à la Chambre haute (il y avait obtenu 14 sièges).
En ce sens, contrairement aux élections à la présidence du PLD de 2021 et 2024 où elle avait terminé respectivement troisième puis seconde, sa candidature arrivait cette fois-ci à point nommé puisque, sur bien des sujets, ses positions très conservatrices sont alignées sur celles du Sanseitō (par exemple sur les questions migratoires).
Une redéfinition des alliances : le « virage à droite »
Par ailleurs, ce « virage à droite » peut aussi être vu comme une manifestation du mouvement de balancier (furiko no genri) observé depuis longtemps au sein du PLD, qui consiste en une alternance à sa tête entre des figures tantôt plus libérales, tantôt plus conservatrices.
Ce phénomène, qualifié d’« alternance factice » (giji seiken kōtai) par les spécialistes, est souvent invoqué comme explication de l’extraordinaire longévité de la domination du PLD (soixante-cinq années au pouvoir entre 1955 et 2025) ; il donnerait en effet à l’électeur la vague impression d’un changement sans pour autant qu’une autre force politique s’empare du pouvoir.
Cela étant dit, certaines choses ont d’ores et déjà changé. À la suite de la nomination de Mme Takaichi à la présidence du PLD, le Kōmeitō, parti bouddhiste qui formait avec lui une coalition depuis vingt-six ans (1999), a décidé d’en sortir. Officiellement, le Kōmeitō a expliqué son geste par le refus de la première ministre de réguler davantage les dons réalisés par les entreprises aux partis politiques (le PLD perçoit la quasi-totalité des dons faits par des entreprises au Japon).
Cependant, on peine à voir pourquoi cette réforme deviendrait aussi soudainement une condition sine qua non de sa participation au gouvernement alors que le Kōmeitō a, au cours de cette dernière décennie, fait des concessions que son électorat – par ailleurs très féminin et essentiellement composé des membres de la secte Sōka gakkai – a eu bien du mal à digérer, notamment la réforme de 2015 qui a élargi les cas dans lesquels les Forces d’autodéfense japonaises peuvent intervenir à l’étranger. C’est en réalité plutôt là que se trouve la raison pour laquelle ce parti, pacifiste et présentant une fibre plus « sociale », a décidé de quitter cette alliance qui ajoutait désormais à l’inconvénient d’être une coalition minoritaire avec un PLD affaibli, celui d’opérer un virage à droite qui n’allait pas manquer de crisper ses soutiens.
Mais, alors que la situation du PLD semblait encore plus critique – au point que l’élection de sa présidente comme première ministre devenait très incertaine –, Nippon Ishin no kai, le parti de la restauration du Japon, est venu à sa rescousse.
Ce parti, dont l’assise électorale se concentre dans la région d’Ōsaka, était demeuré dans l’opposition depuis sa création en 2015. Pour autant, en dehors de son ancrage local, il ne se distinguait pas vraiment du PLD sur le plan idéologique et votait de fait en faveur de la plupart de ses projets de loi. Son président, l’actuel gouverneur d’Ōsaka Hirofumi Yoshimura, suit, tout comme son fondateur Tōru Hashimoto, avocat devenu célèbre sur les plateaux de télévision, une ligne néolibérale et sécuritaire, saupoudrée de déclarations populistes anti-establishment, nationalistes et parfois clairement révisionnistes.
La compatibilité avec le PLD, désormais menée par Sanae Takaichi, n’a probablement jamais été aussi grande. Le parti a néanmoins pris la précaution de ne pas intégrer le gouvernement, et il sait qu’en dépit du fait qu’il ne possède qu’une trentaine de sièges à la Chambre basse (environ 7 %), il est celui qui peut à tout moment le faire tomber (le PLD occupe à l’heure actuelle 196 sièges, sur les 465 de la Chambre basse).
De la Dame de fer à la Dame d’étain ?
Pour autant, doit-on s’attendre à ce que ces nouvelles alliances accouchent d’importantes évolutions au niveau des politiques publiques ? C’est plus qu’improbable.
Même sur la question migratoire, Mme Takaichi ne pourra pas revenir sur la politique volontariste engagée en 2019 par Shinzō Abe lui-même, lequel avait bien été obligé d’accéder aux doléances du monde économique (soutien indispensable du PLD) confronté à une pénurie de main-d’œuvre dans plusieurs secteurs (construction, hôtellerie, etc.). Le pays comptait en 2024 environ 3,6 millions d’étrangers sur son sol (3 % de la population totale), dont environ 56 % ont entre 20 ans et 39 ans. Plus de 23 % sont Chinois, 17 % Vietnamiens et 11 % Sud-Coréens. Bien que ces chiffres soient relativement modestes, il convient de rappeler que la population immigrée au Japon a augmenté de 69 % au cours de ces dix dernières années.
Bien sûr, tout comme Shinzō Abe, la première ministre ne manquera pas d’afficher sa fermeté et fera peut-être adopter quelques mesures symboliques qui n’auront qu’un impact numérique marginal.
Elle pourrait certes avoir les coudées plus franches si elle décidait de dissoudre la Chambre basse et remportait ensuite une large victoire électorale qui redonnerait à son parti une confortable majorité. Son taux de soutien actuel dans l’opinion publique (autour de 70 %), et les prévisions favorables au PLD concernant le report des votes des électeurs du Sanseitō, du parti conservateur et du parti de la restauration du Japon (environ 25 % de report vers le PLD), pourraient bien l’inciter à adopter cette stratégie.
Cependant, ce soutien dans l’opinion (notamment chez les jeunes où le taux atteint les 80 %) n’est guère le produit de ses positions conservatrices, mais plus le résultat d’une communication – aussi redoutable que superficielle – qui fait espérer un renouveau. C’est bien plus sur l’amélioration de la situation économique d’un Japon durement frappé par l’inflation (notamment liée à des importations rendues coûteuses par un yen faible) que la cheffe du gouvernement est attendue.
Ses premières déclarations en tant que première ministre montrent que Mme Takaichi en est bien consciente et qu’elle va par ailleurs devoir assouplir ses positions sur plusieurs thèmes. En somme, la Dame de fer va devoir opter pour un alliage plus malléable.
Arnaud Grivaud ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
17.11.2025 à 16:03
Comment la consommation précoce de pornographie affecte la sexualité des garçons et des filles
Texte intégral (1816 mots)

L’exposition des enfants et adolescents à la pornographie commence de plus en plus tôt, souvent avant l’âge de 10 ans, et façonne leur compréhension du désir, du consentement et des relations affectives. Elle influe sur la manière dont les jeunes apprennent à désirer, mais aussi sur celle dont les adolescentes apprennent à être désirées.
Le contact avec la pornographie se produit de plus en plus tôt. En Espagne par exemple, 20 % des adolescents ont accédé à ce type de contenu avant l’âge de 10 ans et plus de 90 % avant l’âge de 14 ans.
(En France, un rapport d’information du Sénat corrobore, en septembre 2022, ces tendances en dénombrant 1,1 million d’adolescents de 15 ans à 18 ans et 1,2 million d’enfants de moins de 15 ans sur 19 millions de visiteurs mensuels uniques de sites pornographiques, ndlr.)
Ces chiffres révèlent une enfance exposée trop tôt à des contenus qui façonnent leur manière de comprendre le désir, le consentement et les relations affectives. Dans un contexte où l’éducation sexuelle approfondie est pratiquement inexistante tant dans les familles qu’à l’école, Internet est devenu le professeur et la pornographie son programme.
À lire aussi : La pornografía miente: por qué no sirve para aprender
Une enfance exposée trop tôt
Les recherches les plus récentes réalisées en Espagne situent le début de la consommation de pornographie entre les âges de 8 ans et 13 ans. Le téléphone portable est le principal dispositif d’accès : il permet une consommation privée, immédiate et difficile à surveiller par l’entourage adulte.
Cet accès continu est dépourvu des filtres familiaux et éducatifs qui pourraient servir d’éléments de protection.
Ce que voient les enfants
L’exposition précoce à des contenus sexuels explicites dans lesquels sont reproduites des attitudes de violence, de domination et de machisme, et la consommation comme pratique intégrée dans la socialisation numérique des adolescents ont pour conséquence que la violence physique, la coercition ou l’humiliation des femmes, loin d’être reconnues comme des agressions, sont interprétées comme des comportements sexuels normaux, voire souhaitables.
Ce sont des contenus et des attitudes qui renforcent les modèles de virilité fondés sur la domination et le rabaissement.
Certains chercheurs ont constaté que les vidéos les plus visionnées comprenaient des scènes de cheveux tirés, de gifles ou d’insultes, et même un viol collectif (avec plus de 225 millions de vues). D’autres recherches ont confirmé que la consommation régulière de pornographie violente est associée à des attitudes de domination et d’agression sexuelle : 100 % des études ont établi un lien entre la pornographie et la violence sexuelle, 80 % avec la violence psychologique et 66,7 % avec la violence physique.
En définitive, à l’adolescence, cette exposition façonne les premières expériences affectives et normalise l’idée selon laquelle le pouvoir, la soumission et la violence font partie du désir
Les filles face au miroir de la violence
Les adolescentes consultent également la pornographie, bien que dans une moindre mesure et dans un contexte marqué par la pression esthétique, les normes de genre et le besoin de validation externe, facteurs qui influencent la manière dont elles construisent leur désir et leur relation avec leur corps.
Cette consommation est souvent vécue avec un malaise ou une ambivalence émotionnelle, et est rarement partagée entre pairs.
La nouvelle pornographie numérique renforce la chosification des femmes, en les présentant comme des instruments du plaisir masculin. Des plateformes, telles qu’OnlyFans, poursuivent cette logique, en commercialisant le corps féminin sous le couvert d’une liberté apparente qui répond à la demande masculine.
Ainsi, les jeunes filles apprennent que la reconnaissance sociale dépend de leur capacité à s’exposer, ce qui génère une socialisation fondée sur l’autosexualisation et le capital érotique.
Cet apprentissage perpétue les injonctions à la soumission et consolide un modèle de désir fondé sur l’inégalité. En conséquence, la pornographie non seulement façonne la manière dont les hommes apprennent à désirer, mais aussi la manière dont les adolescentes apprennent à être désirées.
Une éducation qui arrive trop tard
L’absence d’une éducation sexuelle adéquate est l’un des facteurs qui contribuent le plus à la consommation précoce de pornographie.
Dans le domaine éducatif, il existe toujours un manque de programmes abordant les relations affectives et sexuelles avec sérieux, naturel et dans une approche fondée sur les droits et les valeurs, ce qui favorise l’intériorisation des contenus pornographiques.
De plus, les écoles en Espagne, mais aussi dans d’autres pays, manquent de ressources pour une éducation sexuelle complète et, dans les familles, le silence et le tabou prévalent souvent.
Face à ce manque de repères, la pornographie devient la principale source d’information, annulant des dimensions essentielles de la sexualité telles que l’affection, l’égalité et le respect.
À lire aussi : Habilidades para gestionar los conflictos, clave en las parejas adolescentes
Éducation socio-affective et approche de genre
C’est pourquoi l’éducation socio-affective avec une approche de genre s’est avérée essentielle pour prévenir les effets de la consommation et promouvoir des relations égalitaires.
Intégrer une réflexion sur le consentement, le plaisir et la diversité permet de contrebalancer les messages de domination véhiculés par les écrans et de responsabiliser les adolescents à partir du respect mutuel.
Un défi pour la santé publique
La consommation de pornographie à l’adolescence constitue un problème émergent de santé publique. Ses effets transcendent l’individu et affectent le bien-être émotionnel, la socialisation et la construction des identités de genre, ce qui nécessite une approche préventive et globale de la part du système de santé.
De plus, il est prouvé que l’exposition précoce à des contenus sexuels explicites influence les comportements à risque, les addictions comportementales et la reproduction des inégalités de genre.
D’une question privée à un défi collectif
Les acteurs du travail social jouent un rôle clé en se positionnant entre le système de santé, la société et les familles. De cette position, les travailleurs sociaux peuvent détecter les conséquences psychosociales de la consommation (anxiété, isolement ou attitudes sexistes) et intervenir par des actions éducatives et d’accompagnement.
De même, le travailleur social en santé contribue à la conception de stratégies intersectorielles qui intègrent l’éducation affective et sexuelle dans les soins primaires et favorisent des relations saines dès le plus jeune âge. En fin de compte, accompagner les nouvelles générations vers une sexualité fondée sur l’empathie, le consentement et l’égalité est sa plus grande responsabilité.
La consommation de pornographie n’est plus une question privée, mais un défi collectif. Il ne s’agit pas d’un problème moral, mais d’un problème de santé et d’égalité. Si la pornographie enseigne à désirer avec violence, notre tâche est d’enseigner à désirer avec empathie. En ce sens, éduquer à l’égalité, à l’affection et au consentement n’est pas une option : c’est une urgence sociale.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
17.11.2025 à 16:02
Elon Musk a raison de dire que Wikipédia est biaisé, mais Grokipedia et l’IA ne feront pas mieux
Texte intégral (2458 mots)

Grokipedia, le nouveau projet d’Elon Musk, mis en ligne le 27 octobre 2025, promet plus de neutralité que Wikipédia. Pourtant, les modèles d’IA sur lesquels il repose restent marqués par les biais de leurs données.
La société d’intelligence artificielle d’Elon Musk, xAI, a lancé, le 27 octobre 2025, la version bêta d’un nouveau projet destiné à concurrencer Wikipédia, Grokipedia. Musk présente ce dernier comme une alternative à ce qu’il considère être « le biais politique et idéologique » de Wikipédia. L’entrepreneur promet que sa plateforme fournira des informations plus précises et mieux contextualisées grâce à Grok, le chatbot de xAI, qui générera et vérifiera le contenu.
A-t-il raison ? La problématique du biais de Wikipédia fait débat depuis sa création en 2001. Les contenus de Wikipédia sont rédigés et mis à jour par des bénévoles qui ne peuvent citer que des sources déjà publiées, puisque la plateforme interdit toute recherche originale. Cette règle, censée garantir la vérifiabilité des faits, implique que la couverture de Wikipédia reflète inévitablement les biais des médias, du monde académique et des autres institutions dont elle dépend.
Ces biais ne sont pas uniquement politiques. Ainsi, de nombreuses recherches ont montré un fort déséquilibre entre les genres parmi les contributeurs, dont environ 80 % à 90 % s’identifient comme des hommes dans la version anglophone. Comme la plupart des sources secondaires sont elles aussi majoritairement produites par des hommes, Wikipédia tend à refléter une vision plus étroite du monde : un dépôt du savoir masculin plutôt qu’un véritable panorama équilibré des connaissances humaines.
Le problème du bénévolat
Sur les plateformes collaboratives, les biais tiennent souvent moins aux règles qu’à la composition de la communauté. La participation volontaire introduit ce que les sciences sociales appellent un « biais d’autosélection » : les personnes qui choisissent de contribuer partagent souvent des motivations, des valeurs et parfois des orientations politiques similaires.
De la même manière que Wikipédia dépend de cette participation volontaire, c’est aussi le cas de Community Notes, l’outil de vérification des faits de Musk sur X (anciennement Twitter). Une analyse que j’ai menée avec des collègues montre que sa source externe la plus citée, après X lui-même, est en réalité Wikipédia.
Les autres sources les plus utilisées se concentrent elles aussi du côté des médias centristes ou orientés à gauche. Elles reprennent la même liste de sources « approuvées » que Wikipédia ; c’est-à-dire précisément le cœur des critiques de Musk adressées à l’encyclopédie ouverte en ligne. Pourtant, personne ne reproche ce biais à Musk.
Wikipédia reste au moins l’une des rares grandes plateformes à reconnaître ouvertement ses limites et à les documenter. La recherche de la neutralité y est inscrite comme l’un de ses cinq principes fondateurs. Des biais existent, certes, mais l’infrastructure est conçue pour les rendre visibles et corrigibles.
Les articles contiennent souvent plusieurs points de vue, traitent des controverses et même consacrent des sections entières aux théories complotistes, comme celles entourant les attentats du 11-Septembre. Les désaccords apparaissent dans l’historique des modifications et sur les pages de discussion, et les affirmations contestées sont signalées. La plateforme est imparfaite mais autorégulée, fondée sur le pluralisme et le débat ouvert.
L’IA est-elle impartiale ?
Si Wikipédia reflète les biais de ses contributeurs humains et des sources qu’ils mobilisent, l’IA souffre du même problème avec ses données d’entraînement. Grokipedia : Elon Musk a raison de dire que Wikipédia est biaisée, mais son alternative fondée sur l’IA ne fera pas mieux
Les grands modèles de langage (LLM) utilisés par Grok sont formés sur d’immenses corpus issus d’Internet, comme les réseaux sociaux, les livres, les articles de presse et Wikipédia elle-même. Des études ont montré que ces modèles reproduisent les biais existants – qu’ils soient de genre, d’ordre politique ou racial – présents dans leurs données d’entraînement.
Musk affirme que Grok a été conçu pour contrer de telles distorsions, mais Grok lui-même a été accusé de partialité. Un test, dans laquelle quatre grands modèles de langage ont été soumis à 2 500 questions politiques, semble montrer que Grok est plus neutre politiquement que ses rivaux, mais présente malgré tout un biais légèrement orienté à gauche (les autres étant davantage marqués à gauche).
Si le modèle qui soustend Grokipedia repose sur les mêmes données et algorithmes, il est difficile d’imaginer comment une encyclopédie pilotée par l’IA pourrait éviter de reproduire les biais que Musk reproche à Wikipédia. Plus grave encore, les LLM pourraient accentuer le problème. Ceux-ci fonctionnent de manière probabiliste, en prédisant le mot ou l’expression la plus probable à venir sur la base de régularités statistiques, et non par une délibération entre humains. Le résultat est ce que les chercheurs appellent une « illusion de consensus » : une réponse qui sonne de manière autoritaire, mais qui masque l’incertitude ou la diversité des opinions.
De ce fait, les LLM tendent à homogénéiser la diversité politique et à privilégier les points de vue majoritaires au détriment des minoritaires. Ces systèmes risquent ainsi de transformer le savoir collectif en un récit lisse mais superficiel. Quand le biais se cache sous une prose fluide, les lecteurs peuvent même ne plus percevoir que d’autres perspectives existent.
Ne pas jeter le bébé avec l’eau du bain
Cela dit, l’IA peut aussi renforcer un projet comme Wikipédia. Des outils d’IA contribuent déjà à détecter le vandalisme, à suggérer des sources ou à identifier des incohérences dans les articles. Des recherches récentes montrent que l’automatisation peut améliorer la précision si elle est utilisée de manière transparente et sous supervision humaine.
L’IA pourrait aussi faciliter le transfert de connaissances entre différentes éditions linguistiques et rapprocher la communauté des contributeurs. Bien mise en œuvre, elle pourrait rendre Wikipédia plus inclusif, efficace et réactif sans renier son éthique centrée sur l’humain.
De la même manière que Wikipédia peut s’inspirer de l’IA, la plate-forme X pourrait tirer des enseignements du modèle de construction de consensus de Wikipédia. Community Notes permet aux utilisateurs de proposer et d’évaluer des annotations sur des publications, mais sa conception limite les discussions directes entre contributeurs.
Un autre projet de recherche auquel j’ai participé a montré que les systèmes fondés sur la délibération, inspirés des pages de discussion de Wikipédia, améliorent la précision et la confiance entre participants, y compris lorsque cette délibération implique à la fois des humains et une IA. Favoriser le dialogue plutôt que le simple vote pour ou contre rendrait Community Notes plus transparent, pluraliste et résistant à la polarisation politique.
Profit et motivation
Une différence plus profonde entre Wikipédia et Grokipedia tient à leur finalité et, sans doute, à leur modèle économique. Wikipédia est géré par la fondation à but non lucratif Wikimedia Foundation, et la majorité de ses bénévoles sont motivés avant tout par l’intérêt général. À l’inverse, xAI, X et Grokipedia sont des entreprises commerciales.
Même si la recherche du profit n’est pas en soi immorale, elle peut fausser les incitations. Lorsque X a commencé à vendre sa vérification par coche bleue, la crédibilité est devenue une marchandise plutôt qu’un gage de confiance. Si le savoir est monétisé de manière similaire, le biais pourrait s’accentuer, façonné par ce qui génère le plus d’engagements et de revenus.
Le véritable progrès ne réside pas dans l’abandon de la collaboration humaine mais dans son amélioration. Ceux qui perçoivent des biais dans Wikipédia, y compris Musk lui-même, pourraient contribuer davantage en encourageant la participation d’éditeurs issus d’horizons politiques, culturels et démographiques variés – ou en rejoignant eux-mêmes l’effort collectif pour améliorer les articles existants. À une époque de plus en plus marquée par la désinformation, la transparence, la diversité et le débat ouvert restent nos meilleurs outils pour nous approcher de la vérité.
Taha Yasseri a reçu des financements de Research Ireland et de Workday.
17.11.2025 à 16:02
Collaborations art-science : qui ose vraiment franchir les frontières ?
Texte intégral (2171 mots)

Les collaborations entre scientifiques et artistes font régulièrement parler d’elles à travers des expositions intrigantes ou des performances artistiques au sein de laboratoires scientifiques. Mais qu’est-ce qui motive vraiment les chercheuses et les chercheurs à s’associer à des artistes ?
Art et science se sont historiquement nourris mutuellement comme deux manières complémentaires de percevoir le monde.
Considérons ainsi les principaux instituts états-uniens de sciences marines : tous sont dotés d’ambitieux programmes de collaboration art/science, mis en place à partir du tournant des années 2000. Le prestigieux Scripps Institution of Oceanography a, par exemple, développé une collection d’art privée, ouverte au public, pour « refléter des connaissances scientifiques objectives dans des œuvres d’art à la fois réalistes et abstraites ». À l’Université de Washington, des résidences d’artiste sont organisées, au cours desquelles des peintres passent entre un et trois mois au milieu des scientifiques des Friday Harbor Laboratories (une station de recherche en biologie marine), sur l’île reculée de San Juan.
Ces démarches semblent indiquer que les institutions scientifiques sont déjà convaincues du potentiel de la collaboration entre art et science. L’initiative ne vient pas toujours des laboratoires : nombre d’artistes ou de collectifs sollicitent eux-mêmes les chercheurs, que ce soit pour accéder à des instruments, à des données ou à des terrains scientifiques. En France comme ailleurs, plusieurs résidences – au CNRS, à Paris-Saclay ou dans des centres d’art – sont ainsi nées d’une démarche portée d’abord par les artistes.
Mais qu’en est-il des chercheurs eux-mêmes ? ceux-là même qui conçoivent, développent et réalisent les projets de recherche et qui a priori ont une sensibilité artistique qui n’est ni inférieure ni supérieure à la moyenne de la population. Quels sont ceux qui choisissent d’intégrer l’art dans leurs projets scientifiques ? Et pour quoi faire ? Les études disponibles ne sont pas très éclairantes sur le sujet, car elles se sont focalisées sur des scientifiques atypiques, passionnés par l’art et artistes eux-mêmes. Peu de travaux avaient jusqu’ici procédé à un recensement « tout azimuts » des pratiques.
Dans une étude récente, nous avons recensé les pratiques, des plus originales aux plus banales, en analysant plus de 30 000 projets de recherche financés par la National Science Foundation (NSF) aux États-Unis entre 2003 et 2023, dans les domaines des géosciences et de la biologie.
Une analyse textuelle du descriptif des projets permet de sortir de l’anecdotique pour révéler des tendances structurelles inédites. Cette source comporte toutefois des biais possibles : les résumés de projets sont aussi des textes de communication, susceptibles d’amplifier ou d’édulcorer les collaborations art/science. Pour limiter ces écarts entre discours et réalité, nous combinons analyse contextuelle des termes artistiques, comparaison temporelle et vérification qualitative des projets. Ce croisement permet de distinguer les effets d’affichage des pratiques réellement intégrées.
En France aussi, les initiatives art/science existent mais restent dispersées, portées par quelques laboratoires, universités ou centres d’art, sans base de données centralisée permettant une analyse systématique. Nous avons donc choisi les États-Unis, car la NSF fournit depuis vingt ans un corpus homogène, public et massif de résumés de projets, rendant possible un recensement large et robuste des collaborations art/science.
Trois façons d’associer les artistes
Pour commencer, les collaborations entre art et science sont très rares : moins de 1 % des projets ! Ce chiffre reste toutefois une estimation basse, car il ne capture que les collaborations déclarées par les chercheurs dans des projets financés : nombre d’initiatives impulsées par des artistes ou des collectifs échappent à ces bases de données. En revanche, leur fréquence a augmenté sans discontinuer sur les vingt années d’observation.
En analysant plus finement les projets, on peut identifier que l’artiste peut y jouer trois grands rôles. D’abord, il peut être un disséminateur, c’est-à-dire qu’il aide à diffuser les résultats auprès du grand public. Il ne contribue pas vraiment à la recherche mais joue le rôle d’un traducteur sans qui l’impact des résultats du projet serait moindre. C’est, par exemple, la mise sur pied d’expositions ambulantes mettant en scène les résultats du projet.
Ensuite, l’artiste peut intervenir comme éducateur. Il intervient alors en marge du projet, pour faire connaître un domaine scientifique auprès des enfants, des étudiants, ou de communautés marginalisées. L’objectif est de profiter d’un projet de recherche pour faire connaître un domaine scientifique de manière plus générale et susciter des vocations. Par exemple, l’un des projets prévoyait la collaboration avec un dessinateur de bande dessinée pour mieux faire connaître aux enfants les sciences polaires.
Enfin, dans des cas beaucoup plus rares, les artistes jouent un rôle de cochercheurs. Le recours au travail artistique participe alors à la construction même des savoirs et/ou des méthodes. Par exemple, un des projets réunissait des artistes et des chercheurs en neurosciences pour concevoir de nouvelles façons de visualiser les circuits nerveux du cerveau, et in fine créer de nouvelles formes de données scientifiques.
Ces différentes formes reflètent une tension encore vive dans le monde académique : l’art est majoritairement mobilisé pour « faire passer » la science, plutôt que pour nourrir la recherche elle-même. Pourtant, les projets les plus ambitieux laissent entrevoir un potentiel plus grand : celui d’une science transformée par le dialogue avec d’autres formes de connaissance.
Cette réflexion fait également écho à des considérations plus générales sur la complémentarité entre l’art et la science, non pas comme des disciplines opposées, mais comme deux approches différentes pour questionner le monde. Comme le formulait joliment un article publié dans The Conversation, il s’agit moins d’opposer l’art à la science que de leur permettre de « faire l’amour, pas la guerre », c’est-à-dire de collaborer pour produire de nouvelles formes de compréhension et d’engagement citoyen.
Au-delà de ces différentes façons d’associer les artistes à un projet, notre étude montre également que ces collaborations ne sont pas réparties au hasard. Certains scientifiques les pratiquent bien plus que d’autres, en fonction de leurs caractéristiques personnelles, leur contexte institutionnel et enfin les objectifs scientifiques de leur projet.
Une science plus ouverte… mais pas partout
Première surprise : ce ne sont pas les universités les plus prestigieuses qui s’ouvrent le plus à l’art. Au contraire, ce sont les institutions les moins centrées sur la recherche dite « pure » qui s’y engagent plus largement. Ces établissements s’appuient probablement sur l’art pour conduire des projets plutôt éducatifs, visant essentiellement à faire connaître la science au plus grand nombre.
Deuxième enseignement : les femmes scientifiques sont bien plus nombreuses que leurs homologues masculins à s’engager dans ces démarches. Cette surreprésentation est à rapprocher d’autres résultats montrant que les femmes scientifiques sont en moyenne plus engagées dans les activités de vulgarisation que les hommes – qui, eux, ont tendance à investir plus exclusivement les domaines supposés plus prestigieux, notamment ceux liés à la publication purement académique.
Ce biais de genre, loin d’être anecdotique, soulève des questions sur la manière dont la reconnaissance académique valorise (ou ignore) certains types d’engagement. Incidemment, ce résultat suggère aussi que promouvoir et financer des collaborations entre art et science serait un moyen a priori efficace de rééquilibrer les différences régulièrement constatées entre hommes et femmes.
L’art, catalyseur d’impact sociétal, mais pas sur tous les sujets
Alors que l’on demande de plus en plus aux scientifiques de démontrer l’impact de leurs travaux sur la société, beaucoup se trouvent mal préparés à cette tâche. Peintres, sculpteurs, écrivains, photographes, etc., ont l’habitude de s’adresser à un public large, de captiver l’attention et déclencher les émotions qui garantissent une impression. Leur interprétation du travail et des résultats scientifiques peut ainsi accroître la visibilité des recherches et susciter le changement. On pourrait donc s’attendre à ce que les projets les plus orientés vers des objectifs sociétaux ambitieux aient plus souvent recours aux artistes.
C’est globalement le cas, mais avec toutefois de grosses différences selon les défis sociétaux concernés, que nous avons classés suivants les grands objectifs de développement durable (ODD) édictés par l’ONU. Notamment, la collaboration art/science est bien plus fréquente dans les projets portant sur la biodiversité marine (ODD 14 « Vie aquatique ») que dans ceux axés sur l’action climatique (ODD 13).
Cette différence s’explique probablement en partie par la grande difficulté à rendre visibles ou compréhensibles certains phénomènes plutôt lointains de la vie quotidienne du grand public : l’acidification des océans, la dégradation des écosystèmes marins, etc. Le travail artistique permet de mobiliser les sens, créer des émotions, des narrations, des imaginaires, qui vont faciliter les prises de conscience et mobiliser les citoyens ou les pouvoirs publics. Bref, il va augmenter l’impact sociétal de la recherche sur ces sujets.
Lever les freins : une affaire de politiques scientifiques
Comment expliquer que ces collaborations restent somme toute très marginales dans le monde de la recherche ? Des défis persistent, tels que le manque de financements qui y sont consacrés ou le cloisonnement disciplinaire des recherches. En outre, l’incitation à explorer ces frontières reste très faible pour les chercheurs, dans un monde académique où la production de publications dans des revues spécialisées reste le critère de performance essentiel.
Intégrer l’art à un projet scientifique nécessite du temps, de la confiance et un changement de posture, souvent perçu comme risqué dans un milieu académique très normé. Mais des solutions existent sans doute : il s’agirait de former mieux les scientifiques à la collaboration, de financer des projets transdisciplinaires et de changer les critères d’évaluation de la recherche, pour valoriser les prises de risque.
À l’heure où la science est appelée à jouer un rôle majeur dans la transition écologique et sociale, l’art ne doit plus être considéré comme un simple emballage esthétique : il pourrait devenir un allié stratégique ! Il ne s’agit pas uniquement de « vulgariser » la science, mais bien de la faire résonner autrement dans les imaginaires, les émotions et les débats publics.
En écoutant celles et ceux qui osent franchir les murs du laboratoire, nous comprendrons peut-être mieux comment faire de la science de manière plus sensible, plus accessible et surtout plus transformatrice.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
17.11.2025 à 16:02
La guerre de communication derrière la pénurie de carburant au Mali
Texte intégral (3603 mots)
De nombreux articles ont déjà été publiés sur la pénurie de carburant provoquée au Mali par le blocus que les djihadistes imposent à la quasi-totalité du pays. La présente analyse propose une approche communicationnelle de cette crise sans précédent.
Dans une guerre, qu’elle soit conventionnelle ou asymétrique, comme c’est le cas au Mali et plus largement au Sahel, il est déconseillé de porter un coup avant d’en mesurer les conséquences. La pénurie de carburant actuelle résulte de l’amateurisme des autorités maliennes, qui ont été les premières à interdire la vente de carburant aux citoyens venant s’approvisionner avec des bidons. Cette décision s’inscrit dans leur stratégie visant à couper la chaîne d’approvisionnement des djihadistes afin de réduire la mobilité de ceux-ci. Dans la région de Nioro, les autorités militaires ont interdit, le 30 juillet 2025, « la vente de carburant dans des bidons ou des sachets plastiques ». Rappelons que les djihadistes ne sont pas les seuls à utiliser les bidons : les populations rurales s’en servent aussi, pour de multiples usages, notamment pour le fonctionnement des équipements agricoles.
À la suite de la décision du 30 juillet, le Groupe de soutien à l’islam et aux musulmans (Jama’at Nusrat ul-Islam wa al-Muslimin, JNIM) a étendu l’interdiction à l’ensemble de la population. Ainsi, dans une vidéo publiée le 3 septembre, l’organisation terroriste a adressé un message aux commerçants et aux chauffeurs de camions-citernes qui importent des hydrocarbures depuis les pays côtiers voisins du Mali, à savoir la Côte d’Ivoire, la Guinée, le Sénégal et la Mauritanie. Elle a annoncé des représailles à l’encontre de quiconque violerait cette décision.
Assis en tenue militaire, Nabi Diarra, également appelé Bina Diarra, porte-parole du JNIM, explique en bambara les raisons de ce blocus. Son porte-parolat met à mal l’argument selon lequel les djihadistes seraient exclusivement des Peuls, car Nabi Diarra est bambara. D’après lui :
« Depuis leur arrivée, les bandits qui sont au pouvoir [les militaires, ndlr] fatiguent les villageois en fermant leurs stations-service. Pour cette raison, nous avons également décidé d’interdire toutes vos importations d’essence et de gasoil, jusqu’à nouvel ordre. […] Ces bandits ont voulu priver les villageois d’essence et de gasoil, pensant que cela arrêterait notre activité de djihad. Est-ce qu’un seul de nos véhicules ou de nos motos s’est arrêté depuis le début de cette opération ? Aucun ! Nous continuons notre travail. Les conséquences ne touchent que les plus vulnérables. »
Après cette annonce, une centaine de camions-citernes ont été incendiés par les djihadistes sur différents axes. Des vidéos ont été publiées sur les réseaux sociaux par les auteurs afin de démontrer leurs capacités de nuisance. Dans une vidéo que nous avons pu consulter, un homme à moto montre près d’une quarantaine de camions-citernes incendiés sur la route nationale 7, entre Sikasso et la frontière ivoirienne.
Dans sa vidéo annonçant le blocus, le JNIM a également interdit la circulation de tous les autobus et camions de la compagnie Diarra Transport, qu’il accuse de collaborer avec l’État malien. Depuis, la compagnie a cessé ses activités. Après un mois d’inactivité, le 6 octobre, sa directrice générale Nèh Diarra a publié une vidéo sur les réseaux sociaux pour justifier les actions de son entreprise et, indirectement, présenter ses excuses aux djihadistes dans l’espoir que ces derniers autorisent ses véhicules à reprendre la route.
Le 17 octobre, dans une autre vidéo, arme de guerre et talkie-walkie en main, le porte-parole du JNIM a autorisé la reprise des activités de la compagnie de transport, dans un discours au ton particulièrement clément :
« Nous sommes des musulmans, nous sommes en guerre pour l’islam. En islam, si vous vous repentez après une faute, Allah accepte votre repentir. Donc, les gens de Diarra Transport ont annoncé leur repentir, nous allons l’accepter avec quelques conditions. La première est de ne plus vous impliquer dans la guerre qui nous oppose aux autorités. Transportez les passagers sans vérification d’identité. La deuxième condition va au-delà de Diarra Transport : tous les transporteurs, véhicules personnels, même les mototaxis, doivent exiger des femmes qu’elles portent le hijab afin de les transporter. »
Pour finir, il exige de tous les conducteurs qu’ils s’arrêtent après un accident afin de remettre les victimes dans leurs droits. Une manière de montrer que les membres du JNIM sont des justiciers, alors qu’ils tuent fréquemment des civils innocents sur les axes routiers. Le cas le plus récent et le plus médiatisé remontait à deux semaines plus tôt : le 2 octobre, le JNIM avait mitraillé le véhicule de l’ancien député élu à Ségou et guide religieux Abdoul Jalil Mansour Haïdara, sur l’axe Ségou-Bamako, le tuant sur place. Il était le promoteur du média Ségou TV.
Dans les gares routières de Diarra Transport, des scènes de liesse ont suivi l’annonce de la reprise. La compagnie a même partagé la vidéo du JNIM sur son compte Facebook, avant de la supprimer plus tard. Le lendemain, elle a annoncé la reprise de ses activités, avant que le gouvernement malien ne les suspende à son tour.
Revenons au blocus sur le carburant. Il ne concerne pas uniquement Bamako, comme on peut le lire dans de nombreux articles de presse. Il couvre l’ensemble du territoire national.
Cependant, les médias concentrent leur couverture sur la situation dans la capitale, principal symbole politique de la souveraineté des autorités en place. Les analyses, notamment celles des médias étrangers, gravitent autour d’une question centrale : Bamako va-t-elle tomber ? Nous répondons : le Mali ne se limite pas à Bamako. Toutes les localités du pays sont affectées par ce blocus. Les habitants des autres localités méritent autant d’attention que les Bamakois.
Pays enclavé, au commerce extérieur structurellement déficitaire, le Mali dépend totalement des importations. Les régions de Kayes, plus proche du Sénégal, et de Sikasso, plus proche de la Côte d’Ivoire, sont toutefois moins impactées par ce blocus, qui est particulièrement concentré autour de Bamako. Les attaques sont principalement menées sur les voies menant à la capitale. Des actions sporadiques ont également été signalées sur l’axe Bamako-Ségou, afin de priver les régions du centre, comme Ségou et Mopti, d’hydrocarbures. Dans la ville de Mopti, les habitants manquent de carburant depuis deux mois. Depuis un mois, ils n’ont pas eu une seule minute d’alimentation électrique. Ils ne réclament d’ailleurs plus l’électricité, devenue un luxe : ils recherchent plutôt du carburant pour pouvoir vaquer à leurs occupations.
La violence des mots pour camoufler l’insuffisance des actes
Confrontées à la crise, les autorités, tant régionales que nationales, ont préféré masquer l’impuissance par la désinformation, l’appel mécanique à la résilience et la censure des voix critiques.
Le 23 septembre, le gouverneur de la région de Mopti a présidé une réunion de crise consacrée à la pénurie de carburant. Au lieu de s’attaquer aux racines du mal, le directeur régional de la police, Ibrahima Diakité, s’en est pris aux web-activistes de la région, couramment appelés « videomen (ils prononcent videoman) » au Mali, qui, selon lui, se font particulièrement remarquer par leur « incivisme ». Les créateurs de contenus sont blâmés et menacés par la police pour avoir diffusé des faits et alerté sur les souffrances qu’ils vivent, à l’image de l’ensemble de la population. Au lieu de s’en prendre aux djihadistes, M. Diakité dénigre les citoyens qui publient sur les réseaux sociaux des images de longues files de conducteurs attendant désespérément d’être servis dans les stations-service :
« Si nous entendons n’importe quel “videoman” parler de la région de Mopti, il ira en prison. Il ira en prison ! Celui qui parle au nom de la région ira en prison, parce que c’est inadmissible ! […] Ils mettent Mopti en sellette, oubliant que les réseaux [sociaux, ndlr] ne se limitent pas au Mali. »
Il exige donc de censurer tout propos mettant en évidence l’incompétence des autorités à pallier un problème qui compromet leur mission régalienne. Au lieu de rassurer la population en annonçant des politiques qui atténueront sa souffrance, il opte pour la censure et la menace d’emprisonnement. Dans sa vocifération autoritaire, il mobilise un récit classique en appelant à préserver l’image du pays et en présentant les web-activistes comme des ennemis de celui-ci, des ignorants qui ne comprennent rien aux événements en cours :
« On est dans une situation où les gens ne comprennent rien de ce qui se passe dans leur pays et ils se permettent de publier ce genre de vidéo. Mais c’est le Mali tout entier qui est vilipendé à travers ce qu’ils disent, parce que le monde le voit. […] Ils sont en train d’aider l’ennemi contre le pays. Monsieur le gouverneur, il faut saisir le moment pour remettre ces gens à leur place, pour les amener à comprendre que, dans un État, tant que tu es Malien et que tu restes au Mali, tu respectes la loi ; sinon, tu quittes notre pays si tu ne veux pas te soumettre aux lois de la République. »
Le policier s’est substitué au législateur en appelant le gouverneur à adopter une loi autorisant la censure médiatique locale de cette crise.
Dans les heures qui ont suivi, de nombreux journalistes et web-activistes l’ont interpellé sur les réseaux sociaux pour obtenir des explications concernant l’existence d’une loi malienne prohibant la diffusion d’informations factuelles. Les contenus des web-activistes n’ont pas pour objectif de ternir l’image du pays. Contrairement à ce que laisse entendre le directeur régional de la police, il n’est pas plus malien qu’eux. Il ne lui revient pas non plus de décider qui doit quitter le pays.
Nous observons un clivage général au sein de la population malienne. Les dirigeants et leurs soutiens estiment que tous les citoyens doivent obligatoirement soutenir la transition. Ceux qui la critiquent sont qualifiés de mauvais citoyens, voire d’apatrides. Cette pression a étouffé le pluralisme et la contradiction dans l’espace médiatique.
« Ils ont su créer la pénurie de carburant dans la tête des Maliens »
Pendant que les citoyens passent la nuit dans les files d’attente pour s’approvisionner en carburant, l’un des désinformateurs du régime, adepte des théories du complot, Aboubacar Sidiki Fomba, membre du Conseil national de transition, a livré, dans un entretien avec un videoman, des explications qui défient tout entendement. Dans cette vidéo publiée le 7 octobre, il établit un lien entre la stratégie du JNIM et la volonté de l’Alliance des États du Sahel (AES, qui regroupe le Mali, le Burkina Faso et le Niger) de créer sa propre monnaie. D’après lui, l’objectif de ce blocus, qu’il présente comme la dernière stratégie des terroristes, est de porter atteinte au pouvoir d’Assimi Goïta et à l’AES :
« Ils attaquent les citernes, puis font croire aux populations qu’il y a une pénurie de carburant, alors qu’il n’y en a pas. Mais ils convainquent tout le monde qu’il y a une pénurie. Ils créent la psychose. Sous l’effet de la panique, les citoyens provoquent eux-mêmes une pénurie qui, à l’origine, n’existait pas. »
Dans la même vidéo, il dissocie les coupures d’électricité de la pénurie de carburant, expliquant les premières par des problèmes de remplacement de câbles électriques défaillants. Pourtant, c’est bien le manque de carburant qui est à l’origine des coupures d’électricité observées ces dernières années. Le blocus n’a été qu’un accélérateur d’une crise énergétique déjà déclenchée. Il a considérablement réduit les capacités de production énergétique. Selon une étude conduite par le PNUD, en 2020, « la production électrique était de 2 577,44 GWh (69 % thermique, 26,8 % hydraulique et 4,2 % solaire photovoltaïque) ».
Le pays doit accélérer sa transition énergétique afin de réduire sa dépendance aux importations d’hydrocarbures et de limiter ses émissions de gaz à effet de serre. En plus de la crise énergétique, ce blocus a également entraîné une pénurie d’eau potable dans la région de Mopti, le gasoil étant utilisé pour la production et la distribution d’eau.
Le même parlementaire s’est ensuite attaqué aux conducteurs de camions-citernes, les accusant de « complicité avec les terroristes ». Selon lui, les conducteurs simuleraient des pannes pour quitter les convois escortés par l’armée et revendre leur cargaison d’hydrocarbures aux groupes djihadistes. À la suite de cette déclaration, le Syndicat national des chauffeurs et conducteurs routiers du Mali (Synacor) a lancé un mot d’ordre de grève et déposé une plainte contre Fomba pour diffamation. Au lieu d’apporter la preuve de ses accusations, ce dernier a finalement présenté ses excuses aux conducteurs de camions-citernes. Il avait auparavant annoncé la mort de Nabi Diarra et qualifié de deepfake les vidéos du porte-parole du JNIM – une énième fausse information. Par la suite, le porte-parole a diffusé des vidéos dans lesquelles il précise la date d’enregistrement et se prononce sur des faits d’actualité.
Le pouvoir dénonce la piste ukrainienne
Au sommet de l’État, lors d’un déplacement dans la région de Bougouni le 3 novembre, le président de la transition a appelé les Maliens à faire preuve de résilience et à limiter les sorties inutiles. Assimi Goïta a tenté de rassurer la population et de dissuader ceux qui apportent leur aide aux djihadistes : « Si nous refusons de mener cette guerre, nous subirons l’esclavage qui en sera la conséquence », a-t-il déclaré face aux notables de la région. Il a salué le courage des chauffeurs et des opérateurs économiques pour leurs actes de bravoure. En effet, depuis l’instauration du blocus, les premiers risquent leur vie, et les seconds voient leur investissement menacé.
Assimi Goïta a laissé entendre que des puissances étrangères soutiennent les actions des djihadistes. Il convient de rappeler que l’Ukraine a apporté son aide aux rebelles séparatistes du Cadre stratégique permanent (CSP), lesquels coopèrent parfois avec le JNIM dans le nord du pays. Alors que les djihadistes revendiquent l’application de la charia, les rebelles exigent la partition du territoire. Les deux mouvements se sont, à plusieurs reprises, alliés pour combattre l’armée malienne. Le 29 juillet 2024, Andriy Yusov, porte-parole du renseignement militaire ukrainien (GUR), a sous-entendu, lors d’une émission de télévision locale, que son service était en relation avec les rebelles indépendantistes du nord du Mali. Après la dissolution du CSP fin 2024, l’Ukraine a poursuivi son aide au groupe rebelle qui a pris le relais au nord du Mali, le Front de Libération de l’Azawad (FLA). Parmi les actions, nous pouvons noter « la visite de conseillers militaires ukrainiens dans un camp du FLA l’an dernier. Dans la foulée, plusieurs combattants du FLA sont envoyés en Ukraine. De retour dans le désert, ils adoptent les mêmes tactiques que celles de l’armée ukrainienne contre les positions russes ».
Cette aide fournie par l’Ukraine s’inscrit dans le prolongement du conflit qui l’oppose à la Russie, devenue le principal partenaire du Mali dans la lutte contre le terrorisme depuis la fin de la coopération militaire avec la France en 2022. Grâce à ce nouveau partenariat, la ville de Kidal contrôlée par les rebelles depuis 2012 a pu être reprise en novembre 2023. Toutefois, la situation sécuritaire s’est détériorée dans le reste du pays, les djihadistes ayant renforcé leur influence et étendu leur présence à l’ensemble des régions.
Les autorités maliennes estiment que cette assistance ukrainienne est soutenue par la France, qui souhaiterait l’échec de la transition. Dans leurs éléments de langage, les responsables de la transition expliquent tous leurs problèmes par des complots contre leur régime et contre le Mali. Toutes les difficultés et incompétences sont justifiées par « l’acharnement de la France » contre la transition. L’ancienne puissance coloniale a pour sa part ouvertement montré son opposition à cette transition qu’Emmanuel Macron qualifie de « l’enfant de deux coups d’État ».
La guerre de communication est au cœur de la crise malienne et ne semble pas devoir s’arrêter si tôt. Pendant que les médias occidentaux commentent l’éventualité d’une prise de Bamako par le JNIM, le gouvernement malien a inauguré le 11 novembre le Salon international de la défense et de la sécurité intitulé Bamex 25. Cette exposition turque est, pour la transition malienne, un autre moyen de communiquer au monde que la situation sécuritaire est sous contrôle.
Ayouba Sow ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
17.11.2025 à 11:40
Le contrôle en cours de redéfinition à l’ère du travail à distance. Mais cela va-t-il dans le bon sens ?
Texte intégral (2372 mots)
Le télétravail en éloignant les salariés de leur manager a-t-il augmenté ou réduit le contrôle des tâches et du temps de travail ? De nouvelles formes et pratiques de management sont-elles apparues ? Dans quelle mesure sont-elles cohérentes avec les nouvelles façons de travailler à l’ère numérique ?
Alors que le contrôle du temps de travail et le droit à la déconnexion sont des obligations de l’employeur pour protéger la santé des salariés, l’étude 2025 de l’Observatoire du télétravail (Ugict-CGT) révèle que le Code du travail n’est pas respecté concernant ces deux dimensions.
En effet, malgré les bouleversements induits par le développement du travail à distance, les pratiques de contrôle restent assez limitées et s’orientent principalement vers la surveillance des temps de connexion, non pas dans l’objectif de les réguler comme le voudrait la loi, mais au contraire comme une attestation que le travail est effectué.
Cette pratique ne présage pas de l’implication et de la performance des télétravailleurs, mais révèle en revanche un manque de considération pour les conditions dans lesquelles le travail est exercé alors que l’employeur en est juridiquement responsable.
Du lien de subordination
Le contrôle fait partie inhérente du travail salarié et de la relation d’emploi formalisée par le lien contractuel employeur/employé, qui induit légalement un lien de subordination
Le contrat de travail est une
« convention par laquelle une personne s’engage à mettre son activité à la disposition d’une autre personne (physique ou morale), sous la subordination de laquelle elle se place, moyennant une rémunération ».
Le lien de subordination est donc consubstantiel à tout contrat de travail (quel qu’en soit le type) et renvoie au
« lien par lequel l’employeur exerce son pouvoir de direction sur l’employé : pouvoir de donner des ordres, d’en contrôler l’exécution et de sanctionner la mauvaise exécution des ordres ».
Le contrôle du travail concerne ainsi de manière très large l’exécution des tâches confiées par l’employeur.
À lire aussi : Le télétravail est-il devenu le bouc émissaire des entreprises en difficulté ?
Des modalités de contrôle peu novatrices
Avec le développement du télétravail et l’éclatement des unités de lieu, de temps et d’action, on aurait pu s’attendre à une évolution des modalités avec laquelle s’exerce ce lien de subordination et l’activité de contrôle qui lui est inhérente : la surveillance visuelle par les comportements n’est en effet plus possible lorsque les missions confiées sont réalisées à distance. L’enquête menée par l’Observatoire du télétravail de l’Ugict-CGT auprès de 5 336 télétravailleurs ne montre cependant pas de transformations profondes. Elle atteste en revanche de pratiques qui ne sont pas à la hauteur des enjeux.
Si de plus en plus de salariés se sentent surveillés en télétravail, ils restent une minorité. En outre, la perception du contrôle est relativement faible. C’est seulement le cas de 17 % des répondants, contre 8 % lors de la précédente enquête menée en 2023.
A contrario, tout comme dans l’enquête précédente (2023), une forte majorité de salariés (79 %) ne savent pas s’ils sont contrôlés et n’ont pas été informés des dispositifs utilisés. Ces chiffres suggèrent que ce contrôle pourrait s’exercer à leur insu ou au travers de pratiques informelles déviantes.
Par ailleurs, lorsqu’ils sont identifiés, les dispositifs de contrôle ne sont guère novateurs et s’appuient encore largement sur le traditionnel reporting a posteriori plutôt que sur de nouvelles modalités technologiques en temps réel (IA, frappes de clavier, mouvements de souris, caméras). Le contrôle s’exerce ainsi avant tout sur les résultats de l’activité (plutôt que sur l’activité en train de se faire), en phase avec un management par objectifs qui sied mieux au travail à distance que le micromanagement, mais qui est loin d’être nouveau puisqu’il a été théorisé dans les années 1950 par Peter Drucker.
Transposition du réel au virtuel
Les modalités de contrôle consistent souvent en une transposition simple dans le monde virtuel les pratiques qui avaient déjà cours sur site : système de badge numérique (22,6 %) et feuille de temps (12,67 %).
Les verbatim recueillis lors de l’enquête révèlent en outre que, pour les télétravailleurs interrogés, ce contrôle consiste avant tout à s’assurer qu’ils sont bien connectés : « Le logiciel utilise le contrôle des connexions et leur durée », « Contrôle connexion permanent », « Heure de connexion/déconnexion sur Teams », « Suspicion de surveillance par le statut en veille de Teams ».
Ces témoignages traduisent une forme de glissement, d’un contrôle de l’activité à un contrôle de la disponibilité. Autrement dit, le contrôle ne renvoie plus à une mesure de la performance, mais à une preuve de présence – qui n’assure pas pour autant que le travail demandé est effectivement réalisé. Il s’agit donc davantage de regarder « le nombre d’heures de connexion du salarié que la qualité des contributions ou des échanges »
Impératif de présence
Cet impératif de présence peut par ailleurs s’étendre au-delà du temps de travail avec des sollicitations hors horaires (avant 9 heures ou après 19 heures). Si ces pratiques restent minoritaires, elles concernent tout de même un peu plus d’un salarié sur cinq régulièrement, et seul un tiers des répondants disent ne jamais y être confrontés.
Cette situation présente ainsi le risque de voir se développer « des journées de travail à rallonge » qui ne respectent pas les temps de repos légaux. Notons cependant que pour les répondants, ces sollicitations hors horaires ne sont pas directement liées au télétravail : plus de neuf personnes sur dix déclarent que ces situations ne sont pas plus fréquentes lorsqu’elles sont en télétravail que lorsqu’elles sont sur site.
Ce phénomène serait ainsi davantage lié à la « joignabilité » permanente permise par les outils numériques et à leur usage non régulé, quel que soit le lieu où s’exerce l’activité professionnelle.
Des pratiques en décalage avec le Code du travail
Il en ressort ainsi une vision assez pauvre du contrôle, qui pose par ailleurs problème au regard de nombreux articles du Code du travail qui ne sont pas respectés :
Articles L3131-1 à L3131-3 : l’employeur doit contrôler le volume horaire, l’amplitude, les maxima et les temps de repos.
Article L4121-1 : l’employeur a l’obligation de protéger la santé et la sécurité des travailleurs.
Article L1121-1 : les restrictions des libertés individuelles ne sont possibles que si elles sont justifiées et proportionnées.
Article L1222-4 : aucune donnée personnelle ne peut être collectée sans information préalable du salarié.
Article L2242-17 : droit à la déconnexion qui impose la mise en place de dispositifs de régulation de l’utilisation des outils numériques, en vue d’assurer le respect des temps de repos et de congé ainsi que de la vie personnelle et familiale
Ainsi, le contrôle du travail n’implique pas seulement un droit de surveiller et de sanctionner de la part de l’employeur, il inclut également un devoir de protection des salariés.
Le télétravail lève ainsi le voile sur l’ambivalence du contrôle, tel qu’il est inscrit dans le Code du travail et tel qu’il est mis en œuvre par les entreprises. Comme le résume bien un télétravailleur interrogé dans le cadre des entretiens qualitatifs menés en complément de l’enquête :
« On a un outil qui permet non pas de contrôler qu’on travaille trop, mais de contrôler qu’on est bien connecté. »
Contrôler, c’est veiller… ou presque
À cet égard, il peut être utile de rappeler l’étymologie du terme « contrôle . En vieux français, le terme « contrerole » est le « rôle opposé », le « registre tenu en double », permettant de vérifier l’exactitude et de réguler. Il est proche du terme « surveiller », qui est un dérivé de « veiller ». Ces origines étymologiques acquièrent une nouvelle portée à l’heure du télétravail en questionnant l’objet et l’objectif du contrôle : s’agit-il de contrôler uniquement le travail pour sanctionner sa mauvaise exécution ? N’est-il pas aussi question de contrôler les conditions dans lesquelles il est réalisé dans l’objectif de veiller au respect des droits des travailleurs ?
La question du contrôle s’inscrit pleinement dans les problématiques du travail hybride, à la fois en télétravail mais également sur site.
En effet, alors que le débat sur le « retour au bureau » agite les organisations, avec des annonces très médiatisées de certaines grandes entreprises, on peut questionner là aussi la notion du contrôle.
Du côté des employeurs, l’argumentaire principalement utilisé pour justifier le retour au bureau est celui du délitement des liens sociaux et ses conséquences potentielles sur l’intelligence collective sous toutes ses formes. Du côté des salariés et de leurs représentants subsiste une légitime suspicion quant à l’association entre présence sur site et contrôle.
Insaisissable objet du contrôle
Il y a donc une tension dans les organisations. Mais on manque de précision sur ce qu’on souhaite contrôler. Deux ensembles de questions demeurent. D’une part, celles relatives à la surveillance. Est-on encore dans l’idée que la présence physique prouve le travail effectué ? Contrôle-t-on la quantité de travail ? Sa qualité ? La volonté d’une présence physique a-t-elle pour objectif de surveiller en temps réel le salarié à sa tâche, possiblement en l’absence de confiance ? D’autre part, celles relatives à l’accompagnement et au soutien. Le management est-il meilleur en co-présence ? Le soutien social est-il meilleur sur site ? La circulation de l’information trouve-t-elle de plus efficaces canaux ?
À l’évidence, le débat sur le retour au bureau est clivant, mais il pourrait l’être moins si l’on questionnait la valeur ajoutée réelle pour le salarié, pour son travail, pour sa satisfaction et donc pour sa performance, de se rendre sur site plutôt que de rester chez lui. La question n’est donc pas de savoir s’il faut contrôler, mais comment le faire !
Le lien de subordination demeure consubstantiel au contrat de travail – il fonde le pouvoir de direction, d’organisation et de sanction de l’employeur. Mais ce pouvoir doit s’exercer dans les bornes que fixe le droit : celles du respect, de la proportionnalité et de la santé au travail.
Ceci questionne une nouvelle éthique du management : veiller et protéger plutôt que surveiller ; réguler et animer plutôt que traquer. S’il est de sa responsabilité de garantir que ses équipes atteignent les performances attendues, le manager doit également le faire en s’assurant de la qualité et de la légalité des conditions dans lesquelles ces performances sont réalisées.
Cet article a été co-écrit avec Nicolas Cochard, directeur de la recherche du groupe Kardham, enseignant en qualité de vie au travail (QVT) en master RH à l’Université Paris Nanterre.
Suzy Canivenc est membre de l'OICN (Observatoire de l''Infobésité et de la Collaboration Numérique) et Directrice scientifique de Mailoop
Caroline Diard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
17.11.2025 à 11:32
Pourquoi les réunions de travail nuisent au bien-être
Texte intégral (1147 mots)

Trop nombreuses, trop longues et inefficaces, les réunions de travail, loin d’être de simples outils de coordination, peuvent devenir de véritables moteurs de mal-être. Comment y remédier ? Analyse par la science… des réunions.
Quiconque travaille dans une organisation le sait : les réunions s’enchaînent à un rythme effréné. En moyenne, les managers y passent vingt-trois heures par semaine. Une grande partie de ces échanges est jugée de faible valeur, voire totalement contre-productive. Le paradoxe de cette frénésie est que de mauvaises réunions en génèrent encore davantage… pour tenter de réparer les précédentes.
Pendant longtemps, les réunions n’ont pas été étudiées comme un objet de recherche en soi ; elles servaient de contexte à l’analyse, mais rarement d’unité centrale. Un manuel publié en 2015 a posé les bases de ce champ émergent, la « science des réunions ». Le véritable problème ne tient pas tant au nombre de réunions qu’à leur conception, au manque de clarté de leurs objectifs, et aux inégalités qu’elles renforcent souvent inconsciemment.
Se réunir nourrit le bien-être, ou lui nuit
Notre série d’études menées pendant et après la pandémie de Covid-19 souligne que les réunions peuvent à la fois nourrir le bien-être des participants et lui nuire. Trop de réunions peuvent conduire au burn-out et à l’envie de quitter son organisation ; mais elles peuvent aussi renforcer l’engagement des employés.
Le recours massif au télétravail et aux réunions virtuelles, accéléré par la pandémie, a introduit de nouvelles sources de fatigue : surcharge cognitive, hyperconnexion, effacement des frontières entre vie professionnelle et personnelle. Ces réunions en ligne favorisent aussi des interactions sociales continues et permettent de mieux percevoir la place de chacun dans l’organisation.
Les femmes parlent moins en visioconférence
Ces nouveaux formats de réunion ne sont pas vécus par tous de la même manière.
Un constat frappant concerne le temps de parole. Dans notre enquête menée auprès de centaines d’employés, les résultats sont clairs. Les femmes rapportent avoir plus de difficultés à s’exprimer en réunion virtuelle qu’en présentiel. Les causes sont multiples : interruptions plus fréquentes, invisibilité sur les écrans partagés, difficulté à décoder les signaux non verbaux, ou encore la double charge mentale lorsque les réunions se tiennent à domicile.
Autrement dit, les réunions en ligne – censées démocratiser l’accès – peuvent, si l’on n’y prend pas garde, renforcer les inégalités de genre.
Une réunion doit se concevoir, pas se subir
Face à cette folie des réunions, la solution n’est pas de les supprimer, mais de mieux les concevoir. Tout commence par une question simple, souvent oubliée : pourquoi nous réunissons-nous ?
Selon notre série d’études couvrant plusieurs milliers de réunions, il existe quatre grands objectifs :
- Partager de l’information ;
- Prendre des décisions ;
- Exprimer des émotions ou des opinions ;
- Construire des relations de travail.
Chacun de ces objectifs exige des conditions spécifiques, comme voir les visages, entendre les intonations, observer les réactions, partager un écran, etc. Aucun format (audio, visioconférence, hybride ou présentiel) n’est universellement le meilleur. Le mode choisi doit dépendre de l’objectif principal, et non d’une habitude ou d’une commodité technologique.
Plus encore, la recherche identifie des leviers simples mais puissants pour améliorer l’expérience collective :
Partager à l’avance un ordre du jour clair et les documents nécessaires pour préparer les participants ;
Varier les modes de prise de parole grâce à des outils de « main levée », des chats anonymes, ou des tours systématiques ;
Jouer un vrai rôle de modération. Les responsables de réunion doivent équilibrer les interventions, encourager la participation et éviter les dynamiques d’exclusion.
Miroir de la culture organisationnelle
Les réunions ne sont jamais neutres. Elles reflètent – souvent inconsciemment – la culture, les rapports de pouvoir et les priorités implicites d’une organisation. Les données sont claires, les pistes d’amélioration existent. Reste aux entreprises et à leurs dirigeants à reconnaître le pouvoir transformateur des réunions.
Une organisation où seules les voix les plus fortes se font entendre en réunion est rarement inclusive en dehors. À l’inverse, des réunions bien menées peuvent devenir des espaces de respect et d’innovation collective.
L’objectif n’est pas d’avoir moins de réunions, mais de meilleures réunions. Des réunions qui respectent le temps et l’énergie de chacun. Des réunions qui donnent une voix à tous. Des réunions qui créent du lien.
Article écrit avec le Dr Arnaud Stiepen, expert en communication et vulgarisation scientifiques.
Willem Standaert ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
17.11.2025 à 11:32
Pour la première fois, une étude révèle ce qui se passe dans le cerveau d'un entrepreneur
Texte intégral (1471 mots)

L’entrepreneuriat façonne-t-il le cerveau ? Certaines personnes naissent-elles avec des caractéristiques cérébrales qui les prédisposent à entreprendre ? Pour tenter de répondre à ces questions, une étude récente explore le fonctionnement du cerveau d’entrepreneurs grâce à l’imagerie par résonance magnétique fonctionnelle, une technique qui permet de visualiser l’activité cérébrale.
Si l’on reconnaît l’importance des processus cognitifs chez les entrepreneurs
– comment pensent-ils et agissent-il face à l’incertitude ? –, on s’est peu intéressé à l’étude de leur cerveau lorsqu’ils prennent leurs décisions.
Pourquoi certains individus semblent exceller dans la création d’entreprises et naviguent habilement à travers l’incertitude, tandis que d’autres peinent à s’adapter ?
Pour tenter de faire la lumière sur la réponse à cette question, nous avons mené des travaux faisant converger neurosciences et recherche en entrepreneuriat. Nous avons en effet exploré l’activité cérébrale chez des entrepreneurs grâce à une technique d’imagerie médicale, l’imagerie par résonance magnétique fonctionnelle (IRMf).
Fruit d’une collaboration entre le centre de recherche interdisciplinaire en sciences biomédicales GIGA Consciousness Research Unit de l’Université de Liège (Belgique) et le Centre hospitalier universitaire (CHU) de Liège, notre étude ouvre de nouvelles perspectives sur la manière dont les entrepreneurs abordent la prise de décision, gèrent l’incertitude et exploitent de nouvelles opportunités.
Imagerie par résonance magnétique fonctionnelle (IRMf)
L’IRMf permet de visualiser l’activité cérébrale en mesurant les variations du flux sanguin dans le cerveau. Cette méthode repose sur un principe simple : lorsqu’une région du cerveau est activée, elle consomme plus d’oxygène, ce qui entraîne une augmentation du flux sanguin vers cette zone. Ce surplus d’oxygène modifie légèrement les propriétés magnétiques du sang. C’est cette différence que l’IRMf mesure pour créer des cartes d’activité cérébrale en temps réel, offrant ainsi une vue détaillée de la fonction cérébrale.
Plus précisément, notre étude s’est concentrée sur 23 entrepreneurs habituels
– c’est-à-dire ceux qui ont lancé plusieurs entreprises, en les comparant à 17 managers travaillant dans de grandes organisations.
L’analyse de connectivité en état de repos basée sur une région cérébrale d’intérêt (seed-based resting state fMRI) a révélé que ces entrepreneurs expérimentés présentent une connectivité neuronale accrue entre certaines régions de l’hémisphère droit du cerveau : l’insula et le cortex préfrontal. Ces zones jouent un rôle dans la flexibilité cognitive et la prise de décisions exploratoires, c’est-à-dire la capacité à ajuster sa stratégie et à penser autrement face à des situations nouvelles ou incertaines.
Mieux gérer l’incertitude
Ce réseau cérébral plus connecté pourrait contribuer à expliquer pourquoi ces entrepreneurs semblent mieux armés pour gérer l’incertitude et faire preuve de flexibilité cognitive, des capacités souvent associées à l’identification d’opportunités entrepreneuriales.
Que ce soit de manière séquentielle – les serial entrepreneurs, qui créent une entreprise après l’autre – ou de façon concurrente – les portfolio entrepreneurs qui gèrent plusieurs entreprises en même temps –, ces profils paraissent exceller dans l’art de s’adapter rapidement. Une compétence précieuse dans le monde des start-ups, où les repères sont rarement stables.
Une autre étude, portant sur le même groupe d’entrepreneurs et de managers met en lumière un autre phénomène intrigant : ces entrepreneurs habituels présentent un volume de matière grise plus important dans l’insula gauche. Bien que l’étude n’ait pas directement mesuré la pensée divergente, d’autres travaux ont montré que l’augmentation du volume de matière grise dans l’insula gauche est associée à cette capacité – c’est-à-dire la faculté de générer de nombreuses idées différentes pour résoudre un même problème.
Ce qui suggère que les différences observées chez ces entrepreneurs pourraient refléter une plus grande propension à la pensée divergente.
Une question essentielle reste ouverte : l’entrepreneuriat façonne-t-il le cerveau… ou bien certaines personnes naissent-elles avec ces caractéristiques cérébrales qui les prédisposent à entreprendre ?
Autrement dit, sommes-nous entrepreneurs par nature ou par culture ?
Nature ou culture ?
Cette interrogation est aujourd’hui au cœur des nouveaux projets de recherche menés par l’équipe d’HEC Liège et du Centre de recherche du cyclotron (CRC) de l’Université de Liège. Cette orientation de recherche s’appuie sur le concept de « plasticité cérébrale », c’est-à-dire la capacité du cerveau à se modifier sous l’effet des expériences et des apprentissages.
Si le cerveau est capable de renforcer certains réseaux neuronaux grâce à l’entraînement, comme on muscle son corps par le sport, alors l’expérience entrepreneuriale répétée pourrait elle-même être un facteur de développement de ces connexions particulières. À l’inverse, si ces différences cérébrales sont présentes dès le départ, cela poserait la question de traits cognitifs ou neurobiologiques favorisant l’esprit d’entreprise.
Pour répondre à ces questions, de nouveaux travaux sont en cours au sein du laboratoire et du GIGA-CRC, avec notamment des études longitudinales visant à suivre l’évolution des cerveaux d’entrepreneurs au fil de leur parcours, mais aussi des comparaisons avec de jeunes porteurs de projets ou des aspirants entrepreneurs.
L’enjeu est de mieux comprendre si, et comment, l’expérience de l’entrepreneuriat peut façonner notre cerveau. Cette nouvelle phase de la recherche est en cours et entre dans une phase clé : le recrutement des participants pour une étude en imagerie par résonance magnétique (IRM). Nous recherchons des volontaires, entrepreneurs ou non, prêts à contribuer à cette exploration scientifique inédite sur les effets de la pratique entrepreneuriale sur le cerveau.
Former les futurs entrepreneurs
L’intégration des neurosciences dans l’étude de l’entrepreneuriat offre une perspective novatrice sur les facteurs qui pourraient contribuer à l’esprit entrepreneurial. En comprenant si – et comment – l’expérience entrepreneuriale influence la structure et la fonction cérébrales, il deviendrait possible de concevoir des approches de formation spécifiques pour favoriser l’esprit d’entreprendre. On pourrait, par exemple, imaginer de mettre au point des exercices pratiques et des approches d’apprentissage immersif afin de développer chez les étudiants les compétences observées chez des entrepreneurs habituels.
Cet article a été rédigé avec l’aide du Dr Arnaud Stiepen, expert en communication et vulgarisation scientifiques.
Frédéric Ooms a été financé par une subvention ARC (Actions de Recherche Concertée) de la Fédération Wallonie‑Bruxelles.
17.11.2025 à 10:20
Intelligence économique : de la compétition à la coopération
Texte intégral (1219 mots)
La notion d’intelligence économique renvoie au moins à deux réalités différentes. Moins offensive, elle peut être un levier pertinent pour favoriser la collaboration entre les entreprises et leur environnement et pour rendre les écosystèmes plus résilients.
Depuis les années 1990, l’intelligence économique oscille entre deux modèles antagonistes : l’un, hérité de la « competitive intelligence » qui en fait une arme de guerre économique ; l’autre, issu de la « social intelligence » qui la conçoit au service d’un développement partagé. Aujourd’hui, face à l’incertitude croissante, des dirigeants d’entreprise semblent privilégier la seconde voie, celle de la coopération et de la responsabilité collective.
Deux visions
Popularisée dans les années 1990, l’intelligence économique s’est imposée en France comme une boîte à outils stratégique. Elle aide les organisations à anticiper les évolutions, à protéger leurs ressources et à influencer leur environnement à leur avantage. Son principe est simple : l’information est vitale. Il faut la collecter, l’analyser, la partager et la protéger via par exemple des pratiques de veille, de prospective, de sécurité économique et numérique, de protection des savoir-faire, d’influence et de lobbying. Mais derrière cette définition se cachent deux visions opposées.
La première voit l’intelligence économique comme une arme au service de la compétition. La seconde la conçoit comme un bien commun, au service de la société.
La première, popularisée par Michael Porter au début des années 1980, s’inscrit dans le courant de la « competitive intelligence ». La maîtrise de l’information permet d’éclairer les choix stratégiques et d’anticiper les mouvements de la concurrence. L’entreprise est considérée comme un acteur en alerte permanente, mobilisant des données, des outils d’analyse et des modèles prédictifs pour renforcer sa compétitivité. La perspective est à la fois défensive et offensive : l’intelligence économique sert à conquérir des parts de marché et à se prémunir des menaces externes.
À lire aussi : Le renseignement au service de l’économie : les 30 ans de retard de la France
À la même époque, un tout autre courant émerge. À l’initiative du chercheur suédois Stevan Dedijer qui propose une vision bien plus inclusive avec la « social intelligence ». L’information n’est pas seulement une ressource stratégique au profit de quelques acteurs cherchant à être dominants, mais une orientation collective : celle des institutions, des entreprises et des citoyens cherchant à apprendre, à s’adapter et à innover ensemble. Cette approche, fondée sur la coopération entre sphères publique et privée, promeut une perspective visant le développement durable des sociétés plutôt que la seule performance des organisations.
Un lien entre savoir et action
Ces deux traditions ne s’opposent pas seulement dans leurs finalités ; elles reflètent deux conceptions du lien entre savoir et action. La « competitive intelligence » privilégie la maîtrise de son environnement et la compétition, quand la « social intelligence » valorise la coordination et la mutualisation des connaissances. En Suède, cette dernière s’est traduite par des dispositifs régionaux associant recherche, industrie et pouvoirs publics pour renforcer la capacité d’adaptation collective.
En France, l’intelligence économique s’est construite sur un équilibre fragile entre ces deux héritages : celui de la guerre économique et celui de la coopération à l’échelle du territoire. Aujourd’hui, la perspective de la social intelligence trouve un véritable écho chez les dirigeants d’entreprise. Face à la complexité et à l’incertitude, ils privilégient désormais des démarches collectives et apprenantes plutôt que la seule recherche d’un avantage concurrentiel. L’intelligence économique devient un levier d’action concrète, ancré dans la coopération et la responsabilité.
Veille collaborative
Ces démarches se traduisent sur le terrain par des formes de veille collaborative, où les entreprises mutualisent la collecte et l’analyse d’informations pour anticiper les mutations de leur environnement. Elles s’incarnent aussi dans les « entreprises à mission », qui placent le sens, la durabilité et la contribution au bien commun au cœur de leur stratégie.
Ces pratiques s’inscrivent pleinement dans la réflexion menée par Maryline Filippi autour de la responsabilité territoriale des entreprises (RTE). Elle propose d’« entreprendre en collectif et en responsabilité pour le bien commun ». Elles traduisent une conception du développement où le territoire devient un espace vivant de coopération entre les acteurs économiques, publics et associatifs. Dans cette perspective, la performance n’est plus une fin en soi, mais un moyen d’assurer la robustesse des systèmes productifs, cette capacité à durer et à s’adapter que défend Olivier Hamant.
Des formes variées d’appropriation
Comme le montre ma recherche doctorale (en particulier Poisson et coll., 2025), la notion d’intelligence économique connaît une appropriation variée selon le profil de dirigeant. En particulier, nous révélons que l’intelligence économique est souvent mobilisée pour construire des relations en vue de se doter de la force collective nécessaire pour faire face à l’incertitude.
Ainsi comprise, l’intelligence économique s’incarne dans des réseaux d’acteurs apprenants, dans la capacité à créer de la confiance et à partager les ressources d’un territoire. Elle propose une autre voie que celle de la compétition : celle de la coopération, de l’éthique et de la conscience d’un destin commun.
Cet article est publié dans le cadre de la Fête de la science (qui a eu lieu du 3 au 13 octobre 2025), dont The Conversation France est partenaire. Cette nouvelle édition porte sur la thématique « Intelligence(s) ». Retrouvez tous les événements de votre région sur le site Fetedelascience.fr.
Julien Poisson a reçu des financements de la Région Normandie et de l'Agence Nationale de la Recherche Technologique (ANRT) dans le cadre de sa thèse CIFRE menée depuis novembre 2021.
Ludovic Jeanne est membre de l'Académie de l'Intelligence économique.
Simon Lee a reçu des financements de l'ANRT dans le cadre de contrats CIFRE.
16.11.2025 à 17:20
Pourquoi certains fromages couverts de moisissures peuvent être consommés, mais jamais de la viande avariée : les conseils d’un toxicologue sur les précautions à prendre
Texte intégral (2607 mots)
Dans la cuisine, la prudence est de mise avec les aliments qui se dégradent. Gare aux moisissures sur les céréales, les noix et les fruits, car ces champignons microscopiques libèrent des toxines à risque. Attention surtout aux bactéries très nocives qui se développent en particulier sur la viande avariée. Des pathogènes qui ne sont pas toujours perceptibles à l’odeur ou à l’œil.
Quand vous ouvrez le réfrigérateur et que vous trouvez un morceau de fromage couvert de moisissure verte ou un paquet de poulet qui dégage une légère odeur aigre, vous pouvez être tentés de prendre le risque de vous rendre malades plutôt que de gaspiller de la nourriture.
Mais il faut établir une frontière très nette entre une fermentation inoffensive et une altération dangereuse. La consommation d’aliments avariés expose l’organisme à toute une série de toxines microbiennes et de sous-produits biochimiques, dont beaucoup peuvent perturber des processus biologiques essentiels. Les effets sur la santé peuvent aller de légers troubles gastro-intestinaux à des affections graves telles que le cancer du foie.
Je suis toxicologue et chercheur, spécialisé dans les effets sur l’organisme de substances chimiques étrangères, à l’image de celles libérées lors de la détérioration des aliments. De nombreux aliments avariés contiennent des microorganismes spécifiques qui produisent des toxines. Étant donné que la sensibilité individuelle à ces substances chimiques diffère et que leur quantité dans les aliments avariés peut également varier considérablement, il n’existe pas de recommandations absolues sur ce qu’il est sûr de manger. Cependant, il est toujours bon de connaître ses ennemis afin de pouvoir prendre des mesures pour les éviter.
Céréales et noix
Les champignons sont les principaux responsables de la détérioration des aliments d’origine végétale tels que les céréales, les noix et les arachides. Ils forment des taches de moisissures duveteuses de couleur verte, jaune, noire ou blanche qui dégagent généralement une odeur de moisi. Bien qu’elles soient colorées, bon nombre de ces moisissures produisent des substances chimiques toxiques appelées mycotoxines.
Aspergillus flavus et Aspergillus parasiticus sont deux champignons courants présents sur des céréales comme le maïs, le sorgho, le riz ainsi que sur les arachides. Ils peuvent produire des mycotoxines appelées aflatoxines qui, elles-mêmes forment des molécules appelées époxydes ; ces dernières étant susceptibles de déclencher des mutations lorsqu’elles se lient à l’ADN. Une exposition répétée aux aflatoxines peut endommager le foie et a même été associée au cancer du foie, en particulier chez les personnes qui présentent déjà d’autres facteurs de risque, comme une infection par l’hépatite B.
Le genre Fusarium est un autre groupe de champignons pathogènes qui peuvent se développer sous forme de moisissures sur des céréales comme le blé, l’orge et le maïs, en particulier dans des conditions d’humidité élevée. Les céréales contaminées peuvent présenter une décoloration ou une teinte rosâtre ou rougeâtre, et dégager une odeur de moisi. Les champignons Fusarium produisent des mycotoxines appelées trichothécènes qui peuvent endommager les cellules et irriter le tube digestif. Ils libèrent également une autre toxine, la fumonisine B1 qui perturbe la formation et le maintien des membranes externes des cellules. Au fil du temps, ces effets peuvent endommager le foie et les reins.
Si des céréales, des noix ou des arachides semblent moisies, décolorées ou ratatinées, ou si elles dégagent une odeur inhabituelle, il vaut mieux faire preuve de prudence et les jeter. Les aflatoxines, en particulier, sont connues pour être de puissants agents cancérigènes, il n’existe donc aucun niveau d’exposition sans danger.
Qu’en est-il des fruits ?
Les fruits peuvent également contenir des mycotoxines. Quand ils sont abîmés ou trop mûrs, ou quand ils sont conservés dans des environnements humides, la moisissure peut facilement s’installer et commencer à produire ces substances nocives.
L’une des plus importantes est une moisissure bleue appelée Penicillium expansum. Elle est surtout connue pour infecter les pommes, mais elle s’attaque également aux poires, aux cerises, aux pêches et à d’autres fruits. Ce champignon produit de la patuline, une toxine qui interfère avec des enzymes clés dans les cellules, entrave leur fonctionnement normal et génère des molécules instables appelées espèces réactives de l’oxygène. Ces dernières peuvent endommager l’ADN, les protéines et les graisses. En grande quantité, la patuline peut endommager des organes vitaux comme les reins, le foie, le tube digestif ainsi que le système immunitaire.
Les « cousins » bleus et verts de P. expansum, Penicillium italicum et Penicillium digitatum, se retrouvent fréquemment sur les oranges, les citrons et autres agrumes. On ne sait pas s’ils produisent des toxines dangereuses, mais ils ont un goût horrible.
Il est tentant de simplement couper les parties moisies d’un fruit et de manger le reste. Cependant, les moisissures peuvent émettre des structures microscopiques ressemblant à des racines, appelées hyphes, qui pénètrent profondément dans les aliments et qui peuvent libérer des toxines, même dans les parties qui semblent intactes. Pour les fruits mous en particulier, dans lesquels les hyphes peuvent se développer plus facilement, il est plus sûr de jeter les spécimens moisis. Pour les fruits durs, en revanche, je me contente parfois de couper les parties moisies. Mais si vous le faites, c’est à vos risques et périls.
Le cas du fromage
Le fromage illustre parfaitement les avantages d’une croissance microbienne contrôlée. En effet, la moisissure est un élément essentiel dans la fabrication de nombreux fromages que vous connaissez et appréciez. Les fromages bleus tels que le roquefort et le stilton tirent leur saveur acidulée caractéristique des substances chimiques produites par un champignon appelé Penicillium roqueforti. Quant à la croûte molle et blanche des fromages tels que le brie ou le camembert, elle contribue à leur saveur et à leur texture.
En revanche, les moisissures indésirables ont un aspect duveteux ou poudreux et peuvent prendre des couleurs inhabituelles. Les moisissures vert-noir ou rougeâtre, parfois causées par des espèces d’Aspergillus, peuvent être toxiques et doivent être éliminées. De plus, des espèces telles que Penicillium commune produisent de l’acide cyclopiazonique, une mycotoxine qui perturbe le flux de calcium à travers les membranes cellulaires, ce qui peut altérer les fonctions musculaires et nerveuses. À des niveaux suffisamment élevés, elle peut provoquer des tremblements ou d’autres symptômes nerveux. Heureusement, ces cas sont rares, et les produits laitiers avariés se trahissent généralement par leur odeur âcre, aigre et nauséabonde.
En règle générale, jetez les fromages à pâte fraîche type ricotta, cream cheese et cottage cheese dès les premiers signes de moisissure. Comme ils contiennent plus d’humidité, les filaments de moisissure peuvent se propager facilement dans ces fromages.
Vigilance extrême avec les œufs et la viande avariés
Alors que les moisissures sont la principale cause de détérioration des végétaux et des produits laitiers, les bactéries sont les principaux agents de décomposition de la viande. Les signes révélateurs de la détérioration de la viande comprennent une texture visqueuse, une décoloration souvent verdâtre ou brunâtre et une odeur aigre ou putride.
Certaines bactéries nocives ne produisent pas de changements perceptibles au niveau de l’odeur, de l’apparence ou de la texture, ce qui rend difficile l’évaluation de la salubrité de la viande sur la base des seuls indices sensoriels. Quand elles sont toutefois présentes, l’odeur nauséabonde est causée par des substances chimiques telles que la cadavérine et la putrescine, qui se forment lors de la décomposition de la viande et peuvent provoquer des nausées, des vomissements et des crampes abdominales, ainsi que des maux de tête, des bouffées de chaleur ou une chute de tension artérielle.
Les viandes avariées sont truffées de dangers d’ordre bactérien. Escherichia coli, un contaminant courant du bœuf, produit la toxine Shiga qui bloque la capacité de certaines cellules à fabriquer des protéines et peut provoquer une maladie rénale dangereuse appelée syndrome hémolytique et urémique.
La volaille est souvent porteuse de la bactérie Campylobacter jejuni qui produit une toxine qui envahit les cellules gastro-intestinales, ce qui entraîne souvent des diarrhées, des crampes abdominales et de la fièvre. Cette bactérie peut également provoquer une réaction du système immunitaire qui attaque ses propres nerfs. Cela peut déclencher une maladie rare appelée syndrome de Guillain-Barré qui peut entraîner une paralysie temporaire.
Les salmonelles présentes notamment dans les œufs et le poulet insuffisamment cuits, causent l’un des types d’intoxication alimentaire les plus courants. Elles provoquent des diarrhées, des nausées et des crampes abdominales. Elles libèrent des toxines dans la muqueuse de l’intestin grêle et du gros intestin, qui provoquent une inflammation importante.
(En France, l’Agence nationale de sécurité sanitaire – Anses – rappelle que les aliments crus ou insuffisamment cuits, surtout d’origine animale, sont les plus concernés par les contaminations par les bactéries du genre « Salmonella » : les œufs et les produits à base d’œufs crus, les viandes -bovines, porcines, incluant les produits de charcuterie crue, et de volailles –, les fromages au lait cru. L’Anses insiste aussi sur le fait que les œufs et les aliments à base d’œufs crus – mayonnaise, crèmes, mousse au chocolat, tiramisu, etc.- sont à l’origine de près de la moitié des toxi-infections alimentaires collectives dues à Salmonella, ndlr).
Clostridium perfringens attaque également l’intestin, mais ses toxines agissent en endommageant les membranes cellulaires. Enfin, Clostridium botulinum, qui peut se cacher dans les viandes mal conservées ou vendues en conserves, produit la toxine botulique, l’un des poisons biologiques les plus puissants, qui se révèle mortelle même en très petites quantités.
Il est impossible que la viande soit totalement exempte de bactéries. Mais plus elle reste longtemps au réfrigérateur – ou pire, sur votre comptoir ou dans votre sac de courses – plus ces bactéries se multiplient. Et vous ne pouvez pas les éliminer toutes en les cuisant. La plupart des bactéries meurent à des températures sûres pour la viande – entre 63-74 °C (145 et 165 degrés Fahrenheit) – mais de nombreuses toxines bactériennes sont stables à la chaleur et survivent à la cuisson.
Brad Reisfeld ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
16.11.2025 à 15:39
L’affrontement sur la taxe Zucman : une lutte de classe ?
Texte intégral (1326 mots)
Le terme de lutte des classes est peu utilisé depuis l’effondrement du communisme. Pourtant, le débat sur la taxe Zucman révèle un violent clivage de classe entre une infime minorité de très grandes fortunes et l’immense majorité des Français.
Pendant près de six mois, le projet de taxe Zucman a focalisé l’intérêt médiatique et politique. Il a aussi contribué à mettre en évidence un clivage de classes habituellement occulté par une forme « d’embargo théorique » qui pèse depuis le milieu des années 1970 sur le concept de classe sociale, comme sur tous les concepts affiliés (à tort ou à raison) au marxisme.
Retour sur le feuilleton de la taxe Zucman
Le 11 juin dernier, Olivier Blanchard (économiste en chef du Fonds monétaire international entre 2008 et 2015), Jean Pisani-Ferry (professeur d’économie à Sciences Po Paris et directeur du pôle programme et idées d’Emmanuel Macron en 2017) et Gabriel Zucman (professeur à l’École normale supérieure) publiaient une tribune où ils se prononçaient, en dépit de leurs divergences, en faveur d’un impôt plancher de 2 % sur le patrimoine des foyers fiscaux dont la fortune dépasse 100 millions d’euros (environ 1 800 foyers fiscaux), susceptible de rapporter de 15 milliards à 25 milliards d’euros par an au budget de l’État (les exilés fiscaux éventuels restant soumis à l’impôt plancher cinq ans après leur départ).
Dès la rentrée, les médias ouvraient un débat sur fond de déficit public et de « dette de l’État » que relançait chaque apparition de Gabriel Zucman. Sur un sujet économique réputé aride, ils recyclaient la confrontation à la fois inusable et omnibus entre « intellectualisme », « amateurisme » sinon « incompétence », imputés aux universitaires, et « sens pratique » des « hommes de terrain » confrontés aux « réalités » (de la vie économique) et/ou entre « prise de position partisane » et « neutralité », « impartialité », « apolitisme », attribués à la prise de position opposée. Le débat s’étendait rapidement aux réseaux sociaux : il opposait alors les partisans de la taxe qui invoquaient la « justice fiscale et sociale » à des opposants qui dénonçaient « une mesure punitive », « dissuasive pour l’innovation et l’investissement ».
Le 20 septembre, dans une déclaration au Sunday Times, Bernard Arnault, PDG du groupe LVMH et première fortune de France, avait décliné in extenso les deux volets de l’anti-intellectualisme médiatique en mettant en cause la « pseudo-compétence universitaire » de Gabriel Zucman et en dénonçant « un militant d’extrême gauche » dont « l’idéologie » vise « la destruction de l’économie libérale ».
Le Medef lui avait emboîté le pas. En guerre contre la taxe Zucman, Patrick Martin, affirmant que Zucman « serait aussi économiste que [lui] serait danseuse étoile au Bolchoï », annonçait un grand meeting le 13 octobre à Paris. Pourtant, il avait dû y renoncer face à la division créée par cette initiative au sein du camp patronal : l’U2P et la CPME (artisans et petites et moyennes entreprises) avaient décliné l’invitation : « On ne défend pas les mêmes intérêts », disaient-ils.
Mi-septembre, selon un sondage Ifop, 86 % des Français plébiscitaient la taxe Zucman.
Une bataille politique
À ces clivages que traçait le projet de taxe Zucman au sein du champ médiatique (audiovisuel public, d’un côté, et « supports » contrôlés par une dizaine de milliardaires, de l’autre) et de l’espace social (où les milliardaires s’opposaient à tous les autres) correspondaient approximativement ceux du champ politique. Portée initialement par une proposition de loi de Clémentine Autain et Éva Sas (groupe Écologiste et social), la taxe Zucman avait d’abord été adoptée par l’Assemblée nationale, le 20 février, avant d’être rejetée par le Sénat, le 12 juin.
Mais l’opportunité du projet se faisait jour au cours de l’été avec l’exhortation de François Bayrou à « sortir du piège mortel du déficit et de la dette », puis à l’occasion de l’invitation de Sébastien Lecornu à débattre du projet de budget du gouvernement « sans 49.3 ».
Le 31 octobre dernier, non seulement la taxe Zucman était balayée par une majorité de députés, mais également « sa version light » portée par le Parti socialiste (PS). Mesure de « compromis », la taxe « Mercier » (du nom d’Estelle Mercier, députée PS de Meurthe-et-Moselle) pouvait sembler plus ambitieuse, mais, en créant des « niches et des « exceptions », elle comportait, selon Gabriel Zucman, « deux échappatoires majeures » qui amorçaient « la machine à optimisation ».
Refusant de « toucher à l’appareil productif », selon sa porte-parole Maud Bregeon, le gouvernement Lecornu s’y opposait. Les députés d’Ensemble pour la République (députés macronistes) votaient contre (60 votants sur 92 inscrits) comme ceux de la Droite républicaine (28 sur 50). Le Rassemblement national (RN), qui s’était abstenu en février, s’inscrivait désormais résolument contre ce projet de taxe (88 sur 123) que Marine Le Pen décrivait comme « inefficace, injuste et dangereuse puisqu’elle entraverait le développement de nos entreprises ». Soixante-et-un députés socialistes et apparentés sur 69, 60 députés sur 71 de La France insoumise (LFI), 33 députés sur 38 du groupe Écologiste et social ainsi que 12 députés sur 17 du groupe Gauche démocrate et républicaine avaient voté pour le projet. Les députés LFI appelaient alors à la censure du gouvernement.
La lutte des 1 % les plus riches pour leurs privilèges
L’essor du néolibéralisme au cours des cinquante dernières années a certes transformé la morphologie des classes sociales (à commencer par celle de la « classe ouvrière » délocalisée et précarisée), accréditant ainsi l’avènement d’une « société post-industrielle », l’extension indéfinie d’une « classe moyenne » envahissante ou l’émergence d’une « société des individus » ou encore la prééminence des clivages (de sexe, de phénotype, d’âge, etc.) associés au revival des « nouveaux mouvements sociaux ».
Pourtant, le débat sur la taxe Zucman révèle bien un clivage de classe – comment l’appeler autrement ? – entre le 1 % et les 99 %, et l’âpreté de la lutte des 1 % pour la défense de leurs privilèges. Tout se passe comme si, en effet, à l’occasion de ce débat, s’était rejoué en France, sur la scène politico-médiatique, le mouvement Occupy Wall Street de septembre 2011 qui avait pour mot d’ordre :
« Ce que nous avons tous en commun, c’est que nous sommes les 99 % qui ne tolèrent plus l’avidité des 1 % restants. »
Gérard Mauger ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
16.11.2025 à 15:38
Tanzanie : la fermeture de l’espace numérique, élément clé de la répression
Texte intégral (1904 mots)
Face au puissant mouvement de contestation qui s’est emparé de la Tanzanie à la suite des élections générales, l’une des réponses du pouvoir a consisté à couper les réseaux sociaux. Dans ce grand pays d’Afrique de l’Est, comme dans bien d’autres pays aujourd’hui, la maîtrise de l’espace numérique est devenue un aspect central de la répression.
Le 29 octobre 2025, la Tanzanie a tenu des élections générales censées prolonger la trajectoire démocratique d’un pays souvent vu comme un îlot de stabilité politique en Afrique de l’Est.
Mais dans un climat déjà tendu – manifestations sporadiques à Zanzibar et Arusha, arrestations d’opposants, présence accrue de force de sécurité et fermeture partielle des médias critiques –, le scrutin s’est transformé en crise politique majeure. La présidente sortante Samia Suluhu Hassan, devenue présidente de Tanzanie en mars 2021 à la suite du décès du président John Magufuli, dont elle était la vice-présidente, a été élue avec près de 98 % des voix dans un contexte où le principal parti d’opposition, Chadema, avait été marginalisé et plusieurs de ses dirigeants arrêtés.
Dès l’annonce des résultats, des manifestations de protestation ont éclaté à Dar es Salaam (la plus grande ville du pays, où vivent environ 10 % des quelque 70 millions d’habitants du pays), à Mwanza et à Arusha. Les affrontements auraient fait, selon les sources, entre 40 et 700 morts, et plus d’un millier de blessés.
Face à la propagation des manifestations, le pouvoir a réagi par un couvre-feu national, un déploiement militaire dans les grandes villes et une coupure d’accès à Internet pendant environ 5 jours, invoquant la prévention de la désinformation comme mesure de sécurité. L’accès à Internet a été partiellement rétabli, mais les restrictions sur les réseaux sociaux et les plates-formes de messagerie persistent.
Ce triptyque autoritaire – fermeture politique, verrouillage territorial et blackout numérique – a transformé une contestation électorale en véritable crise systémique de confiance entre État et citoyens, entre institutions et information, et entre stabilité et légitimité.
Gouverner par le silence : quand le contrôle de l’information devient une stratégie de stabilité
Le contrôle de l’information comme pratique de gouvernement
Dans la perspective des sciences de l’information et de la communication (SIC), la séquence tanzanienne illustre une tendance plus large qui est celle de la transformation de la gestion de l’information en technologie de pouvoir (voir notamment, Michel Foucault, Surveiller et punir. Naissance de la prison, 1975 ; Gilles Deleuze, Post-scriptum sur les sociétés de contrôle, 1990).
Le blackout numérique ne vise pas seulement à contenir la désinformation ; il reconfigure les conditions mêmes de la visibilité. Comme le souligne Pierre Musso dès 2003 dans Télécommunications et philosophie des réseaux, l’espace numérique n’est plus un simple médium mais un espace politique. En contrôler l’accès, c’est aussi gouverner la perception.
Privés de réseaux sociaux, les citoyens perdent sur-le-champ leurs canaux d’expression. Les médias indépendants se retrouvent aveugles et les ONG ne peuvent plus documenter les violences.
C’est ainsi que l’État redevient le seul producteur de discours légitime : une régie symbolique de l’ordre public, pour reprendre la notion de Patrick Charaudeau (2005) sur la mise en scène du pouvoir.
Cette stratégie s’inscrit dans un continuum déjà observé lors d’autres scrutins africains (Ouganda 2021, Tchad 2021, Sénégal 2024). Elle marque une mutation du contrôle politique où il ne s’agit plus de réprimer la parole mais de désactiver les infrastructures mêmes de la parole.
La fabrique de la stabilité par la censure
Le discours officiel invoque la lutte contre les fausses informations pour justifier les coupures. Mais l’analyse sémiotique révèle un glissement de sens. L’ordre public devient synonyme de silence collectif et la stabilité politique se construit sur la neutralisation des espaces numériques de débat.
Les travaux en communication politique (Dominique Wolton, 1997) montrent que la démocratie suppose du bruit, du conflit, du débat et que le silence n’est pas l’ordre mais plutôt la suspension de la communication sociale.
Cette logique de stabilité performative donne l’illusion qu’il suffit que l’État contrôle la perception du désordre pour produire l’image d’un ordre.
Dans l’analyse du cas tanzanien, cette mise en scène du calme repose sur une invisibilisation dans la mesure où le calme apparent des réseaux remplace la réalité conflictuelle du terrain. Ce phénomène de stabilité performative, c’est-à-dire ici le calme apparent des réseaux traduisant une stabilité imposée, a déjà été observé au Cameroun et en Ouganda. Dans ces cas, la coupure d’Internet fut utilisée pour maintenir une image d’ordre pendant les scrutins contestés.
Or, la Tanzanie est un pays jeune. Près de 65 % de sa population a moins de 30 ans. Cette génération connectée via TikTok, WhatsApp ou X a intégré les réseaux sociaux non seulement comme espace de loisir mais aussi comme lieu d’existence politique. La priver soudainement d’accès dans ce moment précis porte à l’interprétation inévitable d’un effacement d’une part de la citoyenneté numérique.
Cette fracture illustre une asymétrie de compétences médiatiques qui se caractérise par le fait que le pouvoir maîtrise les outils pour surveiller tandis que les citoyens les mobilisent pour exister. Le conflit devient ainsi info-communicationnel dans la mesure où il se joue sur les dispositifs de médiation plutôt que dans la confrontation physique.
Aussi les répercussions sont-elles économiquement et symboliquement élevées.
Les interdictions de déplacement paralysent le commerce intérieur et les ports, les coupures d’Internet entraînent une perte économique estimée à 238 millions de dollars (un peu plus de 204 millions d’euros) et les ONG et entreprises internationales suspendent leurs activités face au manque de visibilité opérationnelle.
Mais au-delà du coût économique, la coupure d’Internet produit un effet délétère où la relation de confiance entre État et citoyens est rompue. L’information, en tant que bien commun, devient ici un instrument de domination.
Crise de la médiation et dérive sécuritaire en Afrique numérique
En Tanzanie, la circulation de l’information repose désormais sur des dispositifs de contrôle, non de transparence. L’État agit comme gatekeeper unique en filtrant les récits selon une logique de sécurité nationale. On assiste ainsi à une crise de la médiation où le lien symbolique entre institutions, médias et citoyens se défait.
Cette rupture crée une désintermédiation forcée où des circuits parallèles (VPN, radios communautaires, messageries clandestines) émergent, mais au prix d’une fragmentation du débat public. La sphère publique devient une mosaïque de micro-espaces informels, sans régulation et favorisant l’amplification des rumeurs et de discours extrêmes.
La situation tanzanienne dépasse le cadre du pays, en mettant en évidence les tensions d’un continent engagé dans une modernisation technologique sans démocratisation parallèle. L’Afrique de l’Est, longtemps vitrine du développement numérique avec le Kenya et le Rwanda, découvre que l’économie digitale ne garantit pas la liberté numérique.
À lire aussi : Rwanda, Maroc, Nigeria, Afrique du Sud : les quatre pionniers des nouvelles technologies en Afrique
Là où les infrastructures se développent plus vite que les institutions, les réseaux deviennent des zones grises de gouvernance. Ni pleinement ouverts ni totalement fermés, ils sont constamment surveillés. Le cas tanzanien incarne ainsi un moment charnière où la technologie cesse d’être vecteur de progrès pour devenir vecteur de pouvoir.
Dans une approche SIC, la question centrale reste celle de la sécurité communicationnelle.
Peut-on parler de sécurité nationale lorsque la sécurité informationnelle des citoyens est compromise ? La coupure d’Internet ne prévient pas la crise mais la diffère, la rendant plus imprévisible et violente. Cette distinction entre sécurité perçue et sécurité vécue est la preuve que la stabilité ne se mesure pas à l’absence de bruit mais à la qualité du lien informationnel entre les acteurs.
Une démocratie sous silence
La Tanzanie illustre une mutation du pouvoir à l’ère numérique : gouverner, c’est aussi, désormais, gérer la visibilité. Mais la maîtrise de cette visibilité ne suffit pas à produire la légitimité. En restreignant l’accès à l’information, le régime tanzanien a peut-être gagné du temps mais il a sûrement perdu de la confiance. Pour les observateurs africains et internationaux, cette crise n’est pas un accident mais le symptôme d’une Afrique connectée, mais débranchée de sa propre parole.
Fabrice Lollia ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
16.11.2025 à 15:38
Pourquoi le XXIe siècle sera « le siècle des animaux »
Texte intégral (1792 mots)
Au XXe siècle, les combats pour plus d’égalité ont permis à de nombreux groupes sociaux de devenir des sujets de droit. Cette progression vers davantage d’inclusivité pourrait faire du XXIe siècle le siècle des animaux. Mais comment les intégrer dans nos textes de loi ? Si les animaux ont des droits, ont-ils aussi des devoirs ?
Dans cet extrait de son essai « Par effraction. Rendre visible la question animale », aux éditions Stock/Philosophie magazine (2025), la politiste Réjane Sénac sonde ces questions.
Au XXe siècle, les mobilisations contre les inégalités ont eu pour point commun de revendiquer que chaque humain soit reconnu et traité comme un égal, dans la dénonciation des effets imbriqués du sexisme, du racisme et des injustices économiques et sociales. Pour cela, elles ont remis en cause l’animalisation de certains groupes humains, qu’il s’agisse des femmes, des personnes racisées, des personnes en situation de handicap et/ou des « pauvres ». L’animalisation a en effet été une des justifications centrales de l’exclusion hors de la citoyenneté active de ces groupes d’individus renvoyés à leur prétendue incapacité à être du côté de la raison du fait de leurs « qualités » et missions dites naturelles. L’objectif a été d’intégrer ces groupes dans la communauté des égaux en les faisant passer de l’autre côté de la barrière instaurée entre l’animalité et l’humanité. La légitimité et les conséquences de cette barrière ont ainsi été abordées à travers le prisme de l’émancipation humaine, et non celui de la domination des animaux non humains.
Dans l’approche antispéciste, le statut moral accordé aux animaux leur confère une reconnaissance comme sujets de droit, non pas pour accéder à des droits équivalents à ceux des humains (par exemple le droit de vote ou de mariage), mais à des droits adaptés à leurs besoins. L’enjeu est alors de penser la cohabitation la plus juste possible des intérêts, potentiellement divergents, des différentes espèces, humaines et non humaines. Dans Considérer les animaux. Une approche zooinclusive, Émilie Dardenne propose une démarche progressive dans la prise en compte des intérêts des animaux, au-delà de l’espèce humaine.
Elle présente des pistes concrètes de transition aux niveaux individuel et collectif, qui vont de la consommation aux choix de politique publique en passant par l’éducation et la formation. Elle propose des outils pratiques pour aider à porter des changements durables. Au niveau individuel, la zooinclusivité consiste par exemple à prendre en compte les besoins de l’animal que l’on souhaite adopter et l’engagement – financier, temporel… – qu’une telle démarche engendrerait avant de prendre la décision d’avoir un animal dit de compagnie. Au niveau des politiques publiques, la zooinclusivité prendrait par exemple la forme de l’inscription des droits des animaux dans la Constitution afin de ne pas en rester à une proclamation de leur reconnaissance comme « des êtres vivants doués de sensibilité » (article 515 du Code civil depuis 2015) ou des « êtres sensibles » (article L214 1 du Code rural depuis 1976), mais de permettre qu’ils acquièrent une personnalité juridique portant des droits spécifiques et adaptés. Le rôle fondamental de la Constitution est à ce titre soulevé par Charlotte Arnal, animaliste, pour qui « un projet de société commence par une Constitution, les animaux faisant partie de la société, elle doit les y intégrer ». Cette mesure, qu’elle qualifie de symbolique, « se dépliera aussi concrètement dans le temps, dans les tribunaux ». C’est dans cette perspective que Louis Schweitzer, président de la Fondation Droit Animal, Éthique et Sciences (LFDA), a pour ambition de faire de la Déclaration des droits de l’animal proclamée à l’Unesco en 1978, et actualisée en 2018 par la LFDA, un outil pédagogique diffusé dans les lieux publics et les écoles, puis qu’elle soit transposée dans la loi.
À travers Animal Cross, une association généraliste de protection animale, qu’il a cofondée en 2009 et qu’il préside, Benoît Thomé porte aussi cet horizon. Il défend l’intégration d’un article 0 comme base à notre système juridique, qui serait formulé en ces termes : « Tous les êtres vivants, domaines de la nature, minéral, humain, végétal, animal, naissent et demeurent libres et égaux en devoirs et en droits. » À l’argument selon lequel on ne peut pas accorder de droits aux animaux car ils ne peuvent pas assumer de devoirs, il répond que « les animaux font plus que leurs devoirs avec tout ce qu’ils font pour nous et les autres êtres vivants. Les êtres humains se privent d’une belle vie en ne voyant pas la beauté des relations avec les animaux ». Il cite le philosophe Tom Regan, auteur entre autres du célèbre article « The Rights of Humans And Other Animals » en 1986, pour préciser que, si l’on pose le critère de l’autonomie rationnelle comme une condition de l’accès aux droits moraux, il faut le refuser à tous les humains dépourvus de cette caractéristique, comme les bébés et les déficients intellectuels graves. Le critère plus inclusif de la capacité à ressentir des émotions étant celui qui est retenu pour les humains, en vertu de l’exigence de cohérence, il est alors logique, selon lui, d’attribuer des droits à tous les êtres sentients, qu’ils soient humains ou non.
Benoît Thomé souligne son désaccord avec Tom Regan sur le fait de considérer les animaux comme des patients moraux et non des agents moraux au sens où, comme les personnes vulnérables, les enfants ou les personnes en situation de handicap, ils auraient des droits mais ne pourraient pas accomplir leurs devoirs. Il souligne que les animaux accomplissent « leurs devoirs envers nous, êtres humains, et envers la nature et les écosystèmes pour les animaux sauvages, naturellement et librement, et non comme un devoir. Il faut donc “désanthropiser” ce concept pour le comprendre au sens de don, service rendu aux autres êtres vivants, participation aux écosystèmes ». Il précise que c’est « le sens de l’histoire » d’étendre les droits « de la majorité aux plus vulnérables », cela a été le cas pour les humains, c’est maintenant l’heure des animaux non humains.
Sans nier la réalité historique de l’animalisation des personnes ayant une déficience intellectuelle, des voix telles que celles des philosophes Licia Carlson et Alice Crary invitent le mouvement antispéciste à être vigilant vis-à-vis de « l’argument des cas marginaux » pour justifier l’extension de la considération morale aux animaux non humains. En écho aux critiques de la philosophe et militante écoféministe Myriam Bahaffou sur l’usage de l’analogie avec le sexisme et le racisme dans le discours antispéciste, elles pointent une instrumentalisation de la figure du handicap mental pouvant paradoxalement renforcer les processus de déshumanisation qu’il prétend combattre.
Le lien entre l’agrandissement de la communauté politique et juridique au XXe siècle et les questions posées au XXIe siècle par la question animale est également abordé par Amadeus VG Humanimal, fondateur et président de l’association FUTUR. Il inscrit les revendications antispécistes dans une continuité historique en précisant que « le cercle de compassion ne fait que s’agrandir, à travers les droits civiques au XIXe siècle puis les droits des femmes au XXe et ceux des animaux au XXIe siècle ». Le XXIe siècle sera donc « le siècle des animaux », l’enjeu est de « repousser le nuage du spécisme en proposant une nouvelle vision du monde ». Sans minorer le poids actuel, notamment électoral, de l’extrême droite et du populisme, il considère que c’est « un backlash temporaire », comme cela a été le cas pour les groupes humains exclus des droits de l’homme. Selon lui, l’ombre qui a longtemps occulté les droits des animaux se dissipera progressivement. De la même manière que la décision du 21 février 2021 du tribunal administratif de reconnaître l’État responsable d’inaction face à la lutte contre le réchauffement climatique est considérée comme une victoire écologique historique, qualifiée d’Affaire du siècle, il ne doute pas que, concernant la question animale, l’« Affaire du steak » viendra.
Réjane Sénac ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
16.11.2025 à 10:15
Pourquoi davantage de dette européenne favorisera la croissance et la consolidation des finances publiques des pays de l’UE
Texte intégral (2484 mots)

L’émission de dette par l’Union européenne, lancée par le plan de relance européen du 27 mai 2020 (Next Generation EU), peut profiter à ses États membres. Car qui dit dette, dit obligation, mais aussi actif financier. Un actif sûr européen demandé par les investisseurs du monde entier, comme alternative aux bons du Trésor fédéral états-unien.
Alors que l’impératif de réduction du déficit budgétaire continue d’alimenter la crise politique en France et que les négociations s’engagent sur le prochain cadre financier pluriannuel (CFP) de l’Union européenne (UE), cette dernière continue de monter en puissance en tant qu’émetteur de dette obligataire.
Cet essor est du au plan de relance européen proposé par la Commission européenne le 27 mai 2020, à savoir Next Generation EU (NGEU). Celui-ci semble avoir ouvert la voie vers une capacité d’emprunt européenne permanente. Durant l’été 2025, l’UE met au point le programme SAFE (Security Action for Europe) qui prévoit 150 milliards d’euros de dette, tandis que la Commission européenne propose la création d’un instrument de gestion de crise. Celui-ci autoriserait l’exécutif européen à lever jusqu’à 400 milliards d’euros le cas échéant.
Dans cet article, j’explique pourquoi l’émission pérenne et accrue de dette européenne contribuera à la consolidation des finances publiques des États membres. Raison de plus pour l’UE d’accélérer dans cette direction.
Ce que veulent les investisseurs
Le point de départ de ce raisonnement est simple : que demandent les investisseurs en la matière ?
En 1999, la création de l’Union économique et monétaire (UEM) crée le potentiel de défauts souverains en Europe, c’est-à-dire le risque financier qu’un État membre ne rembourse pas ses dettes. L’UEM a soustrait la création monétaire au contrôle des États membres pour la confier à la Banque centrale européenne. Sans ce contrôle, les États de l’Union européenne perdent la certitude de pouvoir honorer leurs obligations souveraines car ils renoncent à la possibilité d’avoir recours à la création monétaire pour se financer.
Pour un ensemble de raisons, ce risque financier potentiel déstabilise le fonctionnement des marchés des capitaux, car il élimine le statut d’actif sûr dont jouissaient les titres de dette publique jusque-là.
C’est la raison pour laquelle les investisseurs financiers ont très tôt compris que l’Union économique et monétaire devrait être complétée par la création d’un actif sûr européen, soit d’une part en recourant à l’émission et la responsabilité conjointes des États de l’UE, soit d’autre part à l’émission de titres de dette par la Commission européenne.
Une alternative aux actifs libellés en dollar
L’offre de ce nouvel actif financier européen devrait être volumineuse, fréquente et pérenne de manière à s’ériger en actif financier de référence et valeur refuge dans le marché financier européen. Pour la quasi-totalité des investisseurs, le modèle à reproduire est celui du marché états-unien de la dette publique, dont le pivot est le bon du Trésor fédéral.
À lire aussi : Face à la dette publique, « trois » Europe et une seule monnaie
À cela s’ajoute une demande croissante de la part des investisseurs extraeuropéens pour une alternative aux actifs libellés en dollar. Cette tendance est apparue depuis une dizaine d’années avec l’arsenalisation croissante du dollar par l’administration fédérale états-unienne. Le terme « arsenalisation du dollar » renvoie à un ensemble de pratiques à visée géopolitique, comme la menace d’interdire l’accès aux marchés financiers américains ou des poursuites judiciaires pour non-respect de sanctions (contre l’Iran, par exemple) prononcées par l’administration. Depuis un an, l’instabilité politique aux États-Unis, notamment la menace de réduire l’indépendance de la Réserve fédérale, a accru cette demande de diversification. L’euro est bien placé pour offrir une alternative, mais à condition de pouvoir offrir un actif aussi sûr et liquide que le bon du Trésor fédéral.
Étant donné que l’évolution de l’UE en émetteur souverain est une demande forte des investisseurs, par quels mécanismes cela pourrait-il contribuer à la consolidation des finances publiques des États membres ?
Premier canal : l’offre accrue d’actifs sûrs rassurera les investisseurs
Le premier mécanisme concerne l’effet général sur l’évaluation des risques de crédit par les investisseurs. L’augmentation nette de l’offre d’actifs sûrs aura un effet général rassurant et par conséquent réduira les primes de risque, mais aussi les spreads (différence de taux d’intérêt d’une obligation avec celui d’une obligation de référence de même durée) entre États de l’UE.
Un exemple de cette dynamique est l’expérience de l’automne 2020, avant et après l’annonce de l’accord sur le plan de relance européen. Tant que cet accord éludait les dirigeants européens, la fébrilité était palpable sur les marchés et les spreads. Celui de l’Italie en particulier avait tendance à s’écarter. L’annonce de l’accord a immédiatement inversé la dynamique. La mise en œuvre du programme fait qu’aujourd’hui les États membres du sud de l’UE – Italie, Espagne, Portugal – empruntent à des conditions similaires à celles de la France.
Deuxième canal : attraction accrue de capitaux extraeuropéens
Le deuxième mécanisme répond à la demande de diversification des investisseurs extraeuropéens. En leur proposant une alternative crédible aux actifs en dollar, l’émission accrue de dette européenne attirera un surcroît de flux extraeuropéens vers l’Europe. Cela augmentera l’offre de crédit en Europe, ce qui diminuera les taux d’intérêt de façon générale et facilitera le financement de l’économie européenne.
Troisième canal : emprunter pour investir agira sur le dénominateur
Le troisième mécanisme dépend de l’utilisation des ressources collectées par l’émission de dette. Si, comme avec le plan de relance européen Next Generation EU, ces ressources sont affectées à l’investissement public, notamment en infrastructures, cela améliorera la croissance potentielle.
L’accélération de la croissance générera un surplus de recettes fiscales, tout en agissant sur le dénominateur (à savoir le PIB, auquel on rapporte le stock de dette publique pour obtenir le ratio qui sert le plus souvent de référence dans les débats sur la soutenabilité des dettes). Les effets bénéfiques attendus sont aujourd’hui visibles dans les principaux États membres bénéficiaires de ce plan de relance, à savoir l’Italie et l’Espagne.
L’amélioration des perspectives de croissance aura aussi un effet spécifiquement financier. Pourquoi ? Car elle contribuera à retenir davantage de capitaux européens qui aujourd’hui s’exportent aux États-Unis pour chercher des rendements plus élevés dans les start-ups du pays de l’Oncle Sam. En d’autres termes, la résorption de l’écart de croissance entre États-Unis et Europe offrira relativement plus d’opportunités de placement en Europe même à l’épargne européenne.
Quatrième canal : favoriser la constitution de l’union du marché des capitaux
Un actif sûr européen est la pièce maîtresse pour enfin aboutir à l’union des marchés des capitaux. L’offre d’un actif financier de référence, ou benchmark asset, contribuera à uniformiser les conditions financières dans les États de l’UE, favorisera la diversification et la dénationalisation des expositions au risque et fournira du collatéral en grande quantité pouvant servir à garantir les transactions transfrontières au sein de l’UE.
Cette dernière fonction des titres de dette publique (servir de collatéral dans les transactions financières) est capitale pour le fonctionnement du système financier contemporain. Lorsque les banques et autres firmes financières ont besoin de liquidités, elles se tournent vers d’autres firmes financières et leur en empruntent en garantissant la transaction par des titres de dette publique.
L’utilisation de ces titres à cette fin découle de leur statut d’actif sûr. C’est la raison pour laquelle un actif sûr européen sous forme de titres émis par la Commission européenne favorisera les transactions transfrontières : une banque portugaise pourra beaucoup plus facilement emprunter des liquidités à un assureur allemand si la transaction est garantie par des titres européens plutôt que par des titres portugais par exemple.
L’union des marchés des capitaux, c’est-à-dire l’élimination du biais national dans la composition des portefeuilles d’actifs, améliorera l’allocation globale du capital en permettant de mieux aligner épargne et investissements à travers le marché européen. Cela était précisément l’un des effets principaux escomptés lors de la création de l’Union économique et monétaire (UEM).
Durant la première décennie de son existence, cette intégration financière a eu lieu, bien que cela servît à financer des bulles de crédit dans la périphérie qui alimentèrent la crise de l’Union économique et monétaire en 2009-2012. Les flux accrus de capitaux vers les États membres du sud de l’Europe ont diminué drastiquement le coût de financement des entreprises et des autorités publiques mais ont principalement été canalisés vers des investissements improductifs et spéculatifs comme la bulle immobilière en Espagne. Or, intégration financière et bulles de crédit ne sont pas synonymes : si les conditions sont mises en place pour canaliser le surcroît de flux de capitaux transfrontières vers les investissements productifs, la hausse de la croissance sera durable.
Christakis Georgiou ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.